org.apache.hadoop.record.meta.Utils类的使用及代码示例

x33g5p2x  于2022-02-01 转载在 其他  
字(14.7k)|赞(0)|评价(0)|浏览(129)

本文整理了Java中org.apache.hadoop.record.meta.Utils类的一些代码示例,展示了Utils类的具体用法。这些代码示例主要来源于Github/Stackoverflow/Maven等平台,是从一些精选项目中提取出来的代码,具有较强的参考意义,能在一定程度帮忙到你。Utils类的具体详情如下:
包路径:org.apache.hadoop.record.meta.Utils
类名称:Utils

Utils介绍

[英]Various utility functions for Hadooop record I/O platform.
[中]Hadooop记录I/O平台的各种实用功能。

代码示例

代码示例来源:origin: org.apache.hadoop/hadoop-common-test

public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
throws java.io.IOException {
 if (null == _rio_rtiFilter) {
  deserializeWithoutFilter(_rio_a, _rio_tag);
  return;
 }
 // if we're here, we need to read based on version info
 _rio_a.startRecord(_rio_tag);
 setupRtiFields();
 for (int _rio_i=0; _rio_i<_rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) {
  if (1 == _rio_rtiFilterFields[_rio_i]) {
   data=_rio_a.readString("data");
  }
  else {
   java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>)(_rio_rtiFilter.getFieldTypeInfos());
   org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID());
  }
 }
 _rio_a.endRecord(_rio_tag);
}
public int compareTo (final Object _rio_peer_) throws ClassCastException {

代码示例来源:origin: org.apache.hadoop/hadoop-common-test

public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
throws java.io.IOException {
 if (null == _rio_rtiFilter) {
  deserializeWithoutFilter(_rio_a, _rio_tag);
  return;
 }
 // if we're here, we need to read based on version info
 _rio_a.startRecord(_rio_tag);
 setupRtiFields();
 for (int _rio_i=0; _rio_i<_rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) {
  if (1 == _rio_rtiFilterFields[_rio_i]) {
   data=_rio_a.readBuffer("data");
  }
  else {
   java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>)(_rio_rtiFilter.getFieldTypeInfos());
   org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID());
  }
 }
 _rio_a.endRecord(_rio_tag);
}
public int compareTo (final Object _rio_peer_) throws ClassCastException {

代码示例来源:origin: org.apache.hadoop/hadoop-common-test

public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
throws java.io.IOException {
 if (null == _rio_rtiFilter) {
  deserializeWithoutFilter(_rio_a, _rio_tag);
  return;
 }
 // if we're here, we need to read based on version info
 _rio_a.startRecord(_rio_tag);
 setupRtiFields();
 for (int _rio_i=0; _rio_i<_rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) {
  if (1 == _rio_rtiFilterFields[_rio_i]) {
   stringVal=_rio_a.readString("stringVal");
  }
  else {
   java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>)(_rio_rtiFilter.getFieldTypeInfos());
   org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID());
  }
 }
 _rio_a.endRecord(_rio_tag);
}
public int compareTo (final Object _rio_peer_) throws ClassCastException {

代码示例来源:origin: org.apache.hadoop/hadoop-common-test

public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
throws java.io.IOException {
 if (null == _rio_rtiFilter) {
  deserializeWithoutFilter(_rio_a, _rio_tag);
  return;
 }
 // if we're here, we need to read based on version info
 _rio_a.startRecord(_rio_tag);
 setupRtiFields();
 for (int _rio_i=0; _rio_i<_rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) {
  if (1 == _rio_rtiFilterFields[_rio_i]) {
   data=_rio_a.readInt("data");
  }
  else {
   java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>)(_rio_rtiFilter.getFieldTypeInfos());
   org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID());
  }
 }
 _rio_a.endRecord(_rio_tag);
}
public int compareTo (final Object _rio_peer_) throws ClassCastException {

代码示例来源:origin: dnmilne/wikipediaminer

public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
throws java.io.IOException {
 if (null == _rio_rtiFilter) {
  deserializeWithoutFilter(_rio_a, _rio_tag);
  return;
 }
 // if we're here, we need to read based on version info
 _rio_a.startRecord(_rio_tag);
 setupRtiFields();
 for (int _rio_i=0; _rio_i<_rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) {
  if (1 == _rio_rtiFilterFields[_rio_i]) {
   ValueA=_rio_a.readInt("ValueA");
  }
  else if (2 == _rio_rtiFilterFields[_rio_i]) {
   ValueB=_rio_a.readInt("ValueB");
  }
  else {
   java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>)(_rio_rtiFilter.getFieldTypeInfos());
   org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID());
  }
 }
 _rio_a.endRecord(_rio_tag);
}
public int compareTo (final Object _rio_peer_) throws ClassCastException {

代码示例来源:origin: apache/chukwa

public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a,
  final String _rio_tag) throws java.io.IOException {
 if (null == _rio_rtiFilter) {
  deserializeWithoutFilter(_rio_a, _rio_tag);
  return;
 }
 // if we're here, we need to read based on version info
 _rio_a.startRecord(_rio_tag);
 setupRtiFields();
 for (int _rio_i = 0; _rio_i < _rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) {
  if (1 == _rio_rtiFilterFields[_rio_i]) {
   reduceType = _rio_a.readString("reduceType");
  } else if (2 == _rio_rtiFilterFields[_rio_i]) {
   key = _rio_a.readString("key");
  } else {
   java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>) (_rio_rtiFilter
     .getFieldTypeInfos());
   org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i)
     .getFieldID(), typeInfos.get(_rio_i).getTypeID());
  }
 }
 _rio_a.endRecord(_rio_tag);
}

代码示例来源:origin: kermitt2/entity-fishing

public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
throws java.io.IOException {
 if (null == _rio_rtiFilter) {
  deserializeWithoutFilter(_rio_a, _rio_tag);
  return;
 }
 // if we're here, we need to read based on version info
 _rio_a.startRecord(_rio_tag);
 setupRtiFields();
 for (int _rio_i=0; _rio_i<_rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) {
  if (1 == _rio_rtiFilterFields[_rio_i]) {
   ValueA=_rio_a.readInt("ValueA");
  }
  else if (2 == _rio_rtiFilterFields[_rio_i]) {
   ValueB=_rio_a.readInt("ValueB");
  }
  else {
   java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>)(_rio_rtiFilter.getFieldTypeInfos());
   org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID());
  }
 }
 _rio_a.endRecord(_rio_tag);
}
public int compareTo (final Object _rio_peer_) throws ClassCastException {

代码示例来源:origin: dnmilne/wikipediaminer

public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
throws java.io.IOException {
 if (null == _rio_rtiFilter) {
  deserializeWithoutFilter(_rio_a, _rio_tag);
  return;
 }
 // if we're here, we need to read based on version info
 _rio_a.startRecord(_rio_tag);
 setupRtiFields();
 for (int _rio_i=0; _rio_i<_rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) {
  if (1 == _rio_rtiFilterFields[_rio_i]) {
   {
    org.apache.hadoop.record.Index _rio_vidx1 = _rio_a.startVector("Values");
    Values=new java.util.ArrayList<Integer>();
    for (; !_rio_vidx1.done(); _rio_vidx1.incr()) {
     int _rio_e1;
     _rio_e1=_rio_a.readInt("_rio_e1");
     Values.add(_rio_e1);
    }
    _rio_a.endVector("Values");
   }
  }
  else {
   java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>)(_rio_rtiFilter.getFieldTypeInfos());
   org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID());
  }
 }
 _rio_a.endRecord(_rio_tag);
}
public int compareTo (final Object _rio_peer_) throws ClassCastException {

代码示例来源:origin: dnmilne/wikipediaminer

public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
throws java.io.IOException {
 if (null == _rio_rtiFilter) {
  deserializeWithoutFilter(_rio_a, _rio_tag);
  return;
 }
 // if we're here, we need to read based on version info
 _rio_a.startRecord(_rio_tag);
 setupRtiFields();
 for (int _rio_i=0; _rio_i<_rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) {
  if (1 == _rio_rtiFilterFields[_rio_i]) {
   {
    org.apache.hadoop.record.Index _rio_vidx1 = _rio_a.startVector("SentenceSplits");
    SentenceSplits=new java.util.ArrayList<Integer>();
    for (; !_rio_vidx1.done(); _rio_vidx1.incr()) {
     int _rio_e1;
     _rio_e1=_rio_a.readInt("_rio_e1");
     SentenceSplits.add(_rio_e1);
    }
    _rio_a.endVector("SentenceSplits");
   }
  }
  else {
   java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>)(_rio_rtiFilter.getFieldTypeInfos());
   org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID());
  }
 }
 _rio_a.endRecord(_rio_tag);
}
public int compareTo (final Object _rio_peer_) throws ClassCastException {

代码示例来源:origin: kermitt2/entity-fishing

public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
throws java.io.IOException {
 if (null == _rio_rtiFilter) {
  deserializeWithoutFilter(_rio_a, _rio_tag);
  return;
 }
 // if we're here, we need to read based on version info
 _rio_a.startRecord(_rio_tag);
 setupRtiFields();
 for (int _rio_i=0; _rio_i<_rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) {
  if (1 == _rio_rtiFilterFields[_rio_i]) {
   {
    org.apache.hadoop.record.Index _rio_vidx1 = _rio_a.startVector("SentenceSplits");
    SentenceSplits=new java.util.ArrayList<Integer>();
    for (; !_rio_vidx1.done(); _rio_vidx1.incr()) {
     int _rio_e1;
     _rio_e1=_rio_a.readInt("_rio_e1");
     SentenceSplits.add(_rio_e1);
    }
    _rio_a.endVector("SentenceSplits");
   }
  }
  else {
   java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>)(_rio_rtiFilter.getFieldTypeInfos());
   org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID());
  }
 }
 _rio_a.endRecord(_rio_tag);
}
public int compareTo (final Object _rio_peer_) throws ClassCastException {

代码示例来源:origin: kermitt2/entity-fishing

public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
throws java.io.IOException {
 if (null == _rio_rtiFilter) {
  deserializeWithoutFilter(_rio_a, _rio_tag);
  return;
 }
 // if we're here, we need to read based on version info
 _rio_a.startRecord(_rio_tag);
 setupRtiFields();
 for (int _rio_i=0; _rio_i<_rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) {
  if (1 == _rio_rtiFilterFields[_rio_i]) {
   {
    org.apache.hadoop.record.Index _rio_vidx1 = _rio_a.startVector("Values");
    Values=new java.util.ArrayList<Integer>();
    for (; !_rio_vidx1.done(); _rio_vidx1.incr()) {
     int _rio_e1;
     _rio_e1=_rio_a.readInt("_rio_e1");
     Values.add(_rio_e1);
    }
    _rio_a.endVector("Values");
   }
  }
  else {
   java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>)(_rio_rtiFilter.getFieldTypeInfos());
   org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID());
  }
 }
 _rio_a.endRecord(_rio_tag);
}
public int compareTo (final Object _rio_peer_) throws ClassCastException {

代码示例来源:origin: dnmilne/wikipediaminer

org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID());

代码示例来源:origin: dnmilne/wikipediaminer

public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
throws java.io.IOException {
 if (null == _rio_rtiFilter) {
  deserializeWithoutFilter(_rio_a, _rio_tag);
  return;
 }
 // if we're here, we need to read based on version info
 _rio_a.startRecord(_rio_tag);
 setupRtiFields();
 for (int _rio_i=0; _rio_i<_rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) {
  if (1 == _rio_rtiFilterFields[_rio_i]) {
   Title=_rio_a.readString("Title");
  }
  else if (2 == _rio_rtiFilterFields[_rio_i]) {
   Type=_rio_a.readInt("Type");
  }
  else if (3 == _rio_rtiFilterFields[_rio_i]) {
   depth=_rio_a.readInt("depth");
  }
  else {
   java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>)(_rio_rtiFilter.getFieldTypeInfos());
   org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID());
  }
 }
 _rio_a.endRecord(_rio_tag);
}
public int compareTo (final Object _rio_peer_) throws ClassCastException {

代码示例来源:origin: kermitt2/entity-fishing

public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
throws java.io.IOException {
 if (null == _rio_rtiFilter) {
  deserializeWithoutFilter(_rio_a, _rio_tag);
  return;
 }
 // if we're here, we need to read based on version info
 _rio_a.startRecord(_rio_tag);
 setupRtiFields();
 for (int _rio_i=0; _rio_i<_rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) {
  if (1 == _rio_rtiFilterFields[_rio_i]) {
   Title=_rio_a.readString("Title");
  }
  else if (2 == _rio_rtiFilterFields[_rio_i]) {
   Type=_rio_a.readInt("Type");
  }
  else if (3 == _rio_rtiFilterFields[_rio_i]) {
   depth=_rio_a.readInt("depth");
  }
  else {
   java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>)(_rio_rtiFilter.getFieldTypeInfos());
   org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID());
  }
 }
 _rio_a.endRecord(_rio_tag);
}
public int compareTo (final Object _rio_peer_) throws ClassCastException {

代码示例来源:origin: kermitt2/entity-fishing

org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID());

代码示例来源:origin: dnmilne/wikipediaminer

org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID());

代码示例来源:origin: kermitt2/entity-fishing

org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID());

代码示例来源:origin: kermitt2/entity-fishing

org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID());

代码示例来源:origin: dnmilne/wikipediaminer

org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i).getFieldID(), typeInfos.get(_rio_i).getTypeID());

代码示例来源:origin: io.prestosql.hadoop/hadoop-apache

MapTypeID mtID = (MapTypeID) typeID;
for (; !midx1.done(); midx1.incr()) {
 skip(rin, tag, mtID.getKeyTypeID());
 skip(rin, tag, mtID.getValueTypeID());
while (it.hasNext()) {
 FieldTypeInfo tInfo = it.next();
 skip(rin, tag, tInfo.getTypeID());
VectorTypeID vtID = (VectorTypeID) typeID;
for (; !vidx1.done(); vidx1.incr()) {
 skip(rin, tag, vtID.getElementTypeID());

相关文章

Utils类方法