hadoop中怎么读取protobuf数据
这篇文章主要介绍“ hadoop中怎么读取protobuf数据 ”,在日常操作中,相信很多人在 hadoop中怎么读取protobuf数据 问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答” hadoop中怎么读取protobuf数据 ”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!
创新互联网站建设提供从项目策划、软件开发,软件安全维护、网站优化(SEO)、网站分析、效果评估等整套的建站服务,主营业务为成都网站建设、做网站,成都App制作以传统方式定制建设网站,并提供域名空间备案等一条龙服务,秉承以专业、用心的态度为用户提供真诚的服务。创新互联深信只要达到每一位用户的要求,就会得到认可,从而选择与我们长期合作。这样,我们也可以走得更远!
在mapreduce中读取protobuf数据时,会遇到一个坑
BytesWritable。当你把byte[]数据保存到BytesWritable后,通过BytesWritable.getBytes()再读到的数据并不一定是原数据,可能变长了很多,这是因为BytesWritable采用了自动内存增长算法,你保存的数据长度为size时,它可能将数据保存到了长度为capacity(capacity>size)的buffer中,这时候,你通过BytesWritable.getBytes()得到的数据最后一些字符是多余的,如果里面保存的是protobuf序列化后的数据,则无法反序列化,这时候可以使用BytesWritable.setCapacity(BytesWritable.getLength())将后面多余空间剔除掉,然后就可以使用protobuf反序列为原始数据。
关键代码如下
conf.setInputFormat(SequenceFileAsBinaryInputFormat.class);
public void map(Object key, BytesWritable values, OutputCollector output, Reporter reporter) throws IOException { values.setCapacity(values.getLength());// very important !!! byte[] data = values.getBytes(); // more code }
到此,关于“ hadoop中怎么读取protobuf数据 ”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注创新互联网站,小编会继续努力为大家带来更多实用的文章!
文章名称:hadoop中怎么读取protobuf数据
文章源于:http://scyanting.com/article/pehdeo.html