本站分享:AI、大数据、数据分析师培训认证考试,包括:Python培训Excel培训Matlab培训SPSS培训SAS培训R语言培训Hadoop培训Amos培训Stata培训Eviews培训

从Hadoop URL中读取数据_hadoop 数据读取_hadoop读取文件

hadoop培训 cdadata 3030℃
  • 摘要:《Hadoop权威指南(中文版)》第3章Hadoop分布式文件系统,本章着眼于 Hadoop的文件系统,特别深入地讲解HDFS。本节为大家介绍从Hadoop URL中读取数据。
  • 标签:Hadoop  Hadoop权威指南(中文版)

3.5  Java接口

在本小节,我们要深入探索Hadoop的Filesystem类:与Hadoop的文件系统交互的API。 虽然我们主要关注的是HDFS的实现DistributedFileSystem,但总体来说,还是应该努力编写不同于FileSsytem抽象类的代 码,以保持其在不同文件系统中的可移植性。这是考验编程能力的最佳手段,因为我们很快就可以使用存储在本地文件系统中的数据来运行测试了。

3.5.1  从Hadoop URL中读取数据

要从Hadoop文件系统中读取文件,一个最简单的方法是使用java.net.URL对象来打开一个数据流,从而从中读取数据。一般的格式如下:

  1.     InputStream in = null;
  2. try {
  3.      in = new URL(“hdfs://host/path”).openStream();
  4.      // process in
  5. } finally {
  6.      IOUtils.closeStream(in);
  7. }

这里还需要一点工作来让Java识别Hadoop文件系统的URL 方案,就是通过一个FsUrlStreamHandlerFactory实例来调用在URL中的setURLStreamHandler-Factory 方法。这种方法在一个Java虚拟机中只能被调用一次,因此一般都在一个静态块中执行。这个限制意味着如果程序的其他部件(可能是不在你控制中的第三方部 件)设置一个URLStreamHandlerFactory,我们便无法再从Hadoop中读取数据。下一节将讨论另一种方法。

例3-1展示了以标准输出显示Hadoop文件系统的文件的程序,它类似于Unix的cat命令。

例3-1:用URLStreamHandler以标准输出格式显示Hadoop文件系统的文件

  1. public class URLCat {
  2.   static {
  3.     URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
  4.   }
  5.   public static void main(String[] args) throws Exception {
  6.     InputStream in = null;
  7.     try {
  8.       in = new URL(args[0]).openStream();
  9.       IOUtils.copyBytes(in, System.out, 4096, false);
  10.     } finally {
  11.       IOUtils.closeStream(in);
  12.     }
  13.   }
  14. }

我们使用Hadoop中简洁的IOUtils类在finally子句中关闭数据流,同时复制输入流和输出流之间的字节(本例中是 System.out)。copyBytes方法的最后两个参数,前者是要复制的缓冲的大小,后者表示复制结束后是否关闭数据流。这里是将输入流关掉了, 而System.out不需要关闭。

下面是一个运行示例:

  1.     % hadoop URLCat hdfs://localhost/user/tom/quangle.txt
  2. On the top of the Crumpetty Tree
  3. The Quangle Wangle sat,
  4. But his face you could not see,
  5. On account of his Beaver Hat.

 

转载请注明:数据分析 » 从Hadoop URL中读取数据_hadoop 数据读取_hadoop读取文件

喜欢 (0)or分享 (0)