我在Fedora虚拟机(在VMware工作站中)上运行Hadoop-2.7.1 HDFS的伪模式。我可以使用hadoop hdfs shell命令在Fedora中上载/下载本地文件。
但是,如何编写一个简单的Java类以从Windows主机上载/下载文件?
我发现一些示例代码,例如:
FileSystem fs = FileSystem.get(new Configure());
Path local_file = new Path("testfile.txt");
Path remote_path = new Path("/");
fs.copyFromLocal(local_file, remote_path);
但是我在Maven存储库中找到了hadoop-core-1.2.jar,但是对于2.7.1来说它太旧了。我不知道要使用什么jar包来导入HDFS Java类。
尝试使用以下具有maven配置的文件系统API来读取和写入数据到hdfs代码的示例:
<properties>
<hadoop.version>2.7.0</hadoop.version>
<hadoop.core>1.2.1</hadoop.core>
</properties>
<dependencies>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-core</artifactId>
<version>${hadoop.core}</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-common</artifactId>
<version>${hadoop.version}</version>
</dependency>
</dependencies>
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句