我在 Hadoop 目录中有几个文件。我正在尝试将文件从 hadoop 目录复制到 s3 存储桶。
文件列表
样本1.txt
样本2.txt
样本3.txt
我想一次复制所有文件
aws s3 cp *.txt s3://bucket-name/samples/
它显示我错误
usage: aws [options] <command> <subcommand> [<subcommand> ...] [parameters]
你可以这样做:
aws s3 cp . s3://<bucket-name> --recursive --exclude "*" --include "*.txt"
aws s3 cp <Hadoop-Dir-Path> s3://<bucket-name> --recursive --exclude "*" --include "*.txt"
或者您也可以使用同步:
aws s3 sync . s3://<bucket-name> --exclude "*" --include "file.*"
请注意,默认情况下,包含所有文件。这意味着仅提供 --include 过滤器不会更改传输的文件。--include 只会重新包含已从 --exclude 过滤器中排除的文件。如果您只想上传具有特定扩展名的文件,则需要先排除所有文件,然后重新包含具有特定扩展名的文件。此命令将仅上传以 .txt 结尾的文件。
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句