hadoop集群中的google云存储密钥文件分发

falq053o  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(533)

我想把很多文件从hdfs发送到google存储(gs)。所以我想在这个例子中使用distcp命令。

hadoop distcp -libjars <full path to connector jar> -m <amount of mappers> hdfs://<host>:<port(default 8020)>/<hdfs path> gs://<backet name>/

我还需要在core-site.xml中指定*.p12密钥文件来访问gs。我需要将这个文件分发到集群中的所有节点。

<property>
    <name>google.cloud.auth.service.account.keyfile</name>
    <value>/opt/hadoop/conf/gcskey.p12</value>
</property>

我不想手动操作。分发密钥文件的最佳做法是什么?

vtwuwzda

vtwuwzda1#

有一个泛型参数

-files <comma separated list of files> specify comma separated files to be copied to the map reduce cluster

命令将是

hadoop distcp -libjars <full path to connector jar> -files /etc/hadoop/conf/gcskey.p12 -m <amount of mappers>  hdfs://<host>:<port(default 8020)>/<hdfs path> gs://<backet name>/

注1在这种情况下,我们需要在core-site.xml上设置密钥路径(google.cloud.auth.service.account.keyfile),如下例所示
注意2您需要在当前目录中有.p12密钥文件,因为haddop在启动时检查来自核心站点的路径。

<property>
    <name>fs.gs.impl</name>
    <value>com.google.cloud.hadoop.fs.gcs.GoogleHadoopFileSystem</value>
</property>
<property>
    <name>fs.AbstractFileSystem.gs.impl</name>
    <value>com.google.cloud.hadoop.fs.gcs.GoogleHadoopFS</value>
    <description>
        The AbstractFileSystem for gs: (GCS) uris. Only necessary for use with Hadoop 2.
    </description>
</property>
<property>
    <name>fs.gs.project.id</name>
    <value>google project id</value>
    <description>Google Project Id</description>
</property>
<property>
    <name>google.cloud.auth.service.account.enable</name>
    <value>true</value>
</property>
<property>
    <name>google.cloud.auth.service.account.email</name>
    <value>google service account email</value>
    <description>Project service account email</description>
</property>
<property>
    <name>google.cloud.auth.service.account.keyfile</name>
    <value>gcskey.p12</value>
    <description>Local path to .p12 key at each node</description>
</property>

相关问题