我正在使用ClouderaHadoop环境。过去几天我对webhdfs很熟悉。我使用它通过restapi执行各种hdfs操作。但是,现在我需要保护与webhdfs的通信,即使用ssl/https。这可能吗?如果是,是否有明确的步骤来实现这一点?ps:目前,我不想使用kerberos。
gwo2fgha1#
您可以在hdfs-site.xml中设置一些属性以启用到名称节点和数据节点的https/ssl连接:http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml看到了吗 dfs.https.enable 财产看到了吗 dfs.https.server.keystore.resource 以及 dfs.client.https.keystore.resource ssl-server.xml(或client)文件的属性,该文件定义密钥和信任路径/密码等(conf文件夹中有示例ssl server和ssl client文件)您需要在这个文件中设置一些属性(并将它+服务器证书/信任库分发到nn和集群中的每个dn,然后重新启动hdfs)。还有一些更详细的解释,这里有一些谷歌的链接:http://docs.hortonworks.com/hdpdocuments/hdp2/hdp-2.0.5.0/bk_reference/content/ch_wire1.html请注意,kerberos不会为您提供“安全”通信(如果您所说的安全是指加密的),kerberos只提供了一种身份验证机制。
dfs.https.enable
dfs.https.server.keystore.resource
dfs.client.https.keystore.resource
1条答案
按热度按时间gwo2fgha1#
您可以在hdfs-site.xml中设置一些属性以启用到名称节点和数据节点的https/ssl连接:
http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml
看到了吗
dfs.https.enable
财产看到了吗
dfs.https.server.keystore.resource
以及dfs.client.https.keystore.resource
ssl-server.xml(或client)文件的属性,该文件定义密钥和信任路径/密码等(conf文件夹中有示例ssl server和ssl client文件)您需要在这个文件中设置一些属性(并将它+服务器证书/信任库分发到nn和集群中的每个dn,然后重新启动hdfs)。
还有一些更详细的解释,这里有一些谷歌的链接:
http://docs.hortonworks.com/hdpdocuments/hdp2/hdp-2.0.5.0/bk_reference/content/ch_wire1.html
请注意,kerberos不会为您提供“安全”通信(如果您所说的安全是指加密的),kerberos只提供了一种身份验证机制。