使用tensorflow和cuda运行远程Pycharm解释器(带模块加载)

gzszwxb4  于 2022-11-08  发布在  PyCharm
关注(0)|答案(1)|浏览(244)

我正在使用一台远程计算机,以便在它的GPU上运行我的程序。我的程序包含一些带有tensorflow函数的代码,为了更容易地用Pycharm进行调试,我想通过带有远程解释器的ssh连接到带有GPU的计算机。这部分可以很容易地完成,因为Pycharm有这个选项,所以我可以在那里连接。但是,tensorflow不是自动加载,所以我得到导入错误。注意,在我们的机构中,我们在每次加载计算机时运行模块loadcuda 10.0和模块loadtensorflow 1.14.0。2现在这部分是比较棘手的。打开远程终端会创建另一个与远程解释器会话无关的会话,因此不会影响远程解释器模块。
我知道 module load 通常会配置env,但是我不确定如何将环境变量导出到运行前配置的Pycharm的环境变量。
任何帮助都将不胜感激。提前感谢。

xxls0lw8

xxls0lw81#

毕竟,解决方法相对简单:首先,我已经安装了EnvFile插件,正如这里所解释的:https://stackoverflow.com/a/42708476/13236698
然后,我用python上的一个快速脚本创建了一个.env文件,从os.environ中提取所有环境变量及其值,并将它们以以下格式写入一个文件:<env_variable>=<variable_value>,并以.env扩展名保存文件。然后我将其加载到PyCharm中,瞧-所有TensorFlow模块都加载良好。

相关问题