我通过命令pip install tf-nightly-gpu --prefix=/tf/install/path
安装了TensorFlow夜间构建版本
当我尝试运行任何XLA示例时,TensorFlow出现错误“无法找到libdevice目录。使用'.'无法将ptx编译为cubin。将尝试让GPU驱动程序编译ptx。未找到:/usr/local/cuda-10.0/bin/ptxas not found”.
显然TensorFlow找不到我的CUDA路径。在我的系统中,CUDA安装在/cm/shared/apps/cuda/toolkit/10.0.130中。由于我没有从源代码构建TensorFlow,默认情况下XLA搜索文件夹/user/local/cuda-*。但由于我没有这个文件夹,它会发出错误。
目前我的解决方法是创建一个符号链接。我检查了tensorflow/compiler/xla/service/gpu/nvptx_compiler.cc中的TensorFlow源代码。文件中有一条注解“// CUDA location explicitly specified by user via --xla_gpu_cuda_data_dir has highest priority”。那么如何将值传递给这个标志呢?我尝试了以下两个环境变量,但都不起作用:
export XLA_FLAGS="--xla_gpu_cuda_data_dir=/cm/shared/apps/cuda10.0/toolkit/10.0.130/"
export TF_XLA_FLAGS="--xla_gpu_cuda_data_dir=/cm/shared/apps/cuda10.0/toolkit/10.0.130/"
那么如何使用标志“--xla_gpu_cuda_data_dir”呢?谢谢。
3条答案
按热度按时间dtcbnfnu1#
你可以在终端中运行
export XLA_FLAGS=--xla_gpu_cuda_data_dir=/path/to/cuda
nr9pn0ug2#
有一个代码更改此问题,但不清楚如何使用.检查这里https://github.com/tensorflow/tensorflow/issues/23783
bfhwhh0e3#
这对我很有效。
nVidia T4@GCE Ubu 22.04LTS最小值
我无法使XLA_FLAGS工作