kubernetespod之间是否可以共享一个GPU?
7uhlpewt1#
正如官方医生所说GPU仅应在限制部分中指定,这意味着:您可以在不指定请求的情况下指定GPU限制,因为Kubernetes将默认使用限制作为请求值。您可以在限制和请求中指定GPU,但这两个值必须相等。您无法在不指定限制的情况下指定GPU请求。容器(和Pod)不共享GPU。没有GPU的过度使用。每个容器可以请求一个或多个GPU。不可能请求GPU的一部分。另外,您可以关注this讨论以获得更多信息。
ou6hu8tu2#
是的,这是可能的-至少使用Nvidia GPU。只是不要在资源限制/请求中指定它。这样,来自所有pod的容器就可以完全访问GPU,就像它们是正常进程一样。
x8diyxa73#
是的,通过对调度器进行一些更改是可能的,有人在github上友好地开源了他们的解决方案,看看这里:https://github.com/AliyunContainerService/gpushare-scheduler-extender
pjngdqdw4#
是的,你可以使用nano gpu来共享nvidia的gpu。
62o28rlo5#
官方文件说,Pod不能请求CPU的一小部分。如果你在多个pod中运行机器学习应用程序,那么你必须研究kubeflow。这些人已经解决了这个问题。
h5qlskok6#
一种解决方案可以是将Nvidia GPU划分为完全隔离的示例,这些示例具有自己的高带宽内存、缓存和计算内核-https://www.nvidia.com/en-us/technologies/multi-instance-gpu/。
6条答案
按热度按时间7uhlpewt1#
正如官方医生所说
GPU仅应在限制部分中指定,这意味着:
您可以在不指定请求的情况下指定GPU限制,因为Kubernetes将默认使用限制作为请求值。
您可以在限制和请求中指定GPU,但这两个值必须相等。
您无法在不指定限制的情况下指定GPU请求。容器(和Pod)不共享GPU。没有GPU的过度使用。
每个容器可以请求一个或多个GPU。不可能请求GPU的一部分。
另外,您可以关注this讨论以获得更多信息。
ou6hu8tu2#
是的,这是可能的-至少使用Nvidia GPU。
只是不要在资源限制/请求中指定它。这样,来自所有pod的容器就可以完全访问GPU,就像它们是正常进程一样。
x8diyxa73#
是的,通过对调度器进行一些更改是可能的,有人在github上友好地开源了他们的解决方案,看看这里:https://github.com/AliyunContainerService/gpushare-scheduler-extender
pjngdqdw4#
是的,你可以使用nano gpu来共享nvidia的gpu。
62o28rlo5#
官方文件说,Pod不能请求CPU的一小部分。如果你在多个pod中运行机器学习应用程序,那么你必须研究kubeflow。这些人已经解决了这个问题。
h5qlskok6#
一种解决方案可以是将Nvidia GPU划分为完全隔离的示例,这些示例具有自己的高带宽内存、缓存和计算内核-https://www.nvidia.com/en-us/technologies/multi-instance-gpu/。