你好,请考虑在未来让Ollama使用英特尔集成图形处理器(如英特尔Iris Xe Graphics核心)。
5rgfhyps1#
+1
kiz8lqtg2#
+1 xo
iqxoj9l93#
x6h2sr284#
ldfqzlk85#
我也有一个带有8GB内存的英特尔Iris Xe。但我看不到任何好处。如果我们拥有的硬件能够充分利用,那将会非常有用。也许咨询AI如何做到这一点可以成为一个解决方案。 😂
mw3dktmi6#
请查看:#2578
js4nwp547#
非常好!期待将来在我的Windows PC上运行Ollama时测试它!
00jrzges8#
1aaf6o9v9#
我想象一下,对于任何拥有Intel集成GPU的人来说,未使用的GPU将增加一个额外的GPU来利用。即使它仅限于3GB。那将是一个额外的3GB GPU,可以被利用。当模型在Nvidia GPU和CPU之间分割时,这是一个未被利用的3GB GPU。我正在运行一个无头服务器,集成GPU在那里但没有任何帮助。
9条答案
按热度按时间5rgfhyps1#
+1
kiz8lqtg2#
+1 xo
iqxoj9l93#
+1
x6h2sr284#
+1
ldfqzlk85#
我也有一个带有8GB内存的英特尔Iris Xe。但我看不到任何好处。如果我们拥有的硬件能够充分利用,那将会非常有用。
也许咨询AI如何做到这一点可以成为一个解决方案。 😂
mw3dktmi6#
请查看:#2578
js4nwp547#
非常好!期待将来在我的Windows PC上运行Ollama时测试它!
00jrzges8#
+1
1aaf6o9v9#
我想象一下,对于任何拥有Intel集成GPU的人来说,未使用的GPU将增加一个额外的GPU来利用。即使它仅限于3GB。那将是一个额外的3GB GPU,可以被利用。当模型在Nvidia GPU和CPU之间分割时,这是一个未被利用的3GB GPU。
我正在运行一个无头服务器,集成GPU在那里但没有任何帮助。