Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

我看到您有一个关于Tesla P10的文章,有点问题想要请教。 #16

Open
rhwong opened this issue Oct 26, 2022 · 9 comments

Comments

@rhwong
Copy link

rhwong commented Oct 26, 2022

您好,我收藏了一个Tesla P4想用于跑stable-diffusion-webui,但是很明显它在使用FP16时能够以更快的速度去生成图片。但是很遗憾,Tesla P4/P40屏蔽了FP16,仅支持FP32/FP64,运行在FP32下,图片生成速度会慢6-8倍。
今天偶然关注到这个Tesla P10,但是这个卡在网络上简直是个隐形卡,能看到的文章非常少。只能看到有贴子说它使用了和P40相同布局和规格的PCB,只有供电部分不同,想咨询一下这个卡是否屏蔽了FP16呢?如果方便的话希望可以帮我试试,这将成为我的采购指南,非常感谢。

@huataihuang
Copy link
Owner

好的,我这两天研究验证一下,不过只有晚上有空搞,可能要到周末给你一个答复。

@huataihuang
Copy link
Owner

周末在 安装NVIDIA Linux驱动 上搞了乌龙折腾了很久,驱动安装好了,但还没有做测试,所以结果还得等等。

之前没有搞过模型训练,这方面需要边学边练,可能要拿到结果得比较折腾。方便的话,你能提供一下简单测试的方法么?

我看了 Support Matrix :: NVIDIA Deep Learning TensorRT Documentation 里面提到 P4 确实不支持FP16,原文见 is FP16 running only on the Volta?

The following GPUs currently support FP16: Quadro RTX 8000, Tesla V100, Tesla P100, and NVIDIA Jetson Xavier.

@huataihuang
Copy link
Owner

我测试下来 Tesla P10 不支持 vGPU 功能,真是让人非常沮丧。看来阉割P40 获得的 P10,还是有很多限制的。

训练最好用 P100 ,推理则可以用P40

总之,P10就是价格便宜几百块,功能上限制较多

@huataihuang
Copy link
Owner

P10已经是我的沉没成本了,含着泪我也得尽可能挖掘出这块GPU卡的能力。我再试试 vgpu_unlock ,再挑战一下

@rhwong
Copy link
Author

rhwong commented Jun 9, 2023

周末在 安装NVIDIA Linux驱动 上搞了乌龙折腾了很久,驱动安装好了,但还没有做测试,所以结果还得等等。

之前没有搞过模型训练,这方面需要边学边练,可能要拿到结果得比较折腾。方便的话,你能提供一下简单测试的方法么?

我看了 Support Matrix :: NVIDIA Deep Learning TensorRT Documentation 里面提到 P4 确实不支持FP16,原文见 is FP16 running only on the Volta?

The following GPUs currently support FP16: Quadro RTX 8000, Tesla V100, Tesla P100, and NVIDIA Jetson Xavier.

简单的测试方法,直接使用stable-diffusion-webui的一些一键包即可,在AI绘图时观察它的算力速度,就能大概知道了。
另外就是在不支持FP16的卡上,一键包的脚本会无法运行。它可能会提供一个运行在GTX16XX的脚本以供选择,这个脚本就是用于仅支持FP32显卡的。
一键包相关:bilibili@秋葉aaaki
目前的一键包已经做了GUI整合,他可能会直接提示你当前显卡不支持FP16等信息,我不确定。
我GitHub的邮箱不是常用邮箱,没有看到您去年回复我的消息,实在不好意思XD

@rhwong
Copy link
Author

rhwong commented Jun 9, 2023

我的P4也成为了沉没成本,由于不支持FP16,它的显存再高也无济于事了。
本来看中的就是它尺寸小,不需要额外供电,直接买了两块,买之前想着虽然没有tensorcore,也不会太差。
没想到不支持FP16(毕竟GTX10xx都支持)
实在是让人沮丧

@huataihuang
Copy link
Owner

周末在 安装NVIDIA Linux驱动 上搞了乌龙折腾了很久,驱动安装好了,但还没有做测试,所以结果还得等等。
之前没有搞过模型训练,这方面需要边学边练,可能要拿到结果得比较折腾。方便的话,你能提供一下简单测试的方法么?
我看了 Support Matrix :: NVIDIA Deep Learning TensorRT Documentation 里面提到 P4 确实不支持FP16,原文见 is FP16 running only on the Volta?

The following GPUs currently support FP16: Quadro RTX 8000, Tesla V100, Tesla P100, and NVIDIA Jetson Xavier.

简单的测试方法,直接使用stable-diffusion-webui的一些一键包即可,在AI绘图时观察它的算力速度,就能大概知道了。 另外就是在不支持FP16的卡上,一键包的脚本会无法运行。它可能会提供一个运行在GTX16XX的脚本以供选择,这个脚本就是用于仅支持FP32显卡的。 一键包相关:bilibili@秋葉aaaki 目前的一键包已经做了GUI整合,他可能会直接提示你当前显卡不支持FP16等信息,我不确定。 我GitHub的邮箱不是常用邮箱,没有看到您去年回复我的消息,实在不好意思XD

好的,感谢指导。我最近在研究NVIDIA vGPU,搞完我就研究stable-diffusion。我想从基础开始学习深度学习,看看能否完整把训练和推理整个流程走通。这方面没有基础,要学习的东西太多了。

有空多交流。

@huataihuang
Copy link
Owner

我的P4也成为了沉没成本,由于不支持FP16,它的显存再高也无济于事了。 本来看中的就是它尺寸小,不需要额外供电,直接买了两块,买之前想着虽然没有tensorcore,也不会太差。 没想到不支持FP16(毕竟GTX10xx都支持) 实在是让人沮丧

你有两块GPU卡,我倒是觉得不错,可以研究研究并行计算,就算慢一点也行,至少能把方案跑通。我折腾vGPU的一个想法是准备在后面尝试多GPU卡做训练。

@huataihuang
Copy link
Owner

我测试下来 Tesla P10 不支持 vGPU 功能,真是让人非常沮丧。看来阉割P40 获得的 P10,还是有很多限制的。

训练最好用 P100 ,推理则可以用P40

总之,P10就是价格便宜几百块,功能上限制较多

嘿嘿,正如我猜想,Tesla P10并不是不支持vGPU,而是这种特殊的阉割卡NVIDIA故意将功能关闭掉了,就像NVIDIA消费类GPU一样,CPU核心功能和数据中心Tesla卡是一样的,但就是不给vGPU高级功能。

好在开源的 vgpu_unlock 能够解锁vGPU,验证成功: vgpu_unlock解锁Tesla P10 vGPU功能

Repository owner deleted a comment from inekit Oct 1, 2024
Repository owner deleted a comment from RumenDamyanov Oct 1, 2024
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants