-
Notifications
You must be signed in to change notification settings - Fork 13
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
attention_attr.py在自己的数据集上循环到第二条数据爆显存,请问有什么方法能在循环中计算完每条数据的显著性得分后释放一下缓存呀 #16
Comments
哎请问你的数据多长啊?我在加了 |
我的数据集中最长的数据只有700多,不知道为什么显存占用涨的厉害。我没有用您加载数据的方法而是我自定义的方法。 |
呃batch_size是多少?我是按1跑的,多了可能确实会有问题? |
以及显存占了多少?哪个模型 |
batch_size是1,llama-2-7b-chat,第一条数据显存直接涨到24、25左右了,循环到第二条的时候显存还在涨,然后就直接挂掉了。 |
llama 设置model.half()了吗 |
我代码里没写这个,可能得你手动加一下 |
我用的LoadClass.from_pretrained(folder_path,torch_dtype=torch.bfloat16,low_cpu_mem_usage=True),应该和model.half()应该是一样的效果吧 |
我自己试试看,稍等一下下 |
好像是有点多,之前我拿gpt-j测倒没这么多,我想想 |
我这边看的话要27GB |
看来暂时只能把数据缩短了 |
嗯我有空了再想想,这边按理说也可以用重计算什么的省内存,不过我现在不大会实现,过阵子要是我会了我写一下,不好意思了 |
没事没事,感谢 |
如题,谢谢
The text was updated successfully, but these errors were encountered: