-
Notifications
You must be signed in to change notification settings - Fork 273
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
fine-tuning #8
Comments
All these models are converted from https://github.com/liuzhuang13/DenseNet |
我是想基于你发布的caffe模型进行微调,因为看到你发布的prototxt的layer名与Zhuang Liu发布的配置文件不同,所以想问问你进行训练时用的配置文件 |
finetuning很简单,你在开头加data层,结尾加loss/acc层,改变fc6的名字和类别。 |
那请问一下,data层的crop_size必须指定为ImageNet里面的224*224的吗?你这个应该是deploy.prototxt吧?100多MB的caffemodel是准确率最高的caffemodel吗?然后我能否利用你已经上传的DenseNet的caffemodel来进行图片的性别分类呢?还是需要重新利用你给的网络模型结构来进行训练呢? |
data层crop_size在训练的时候是224,你可以不指定到这个大小。 |
使用161 fine-tuning 的时候,使用的图片是224*224, |
@shicai |
@limin1130 关于显存,作者最近提出了一个内存优化的方案,见论文《Memory-Efficient Implementation of DenseNets》 @OPPOA113 我自己没用DenseNet做过检测,不过作者透露将很快发布一篇论文,使用DenseNet做检测也能获得state of the art的结果。所以,DenseNet做检测应该没什么问题。 |
@OPPOA113 |
@gittigxuy |
@OPPOA113 ,我还没做检测,我做图片2分类,但是效果不太理想,可能是初学的原因吧,再略加修改一下,你那的图片分类的项目代码可否给我看一下?如果可以的话,麻烦发邮件到[email protected],谢谢了 |
@gittigxuy |
我训练的时候,accuracy一直为0,这个是怎么回事 |
@shicai ,求大佬给个用到DenseNet的项目案例,我train - loss图波动很大,找不到原因 |
Hi, 我从零开始训练DenseNet121,将fc6换成InnerProduct layer,然后加上Accuracy和SoftmaxWithLoss,loss基本不变,accuracy一直为0。是什么原因呢? |
@yefanhust 只凭你的只言片语,我也不确定原因是什么。即使是随机的初始化,accuracy也会接近0.1%,不会是0的。 |
DenseNet121.txt |
@shicai 再附上solver的config,完全是按照原始paper中的数据设置的。 |
@yefanhust (1) 确定你的batch size是256,我看文件中是8;(2) 如果从头训练,需要给Convolution和Scale层加上param参数,控制lr和wd,有几个参数就加几个param,比如conv不带bias就加一个,scale层带bias就加两个: |
@shicai (1) 在服务器上训练时是256,8是在单机上测试用的 (2) 好的,我会根据你的建议加上相应的参数 |
@yefanhust 请问你训练的时候256,为什么我训练的时候batch_size为10,都out of memory,我的显卡是GeForce GTX TITAN X |
@nerddd 我是在DGX-1上训练的,用的8块P100 |
@shicai |
@yefanhust 想问一下你问题解决了吗?解决了的话,可不可以给看一下修改后的prototxt文件? |
我是用python重写了一遍网络结构再生成的prototxt 没用这里的 |
I modified the prototxt according to the comments under this issue. The only difference is that my batchsize is 10, and the loss does not converge and it explodes. I wonder must the batchsize be 256? And is there a correct version of train_val.prototxt for densenet? |
@yefanhust 你可以把你的生成densenet的python脚本分享一下吗?或者将densenet-caffe的train_test.prototxt和solver.prototxt分享一下,我的邮箱 [email protected] |
@yefanhust 四块P100表示hold不住batchsize256 多显卡跑caffe 你的cudnn禁用了么 |
请问能加个联系方式吗?我也准备finetuning ,也只是改了开头和加了结尾,我的QQ1443563995 |
Thanks for sharing!
I want to fine-tuning the model. Is there train-val.prototxt and solver.prototxt survive? Thank you.
The text was updated successfully, but these errors were encountered: