只有15天了,15天后就要提交完整的论文
我需要做好:
1.把agent写出来
2.把env写出来
3.训练起来
4.测试起来
5.写论文
——————————————————————
f已经没问题了,正在跑
t还是那个问题,多卡返回这样是行不通的,我现在的做法是把那个全连接层放到loss里面,这样应该可以反向传播的
还一个问题,我从中间读取check point包括model、prob,应该是可以成功的,但是跑起来一直有问题,我查出来确实是prob矩阵似乎全都是0,这可能就是问题所在
我现在重新跑一下第一个阶段,获得prob之后,打印出来看看是不是0
之所以之前保存了0,我记得是因为某一次我把一阶段的epoch设置成0之后,没有注释掉保存prob的代码,结果就把全0的prob保存了下来。
等跑完一阶段后,我看看效果如果prob正常了,那么我就可以看看之前那种修改方式t-revision有没有在变化,如果有的话还行,没有的话,我就需要修改为把全连接层放到loss里面。
————————————————————————
先看这个效果把,大概今晚七点半出结果
在这期间,我可以在本地写打印clean ratio的实验
并且开始写强化学习的代码
—————————————————————————
现在prob正确的保存下来了,这样以后不用费力气去跑1、2两个阶段了
可以直接从3开始,但是3有个地方我没写好,又bug了,现在再跑
clean ratio的实验上传到服务器上跑了,mnist太小没有讨论价值,cifar10和cifar100上,可以明显看出,有许多干净数据被误判为large 了,因此确实需要relax来拯救一下。可怕的是,factor=0的时候,比0.01,acc提高的要慢一些,不过关不了那么多了,先放着吧。
————————————————————————————
还有个事情,cauchy的公式需要推导
强化学习的代码,明天一定要写起来。
————————————————————————————
32166 10lc_10
32167 10lc_30
32168 10lc_50
32169 100lc_10
32170 100lc_30
32171 100lc_50
32172 mlc_10
32173 mlc_30
32174 mlc_50
——————————————————————————————
以上全部作废,因为gamm和epsilon的计算方式是错误的
现在换了新的,在cifar10上测试了,目前来看似乎可以跑出正确的结果
我在等等确认一下,如果可以,那么一会可以factor改为0,看看效果
最后没问题,那就跑noise ratio
————————————————————————————————
t-revision应该是可以的,但是loss非常小,不知道为什么,先不管那么多了,我直接重新跑了,把print loss那个注释掉了。此时还是个测试,因为我要确定3阶段可以正确的训练,然后我才跑5epoch的一阶段,免得又浪费时间。
————————————————————————————————