Angrybear 发布于一月 18, 2022 分享 发布于一月 18, 2022 有一说一,现在语义分割不知道有没有做精细化分割得那种研究?感觉下来哪怕是有监督方法训练出来的东西可视化出来在测试集上还是比较粗糙的。无监督的性能就更加别提了……不知道大佬推荐这篇时有没有觉得对比学习有望解决这个问题? 链接到点评
Angrybear 发布于一月 19, 2022 分享 发布于一月 19, 2022 20 小时前, AlGoRiThM 说道: 这个可以说是一种新的架构了,未来发展前景不知道,但是是一个可以搞搞的 无监督学习发展停滞了好久了,突破点都不知道在哪里 确实,其实我感觉这种想法如果有人能做出来的话,那发展前景肯定好到不行。现在Deep Learning这方面研究就感觉比较空,沉迷刷榜,这个问题我是从应用角度去考虑的。 而且感觉无监督工业上很难用啊,few-shot这种也是论文写归写没人敢用的那种。我觉得可能半监督反而可以干一干?实际场景中有很多标注样本少而无监督样本多的场景。我记得2020年FixMatch那个就比较猛,或许可能考虑下半监督问题会好一些? 链接到点评
Angrybear 发布于一月 20, 2022 分享 发布于一月 20, 2022 (已修改) 18 小时前, AlGoRiThM 说道: 半监督的问题也一样,机器学习主要问题就是数据样本不平衡,不是什么学习能搞定的事情。 啊啊啊啊好烦…… 解决数据样本不平衡的问题都可以单独开一个题了……我记得类似的研究还有OOD,Long Tail之类的解决数据集本身问题的方法 半监督至少可以解决标注样本不足的问题所以还算有用? 一月 20, 2022,由Angrybear修改 链接到点评
推荐贴