95年暴力破解也不是真正的暴力破解。而是剪枝暴力破解(这里用的Alpha-Beta pruning,其实是很笨的裁剪方法了)。
剔除完全不合理步骤后的暴力破解法。已经极大幅度去除了无用的步骤。
这游戏就是因为规则简单,可以大幅度剪枝运算,才可以暴力破解。
而且15和13可不是“多一点点”的问题,举个最简单的例子。
15的阶乘和13的阶乘,差的是“一点点”么?显然不是。
更何况这已经是 7*6!和7*8!的区别了。
没办法,只要是人玩的游戏,全都可以用“强化学习”来完美模拟,最终目的太明确了,机器完全可以模拟进行。
不过如果中间的变化性太多,强化学习难度还是很大的,比如星际争霸2。理赔难Time对战起源AI。
AI赢是赢了,怎么赢的?靠人类无法复现的操作碾压完成的,比如屏幕外进行多线运营操作。
举个最简单的例子,人家谷歌AI的APM(每分钟操作次数) 10000,人类巅峰才300-400左右的平均,你怎么赢?
这玩意还得加好多限制条件,学习上好久,才能达到人类想要的目的。