AAoZ 发布于七月 25 分享 发布于七月 25 (已修改) · 只看该作者 好玩肯定要多刷,至少处通+身寸爆是肯定要冲的,还有那种有后续DLC的也会继续玩。当然我自己能玩下去主要还是有我自己能处理AI翻译导致的一些问题的因素在里头。 其实AI翻译意外地能保证一些质量——前提是你使用的模型和prompt恰当。而且以一些技术手段也可以保证不出现奇怪多余的人称代词并且保持人名翻译的一致性的。而在这两条有了保障之后,如果使用的模型比较好的话翻译质量其实相当高。劣质的机翻差不等于AI翻译差。 首先我们要明确一点,就是当我们提及AI的时候,其实是指的大语言模型(LLM),而总所周知不是所有的LLM都叫Chatgpt。不同LLM因为使用的神经网络算法、参数量、训练集类型不同而最终会产生不同的翻译效果。 必须要指出的是,虽然ChatGPT这种通用大语言模型确实能够输出具有一定质量的文本,但是其通用性也代表了其在翻译日文时天然的局限性,同时ChatGPT是审查过的,因此你还没法直接地拿它来搞涩涩。一般翻译日文会使用SakuraLLM,这个模型还有针对轻小说特化训练的版本SakuraLLM-LNovel。 然后在知道用哪个模型之后,还需要注意模型的版本,例如sakura就包含1b8和7b甚至32b的版本,前者表示参数量为18亿,后者则是70亿和320亿。显然更多的参数量训练出来的模型肯定翻译得更好(其实过了7b之后如果只是要求“能用”就有点边际效应了),但这肯定是有代价的,更好的模型速度更慢、配置要求也更高。一般而言1b8只要求4G显存,4060也可以轻易跑到100token/s(哪怕是这个速度,翻译一个游戏所用的时间也得是一个晚上起跑),但效果就非常一言难尽,主打一个体验极差。往后从7b开始,所需要的显存就是8G起算,哪怕是4090速度也会掉到20token/s,这意味着要翻译一个游戏可能得让电脑硬跑四五天,但效果倒是值得的。 最后,事实上,很多流通的AI翻译其实就是1b8的水平。因为分享者往往需要快速出资源,也没有那么多时间花在一个游戏的翻译上。这就使得大家对AI翻译的印象极差。但话又说回来,AI翻译之所以大行其道,其实也是汉化组式微而翻译需求又日益增长的矛盾的自然结果。从这个角度讲,我们还是不得不需要AI翻译的。为了在两种需求中取到平衡,一般而言最好的解决办法就是自己本地部署LLM(在kaggle上云部署也行,这些b站都有教程),然后让电脑当帕鲁跑翻译。 我自己主要的方法就是MTools+smzh大佬的脚本+Sakura7b。 七月 25,由AAoZ修改 看到AI直接长篇大论了而没有切题( 链接到点评
推荐贴