回头肯定要试试的,毕竟pro按理来说会比flash模型聪明不少,其实文采反而不是我最在意的,逻辑上强才是我比较喜欢的
不过我还在用flash的一个原因也有限制的问题,像是之前那些模型,就会有每天50次,每分钟32k的token速率限制,这拿来AI聊天就不是很爽,虽然我有六七个谷歌号,加起来一天能聊几百次也够用了,但是那个每分钟32k,还是有点受不了,有些大的角色卡光是世界观设定什么的就超过32k了,这时候聊每次都要等一分多钟,体验会比较难受,像是flash限制就宽很多,完全不会有被限制的情况,而且回复还快,我接入qq机器人那种几秒钟就能回复,快的时候你发出去隔一秒就能回复