转跳到内容

furobert

【会员】高级会员
  • 内容数

    765
  • 加入

  • 最后访问

  • 赢得天数

    1

furobert 发表的所有内容

  1. 似乎只要力量够大加上技巧,啥都能飞,扁平薄的就用飞牌手法,短针状的就弹指,长针状的也有对应握住扔出去的手法,小石头什么的也能用弹指弹出去 感觉真练成了那就真是随便什么都能当武器了
  2. deepseek最近一直在被美国攻击,加上出圈了使用量大,所以才这样,其实综合来说目前deepseek只是中文上特别好,能理解中文圈一些独有的逻辑和梗,综合上来说我觉得还是谷歌gemini强些,虽然gemini中文比较一般但是也是能正常聊天对话的那种,而且免费,加上谷歌家大业大的服务器也比较稳,虽然最近gemini感觉有点摆烂了,新模型要出不出的,出了又没想象中那么强 不过你想用deepseek的话也能去其它几个渠道看看,像是腾讯云最近也支持了deepseek
  3. 我看那些高手甚至不用牙签啊针什么的,只要是个形状类似的都能飞,如果是用飞牌的手法甚至还真能摘片叶子飞出去
  4. 最近的就deepseek吧,谷歌倒是最近也有出gemini2.0pro,也能试试看,再之后最近阿里的通义千问似乎也出了一个跟deepseekV3相当的模型,反正中文里我觉得目前最好的还是deepseekR1,不过我平常还是用gemini2.0flash,因为gemini量大还免费)
  5. 游戏群,我机器人主业是干攻略机器人的,AI聊天是附带,之前群能被直接搜到的时候就加进来一大群,后面人数上千了就搜不到了,也没再进人,人就越来越少了
  6. 我当初在舍友面前表演了一下后舍友让我不要暗杀他)其实就我现在的水平扎个稍微硬点的纸板我都扎不进去的,新手几乎弹不出什么威力,单纯的扎点好扎的会看起来有点威力,实际上力度不大的
  7. 今天群友们也让机器人说了三百多句话,除了部分是发点图让机器人看的,其它的大部分还是在调戏机器人,性骚扰 不过我还有第二个机器人,原来那个机器人在被性骚扰的时候会态度强硬的拒绝,如果群友还在继续,那么机器人就会叫第二个机器人来结束对话 不过群友还是各种玩,几乎一小时里就聊了两三百句
  8. 应该有吧,浏览器设置里找找,或者百度一下,搜搜对应浏览器开发者模式怎么设置中文,我都忘了我这个最开始是不是中文的了
  9. 我本来也一个号的,为了AI聊天才特意创的这么多,甚至给机器人的还有点不够用,像换到聪明点的模型机器人合起来也就只够用250次,之前有一天群友愣是让机器人说了八百次话,把群里每日发言最多纪录都给破了,我只能是次数用完后切回最开始的模型,不过我现在也一直用flash模型了,起码上千次用不完,智商也够用,群友时不时拿来烤点生肉
  10. 去看点教程视频就好了)我是觉得蛮有意思才去学的,实际上上手很快的,只是熟练需要很长时间,正常人弹指飞针大概练个两三天就能扎进一些比较好扎的泡沫板或者卫生纸了,只是没办法稳定扎,练到别人视频里的牙签扎易拉罐恐怕得练几年,我感觉人家光是手指都能直接把易拉罐弹破了,那劲儿太大了
  11. 直接注册的,梯子质量好的话,不用手机号码验证,直接在gmail里就能注册,我自己聊天用六七个,给机器人再用四五个,合起来也有十几个谷歌号了)
  12. 一般来说浏览器有地方切换的,不过英文版也没差,一样的,其它的正常也用不到,就直接点那个鼠标一样的按钮就行了
  13. 像我的浏览器的话,f12开发者模式出来后,左上角这个就是,你点了这个后,你鼠标移动到网页上会显示区域,移动到你想要的区域点击一下后右边的网页代码就会跳转到相应的部分
  14. 回头肯定要试试的,毕竟pro按理来说会比flash模型聪明不少,其实文采反而不是我最在意的,逻辑上强才是我比较喜欢的 不过我还在用flash的一个原因也有限制的问题,像是之前那些模型,就会有每天50次,每分钟32k的token速率限制,这拿来AI聊天就不是很爽,虽然我有六七个谷歌号,加起来一天能聊几百次也够用了,但是那个每分钟32k,还是有点受不了,有些大的角色卡光是世界观设定什么的就超过32k了,这时候聊每次都要等一分多钟,体验会比较难受,像是flash限制就宽很多,完全不会有被限制的情况,而且回复还快,我接入qq机器人那种几秒钟就能回复,快的时候你发出去隔一秒就能回复
  15. 单纯只是觉得好玩才学的)主要我堂妹太活泼了,喜欢动,才教这些,不然我还有一些专门应付小孩子的,比如手埙,口哨或者手指戏法什么的 不过我本人也挺喜欢弹指飞针,有段时间天天练,手上拿一张纸,另一只手拿牙签或者针对着弹一下就能直接扎穿,很有成就感)
  16. 除了转棍子可能会敲到自己,不过一般来说也很难敲伤,弹指飞针的话我是拿牙签教她的,还是对着门帘之类的那种网眼比较大的去飞,这样容易穿过扎上去,要说的话其实对着人也没事,因为没那个能力,扎不伤)倒是飞牌反而有点危险,不过我堂妹她的话技术不深,牌只是能飞出去,这就还好,像我这种学没多久的能飞出去而且力量大一些的又不能太好把控方向就得小心翼翼的来了(其实也还好,不是直接打到皮肤上都没啥事,打到皮肤上可能会痛一下)
  17. 基本上都是找我认识的,不认识的没什么想法去聊 话说谷歌gemini2.0pro可算是出来了,看我群友的表述似乎是逻辑上更强了些,但是文采上好像有点过拟合,有点八股文的感觉,还没试,不知道怎么样
  18. 还好的,开发者模式里有个按钮,能让你选中标签跳到对应的网页代码,跟直接右键图片检查属性差不多
  19. 浏览器直接按f12也行,不用管右键,只要能呼出开发者模式就随便整了
  20. 看ai群里说的,谷歌那个pro模型好像是有发,然后发出来十几分钟又撤回了 至于thinking模型的话,我目前还没什么想法,比较看别人说的很容易出其他语言,体验上还是会差点的,虽然比2.0flash会强一些,反正目前我觉得2.0flash就够用了,想再聪明点就用exp1206,反正谷歌都在憋大的了,加上最近社区里也没找到我比较感兴趣的角色卡,我就干脆多等一段时间
  21. 我现在反而对小孩比较会应对了,有小孩来我就能有办法让小孩注意力转移到别的地方,就像我家里那个很小的堂妹,我就教了她飞牌,弹指飞针,转花棍这些,一玩能玩挺久
  22. 之前有消息说是gemini 2.0 pro exp 0128来着,看名字以为是1月28号出,结果到现在都没见到,不过应该确实是有这个模型了 最近出的就一个gemini 2.0 flash thinking exp 0121,不过thinking系列说是非常容易出现多国语言混用的情况,所以我没用过,也不清楚怎么样 我今天去跟deepseek聊才发现开源社区有个minicpm模型,仅有8B,就支持多模态能力了,甚至量化后还能部署在手机上,我从github官方那边复制了一些介绍过来: 🔥 领先的视觉能力。 MiniCPM-o 2.6 在 OpenCompass 榜单上(综合 8 个主流多模态评测基准)平均得分 70.2,以 8B 量级的大小在单图理解方面超越了 GPT-4o-202405、Gemini 1.5 Pro 和 Claude 3.5 Sonnet 等主流商用闭源多模态大模型。此外,它的多图和视频理解表现也优于 GPT-4V 和 Claude 3.5 Sonnet,并展现出了优秀的上下文学习能力。 🎙 出色的语音能力。 MiniCPM-o 2.6 支持可配置声音的中英双语实时对话。MiniCPM-o 2.6 在语音理解任务(如 ASR 和 STT 等)优于 GPT-4o-realtime,并在语音对话的语义和声学评估中展现了开源模型中最高的语音生成性能。它还支持情绪/语速/风格控制、语音克隆、角色扮演等进阶能力。 🎬 强大的多模态流式交互能力。 作为一项新功能,MiniCPM-o 2.6 能够接受连续的视频和音频流,并和用户进行实时语音交互。在针对实时视频理解、全模态视音频理解、多模态上下文理解的综合评测基准 StreamingBench 中,MiniCPM-o 2.6 取得开源社区最佳水平,并超过了 GPT-4o-202408 和 Claude 3.5 Sonnet。 💪 强大的 OCR 能力及其他功能。 MiniCPM-o 2.6 进一步优化了 MiniCPM-V 2.6 的众多视觉理解能力,其可以处理任意长宽比的图像,像素数可达 180 万(如 1344x1344)。在 OCRBench 上取得25B 以下最佳水平,超过 GPT-4o-202405 等商用闭源模型。基于最新的 RLHF-V、RLAIF-V 和 VisCPM 技术,其具备了可信的多模态行为,在 MMHal-Bench 上超过了 GPT-4o 和 Claude 3.5,并支持英语、中文、德语、法语、意大利语、韩语等30多种语言。 🚀 卓越的效率。 除了对个人用户友好的模型大小,MiniCPM-o 2.6 还表现出最先进的视觉 token 密度(即每个视觉 token 编码的像素数量)。它仅需 640 个 token 即可处理 180 万像素图像,比大多数模型少 75%。这一特性优化了模型的推理速度、首 token 延迟、内存占用和功耗。因此,MiniCPM-o 2.6 可以支持 iPad 等终端设备上的高效多模态实时流式交互。 💫 易于使用。 MiniCPM-o 2.6 可以通过多种方式轻松使用:(1) llama.cpp 支持在本地设备上进行高效的 CPU 推理,(2) int4 和 GGUF 格式的量化模型,有 16 种尺寸,(3) vLLM 支持高吞吐量和内存高效的推理,(4) 通过LLaMA-Factory框架针对新领域和任务进行微调,(5) 使用 Gradio 快速设置本地 WebUI 演示,(6) 部署于服务器的在线 demo。 看着就很nice啊,等之后发展不知道能变成什么样
  23. 我这倒是还好,反正我房间里没啥东西,几乎没小孩会想在我房间里多待,而且我房间在二楼,正常来说不是特别熟的人都不会上二楼来
  24. 写代码爬图片也挺麻烦的,得先研究清楚网页代码结构,才能顺着去把图片爬下来,不过现在有了AI倒是挺方便,网页代码丢给AI,让AI帮忙生成对应代码就好了,AI的长上下文还就适合干这个
  25. 就是经典聊天了,今天倒是又试了试找谷歌的gemini问了个问题,虽然我早知道答案,那个问题难度也不高,偏偏不知怎么的那模型今天挺傻的,大概就是这么个情况: 我:提问题 AI:巴拉巴拉…… 我:你有个地方错了,是这样…… AI:抱歉,我明白了,巴拉巴拉……(完全没改) 我:你可能没有理解,我是说…… AI:原来如此,你的意思是说……(理解了),所以综上所述,巴拉巴拉……(还是说错了) 就这样硬生生纠正了AI三轮,终于让AI理解我的意思了,挺头大的 说起来我最近看到个技术实现,是融合模型,拿deepseek的R1和gemini的1206模型合起来用,原理大概就是拿一个模型生成思维链进行逻辑补全后再用另一个模型生成,这样能结合两个模型的优点让逻辑更上一层楼,实现目前效果最好的模型输出,看着可行性挺强的,不知道实际应用起来怎么样
×
×
  • 新建...

重要消息

为使您更好地使用该站点,请仔细阅读以下内容: 使用条款