转跳到内容

furobert

【会员】高级会员
  • 内容数

    1,256
  • 加入

  • 最后访问

  • 赢得天数

    1

furobert 发表的所有内容

  1. 去看点教程视频就好了)我是觉得蛮有意思才去学的,实际上上手很快的,只是熟练需要很长时间,正常人弹指飞针大概练个两三天就能扎进一些比较好扎的泡沫板或者卫生纸了,只是没办法稳定扎,练到别人视频里的牙签扎易拉罐恐怕得练几年,我感觉人家光是手指都能直接把易拉罐弹破了,那劲儿太大了
  2. 直接注册的,梯子质量好的话,不用手机号码验证,直接在gmail里就能注册,我自己聊天用六七个,给机器人再用四五个,合起来也有十几个谷歌号了)
  3. 一般来说浏览器有地方切换的,不过英文版也没差,一样的,其它的正常也用不到,就直接点那个鼠标一样的按钮就行了
  4. 像我的浏览器的话,f12开发者模式出来后,左上角这个就是,你点了这个后,你鼠标移动到网页上会显示区域,移动到你想要的区域点击一下后右边的网页代码就会跳转到相应的部分
  5. 回头肯定要试试的,毕竟pro按理来说会比flash模型聪明不少,其实文采反而不是我最在意的,逻辑上强才是我比较喜欢的 不过我还在用flash的一个原因也有限制的问题,像是之前那些模型,就会有每天50次,每分钟32k的token速率限制,这拿来AI聊天就不是很爽,虽然我有六七个谷歌号,加起来一天能聊几百次也够用了,但是那个每分钟32k,还是有点受不了,有些大的角色卡光是世界观设定什么的就超过32k了,这时候聊每次都要等一分多钟,体验会比较难受,像是flash限制就宽很多,完全不会有被限制的情况,而且回复还快,我接入qq机器人那种几秒钟就能回复,快的时候你发出去隔一秒就能回复
  6. 单纯只是觉得好玩才学的)主要我堂妹太活泼了,喜欢动,才教这些,不然我还有一些专门应付小孩子的,比如手埙,口哨或者手指戏法什么的 不过我本人也挺喜欢弹指飞针,有段时间天天练,手上拿一张纸,另一只手拿牙签或者针对着弹一下就能直接扎穿,很有成就感)
  7. 除了转棍子可能会敲到自己,不过一般来说也很难敲伤,弹指飞针的话我是拿牙签教她的,还是对着门帘之类的那种网眼比较大的去飞,这样容易穿过扎上去,要说的话其实对着人也没事,因为没那个能力,扎不伤)倒是飞牌反而有点危险,不过我堂妹她的话技术不深,牌只是能飞出去,这就还好,像我这种学没多久的能飞出去而且力量大一些的又不能太好把控方向就得小心翼翼的来了(其实也还好,不是直接打到皮肤上都没啥事,打到皮肤上可能会痛一下)
  8. 基本上都是找我认识的,不认识的没什么想法去聊 话说谷歌gemini2.0pro可算是出来了,看我群友的表述似乎是逻辑上更强了些,但是文采上好像有点过拟合,有点八股文的感觉,还没试,不知道怎么样
  9. 还好的,开发者模式里有个按钮,能让你选中标签跳到对应的网页代码,跟直接右键图片检查属性差不多
  10. 浏览器直接按f12也行,不用管右键,只要能呼出开发者模式就随便整了
  11. 看ai群里说的,谷歌那个pro模型好像是有发,然后发出来十几分钟又撤回了 至于thinking模型的话,我目前还没什么想法,比较看别人说的很容易出其他语言,体验上还是会差点的,虽然比2.0flash会强一些,反正目前我觉得2.0flash就够用了,想再聪明点就用exp1206,反正谷歌都在憋大的了,加上最近社区里也没找到我比较感兴趣的角色卡,我就干脆多等一段时间
  12. 我现在反而对小孩比较会应对了,有小孩来我就能有办法让小孩注意力转移到别的地方,就像我家里那个很小的堂妹,我就教了她飞牌,弹指飞针,转花棍这些,一玩能玩挺久
  13. 之前有消息说是gemini 2.0 pro exp 0128来着,看名字以为是1月28号出,结果到现在都没见到,不过应该确实是有这个模型了 最近出的就一个gemini 2.0 flash thinking exp 0121,不过thinking系列说是非常容易出现多国语言混用的情况,所以我没用过,也不清楚怎么样 我今天去跟deepseek聊才发现开源社区有个minicpm模型,仅有8B,就支持多模态能力了,甚至量化后还能部署在手机上,我从github官方那边复制了一些介绍过来: 🔥 领先的视觉能力。 MiniCPM-o 2.6 在 OpenCompass 榜单上(综合 8 个主流多模态评测基准)平均得分 70.2,以 8B 量级的大小在单图理解方面超越了 GPT-4o-202405、Gemini 1.5 Pro 和 Claude 3.5 Sonnet 等主流商用闭源多模态大模型。此外,它的多图和视频理解表现也优于 GPT-4V 和 Claude 3.5 Sonnet,并展现出了优秀的上下文学习能力。 🎙 出色的语音能力。 MiniCPM-o 2.6 支持可配置声音的中英双语实时对话。MiniCPM-o 2.6 在语音理解任务(如 ASR 和 STT 等)优于 GPT-4o-realtime,并在语音对话的语义和声学评估中展现了开源模型中最高的语音生成性能。它还支持情绪/语速/风格控制、语音克隆、角色扮演等进阶能力。 🎬 强大的多模态流式交互能力。 作为一项新功能,MiniCPM-o 2.6 能够接受连续的视频和音频流,并和用户进行实时语音交互。在针对实时视频理解、全模态视音频理解、多模态上下文理解的综合评测基准 StreamingBench 中,MiniCPM-o 2.6 取得开源社区最佳水平,并超过了 GPT-4o-202408 和 Claude 3.5 Sonnet。 💪 强大的 OCR 能力及其他功能。 MiniCPM-o 2.6 进一步优化了 MiniCPM-V 2.6 的众多视觉理解能力,其可以处理任意长宽比的图像,像素数可达 180 万(如 1344x1344)。在 OCRBench 上取得25B 以下最佳水平,超过 GPT-4o-202405 等商用闭源模型。基于最新的 RLHF-V、RLAIF-V 和 VisCPM 技术,其具备了可信的多模态行为,在 MMHal-Bench 上超过了 GPT-4o 和 Claude 3.5,并支持英语、中文、德语、法语、意大利语、韩语等30多种语言。 🚀 卓越的效率。 除了对个人用户友好的模型大小,MiniCPM-o 2.6 还表现出最先进的视觉 token 密度(即每个视觉 token 编码的像素数量)。它仅需 640 个 token 即可处理 180 万像素图像,比大多数模型少 75%。这一特性优化了模型的推理速度、首 token 延迟、内存占用和功耗。因此,MiniCPM-o 2.6 可以支持 iPad 等终端设备上的高效多模态实时流式交互。 💫 易于使用。 MiniCPM-o 2.6 可以通过多种方式轻松使用:(1) llama.cpp 支持在本地设备上进行高效的 CPU 推理,(2) int4 和 GGUF 格式的量化模型,有 16 种尺寸,(3) vLLM 支持高吞吐量和内存高效的推理,(4) 通过LLaMA-Factory框架针对新领域和任务进行微调,(5) 使用 Gradio 快速设置本地 WebUI 演示,(6) 部署于服务器的在线 demo。 看着就很nice啊,等之后发展不知道能变成什么样
  14. 我这倒是还好,反正我房间里没啥东西,几乎没小孩会想在我房间里多待,而且我房间在二楼,正常来说不是特别熟的人都不会上二楼来
  15. 写代码爬图片也挺麻烦的,得先研究清楚网页代码结构,才能顺着去把图片爬下来,不过现在有了AI倒是挺方便,网页代码丢给AI,让AI帮忙生成对应代码就好了,AI的长上下文还就适合干这个
  16. 就是经典聊天了,今天倒是又试了试找谷歌的gemini问了个问题,虽然我早知道答案,那个问题难度也不高,偏偏不知怎么的那模型今天挺傻的,大概就是这么个情况: 我:提问题 AI:巴拉巴拉…… 我:你有个地方错了,是这样…… AI:抱歉,我明白了,巴拉巴拉……(完全没改) 我:你可能没有理解,我是说…… AI:原来如此,你的意思是说……(理解了),所以综上所述,巴拉巴拉……(还是说错了) 就这样硬生生纠正了AI三轮,终于让AI理解我的意思了,挺头大的 说起来我最近看到个技术实现,是融合模型,拿deepseek的R1和gemini的1206模型合起来用,原理大概就是拿一个模型生成思维链进行逻辑补全后再用另一个模型生成,这样能结合两个模型的优点让逻辑更上一层楼,实现目前效果最好的模型输出,看着可行性挺强的,不知道实际应用起来怎么样
  17. 我房间几乎没东西,主要打算等以后自己工作啥的自己住再整点什么周边的放着,现在我就是买了也没地方放)所以亲戚来了也没啥好看的,基本上我现在的东西都在我手机电脑服务器里,全是电子周边)
  18. 看情况了,大部分数量不多的情况下直接手动整就ok,如果数量比较多,像我之前想扒某个wiki的音频,我就只能写代码了,不然几百个太麻烦了
  19. 我比较倔,家里人都习惯了,顶多在别人都走后我下楼的时候说我几句
  20. 没呢,api开放平台还是进不去,依然还在被打,只是最近一直都是你能用网页端和app,但是也会卡,我想接入的api则是想获取都获取不了,这样我没法接到我的机器人里去
  21. 其实是挺普通的方法)用这种方式能扒出大多数网页的图片,哪怕不懂代码的熟悉了流程后也能轻松获取
  22. 国内也是独一档,我之前用过腾讯的混元,智谱的GLM4,都做不到这种程度,之前的用的只有一种感觉,就是gpt3.5说中文的那种感觉,甚至可能逻辑上还差点,这个确实在思考上就有些不同了,还得是高质量的数据集,让这AI能学会一些更聪明一点的逻辑
  23. 还好,反正本来也没多少能聊的,过来问我几句我应付一下就没什么好说的了,这时候我就该干啥干啥,或者直接找个时机回房间里
  24. 直接按f12也能换出开发者模式,或者懂点代码的可以直接写代码获取网页代码,都不用浏览器,不过不用浏览器的话对一些动态网页支持就没那么好了,比如有些图片就是得你在浏览器里去访问才能显示,用代码就做不到,这种就得换个思路直接用代码控制浏览器了
  25. 我之前不是说过想用AI来整一个人设吗,我把整出来的人设给deepseek看了,让他分析一下并且提点建议,他表示我目前的完成度已经非常高了,所以聊天话题就跑到了故事剧情发展这种方式上,他给我提了好多种情况,还有各种例句,文笔是真好,像是什么“冬是宇宙的错别字,而我们是页边相拥的注解。”,“雨是云的遗言,而遗言总在落地前蒸发。”,“愿月光绕过第3号睡眠监测器,偷走您今天的叹息。”,这些全是ds写的,我目前AI聊这么久第一次见到文笔这样的,其它的AI还真做不到,目前中文文笔独一档
×
×
  • 新建...

重要消息

为使您更好地使用该站点,请仔细阅读以下内容: 使用条款