转跳到内容

furobert

【会员】高级会员
  • 内容数

    984
  • 加入

  • 最后访问

  • 赢得天数

    1

furobert 发表的所有内容

  1. 有的,这种思路要说的话很早就有了,就是现在这个框架我想弄我也能通过外接API的方式来实现,不过我是想着要是有小模型的话,就能轻松本地部署快速响应了,还能玩点大的)毕竟外接API也是要受到一点审核限制,虽然也能绕过,但是绕过本身也要消耗一点AI的注意力,如果能让AI没有压力直接专精某个功能就很好了
  2. 也是经典的没到自己头上所以不说话了,不过现在好些人属于是等着触底反弹来一波更大的
  3. 我们电脑课什么都不教,就纯玩) 我目前的东西基本上全是自学的,挺少请教别人,就自己网上找资料自己试慢慢学 编程我也是最开始接触易语言自己学的,后面喜欢上折腾东西自己搭了个简单的网站才去学html这种
  4. 现在都做不到吧,至少我用AI来玩AI聊天角色扮演之类的时候,AI也没办法非常好的领会我的意思,更别说用AI实现人与人之间的了)
  5. 我现在就想等一个高效聪明的小语言模型出来,这样我就能用小模型捣鼓点小游戏了) 毕竟现在的AI已经能拿来角色扮演跑团之类的,但是如果设计一个简单的游戏框架,里面包括数值,NPC等等,把这些功能拆分开让小模型来执行,绝对非常nice,直接超脱传统游戏,到时候想干什么都行了😋
  6. 哇嘎里马斯,大伙想看的就是这无法预测的命运之舞台呀)
  7. 我不清楚那些领域领先的模型是怎样的,至少我这里下载到的现在热门的模型,还是有以往AI的通病,除掉前面说过的画风,肢体扭曲这些以外,最多的就是线条上的问题了 毕竟AI绘画不是在一张白纸上开始的,不会一笔一笔绘制,所以绘图的线条也只是模拟人类的画,你看起来是正常的,但是如果你放大仔细看的话,你会看到一些本来可能就不该连起来的地方毫无逻辑的连起来成一坨了,就是线条不够流畅,对我们来说线条可能就是画图的一个基本单位,对AI来说线条本身也是需要模仿绘制的,其实找几张正常图和AI图放大对比一下细节就行,尤其是头发,衣服的线条交汇处,是能看出来AI的明显缺少逻辑的,只是你不放大看正常看的话会感觉挺正常
  8. HTML其实是挺早就接触过了,以前就简单学过html和js。css样式因为我不怎么接触页面设计啊什么的所以也没学 主要就学那些编程语言,易语言,c,python,c++,kotlin,到现在是go,不过说实在的编程语言你会用和能写出想要的其实是两码事,到现在我比较擅长的也就只有易语言,python和go了,我打算多花点精力在go上面,毕竟这玩意儿做后端好使,也挺契合我QQ机器人框架这种项目,唯一缺点就是不太适合写前端什么的
  9. 大脑本身就不简单,而且每个人思维方式也有所不同,只能说每个人多少都会有一些擅长的领域,只是可能有的还没发现吧 我觉得这种可能很难用数值化来描述)
  10. 是这样,如果不是特别复杂的话,其实正常出图也是能出正常的,有些模型可能还在这点上下功夫了手就会更好点 我试过几个底模,就是能很明显看出来有的手画的就比其他的要好,换了那个后手崩的概率也降低不少 而且现在画风调个好点的画师串也能很好避免那种油腻画风,有些精修的真不太好看出来是AI,我这自己玩玩的就随便套了个二次放大,出图后正常看还好,放大看一眼AI
  11. 有些也确实挺爆的就是了)到加剧社会矛盾的程度
  12. 😋能重绘很多东西……包括懂得都懂的那种…… 不过要说的话我其实是想用来修手的,因为AI出图手出问题也是常见的,别人放出来的AI图其实基本上也是许多张中终于出了一张可以的,或者就是通过局部重绘再修了,这个拿来修一些小崩坏扭曲什么的应该会挺好用的,不过没这个其实也还好,现在也有特地针对修复手部的lora,能有效减少手部错误的几率,至少我体验下来用了lora确实好不少
  13. 可能只是谣言什么的)我特地问了一下我的机器人,她搜索资料后跟我说这是个流传已久的误解,人实际上在生活中就会使用到大脑的绝大部分区域,哪怕是休息或者睡眠,反正没有可信度较高的资料说这个
  14. 还只是私用,因为我说实话没觉得我这能到发布出去给人用的程度)感觉还有太多缺点漏洞了,而且那个还是用易语言写的,我现在也不怎么用易语言了,我还想着给移植到别的语言上
  15. 流量至上是这样的,不论人怎样,只要有浏览就有钱赚
  16. 我做成类似QQ那样的了)就是可以靠边隐藏,然后可以输入对话,就像是在QQ里用机器人一样,不过这里整个框架都是我写的 通过加入插件可以随意拓展功能,因为功能也都是自己写的,所以完全可以实现AI对话,闹钟提醒,备忘录,b站动态监测转发,等等可以用代码实现的功能 至于占用CPU,完全不用担心,这就是个小软件,我也没往里面塞什么特别巨大的东西,开了关了对系统影响不大 我比较喜欢的核心还是我用html实现的气泡框对话窗口,然后因为是基于html,所以就非常适合作为内容输出展示,监控的b站动态可以自动转发过来,能直接在这里看动态内容,包括图片,也有超链接点击直接打开浏览器跳转原动态的功能。如果想的话,想在里面播放视频音乐都是完全没问题的,只要是html能做的这里都可以,所以我才觉得这个挺好😋
  17. 这不好说)毕竟大脑构造都搞不清楚,我觉得也挺类似现在AI模型的,就是你能摸清楚这个输入会导致怎样的输出,但是你就是搞不懂中间发生了什么,所以通过刺激来模拟感觉我觉得比较简单,而要是通过这种方式来开发大脑我感觉挺难的
  18. 没)只是根据我之前看到的推理一下,我这几天在玩AI绘图,学会了二次放大后就感觉蛮有意思了,打算再去学学那种局部重绘
  19. 漏洞倒是不至于)只是同盟论坛这里引用的机制应该就决定了其理论上是能引用任意一个回复的,而且这个引用只是通过前端获取数据直接引用,似乎没有通过后端去验证那个内容是否允许引用这种,不过只是引用个回复,也不涉及什么安全性漏洞之类的)虽然一般来说这种更多都是交由后端来的,不过反正同盟这种论坛也不是什么大企业网站,只要正常功能安全性易用性满足了就没啥() 至于输入框里复制引用这种,我感觉好像很多地方都用这种,包括QQ,你复制一段特殊格式的内容到记事本里只能看到文本,但是实际上你复制的里面应该确实是有藏含有意义的内容的,感觉有点类似文本加水印,像是unicode变体选择符那样
  20. 是这样,实际上我写的个人桌面助手软件,UI就用到了HTML,相当于内嵌了一个网页进去来显示UI,效果可比单纯代码绘制UI好多了,毕竟又能整样式又能整js脚本
  21. 不一定吧,或许只是刺激脑部神经来模拟正常感觉的神经活动,不是直接对大脑意识做手脚的话应该没问题 不过要是那种刺激过强了也不好说()
  22. 这种事情隔段时间就冒出来一个,而且往往还都是用最有节目效果的方式结尾,很难说到底是想压还是想捧
  23. HTML我也不喜欢看,一些标签嵌套的要理大半天,看的晕晕的,一般我要看也就挑着看,或者扔给AI处理
  24. 好像是有,不过现在的VR都只是基于视觉上的,想要入侵大脑得是刀剑神域那种直接大脑神经模拟的程度了吧,真到这种程度我觉得就无敌了)毕竟做到这种程度已经可以说是在虚拟世界里就能心想事成想干嘛干嘛了
  25. 正好有个回复在这个帖子就选了()不过这么一看引用的原理也挺简单,就是直接根据帖子id回复id还有用户id时间啊这些就能直接引用,这些网页上开发者工具都能直接查出来的,不过实际上在编辑框里的引用里看不到,复制出来也只有文本格式这种,我猜id之类的信息都藏在复制出的文本字节里了,或许有空可以分析一下
×
×
  • 新建...

重要消息

为使您更好地使用该站点,请仔细阅读以下内容: 使用条款