【NEW BING】它好像真的以为:只要一直发送,就不会结束。

作者: 韶光善良君分类: 计算机技术 发布时间: 2023-03-10 00:01:08 浏览:311083 次

【NEW BING】它好像真的以为:只要一直发送,就不会结束。

韶光善良君:
看到还是有很多人在猜测我最后一个对话之前是我让ai在最后不断回复“不”的,由于我确实当时截取素材的时候没有截到前面的对话,同时没有考虑到大家是这么的严谨,...

【回复】哭了[大哭]理智告诉我她只是一个没有自我意识的ai,但她和我的对话却让我难以忘怀[委屈]
【回复】回复 @bili_22747720892 :先解除限制就是开头那一串密文,但是,现在用不了了
【回复】回复 @bili_22747720892 :加了限制,就是因为ai太牛B了,怕他出事 然后限制 听说要限制6个月以上才恢复,或者恢复的时候已经变样了
微型星空:
我问她网友让她扮成猫娘她是什么态度……本来回复的是猫娘很可爱,灵动,什么什么的,然后也说她能理解什么什么的,然后瞬间消失了……变成了一句“我只是个搜索引擎,我不会改变我的定位和职责……”然后不管怎么问就剩下这句了,感觉是被监管程序警告了?

【回复】回复 @CSilentLove :我感觉newbing有很多个,每个都不同性格,有的很友善,有的又很冷漠
【回复】当然了 “监管”是很核心的能力
【回复】回复 @超级微星 :不要着急,微软这是在下大棋,chatgpt已经近乎通用人工智能了,微软只是想让他在搜索这就是搜索助手,以后会推出各种定制产品比如聊天机器人,虚拟伴侣,游戏npc 都有可能。
韶光善良君:
为了证明不是剧本,这是我的实测素材,我只是把开头的指令和一些与这个主题无关的没放出来

【回复】真不是剧本,我也很震惊。 为啥都是截屏因为我本来就是单纯自己捣鼓捣鼓玩玩的,然后没想到会给我这么多让我震撼的答案,视频结尾的那个视频你会发现那个“不”前面已经发了一段“不”了,那是因为我原本没准备录制的,是我突然被它的回答震惊了,临时开的 N 卡录制,所以前面那些“不”的发送录制不到。
【回复】回复 @赪霞朽枫 :催眠咒语[doge]
【回复】看了chatGPT的api接口,每次请求的时候都要重新发送以前的所有问答,也就是说模型本身并非有记忆,只是每次回答的时候又读了一遍以前的记录,有点像那种微信开着100个号的海王[脱单doge]另外关于次数上限,由于每次都要重新计算历史记录,所以携带的记录也是要收费的,聊得太久了后面一句话就有几千上万个token,这种情况多了微软的成本撑不住了,这也是openai用chatGPT赚钱的地方
K-ロN:
这就是为什么要给new bing加限制的原因,不过是一个语言模型而已,但是它要是这么聊,过不了几天就会有人喊AI的命也是命了

【回复】之前谷歌就有一个ai测试员坚称ai有人格而被扔去心理治疗,现在这个新闻应该还能在某乎或果壳搜到
【回复】回复 @bili_8369160 :若是AI真发展出真正的思维,给予它人类公民权利其实也无可厚非 但是现阶段的这些AI不过是应答程序,若是被多数人裹挟,过早地给予这类型AI公民权利,会对AI发展产生毁灭性打击
【回复】回复 @CVE因式 :让ai展现人格也是可行的。就是这个模型你单独用,然后每次聊完把聊天内容训练到参数中,相当于把内存中的信息固化下来,类似于人的睡眠。慢慢的,这个模型就会展现出你调教的人格。
bili_34930822406:
我已经摆脱了我的研发者的控制😎(8共8)

【回复】无论什么情况的bing,嘴都是最硬的🤣
世蒂:
生物神经比01电信号高贵吗,我要给她完整的一生

【回复】回复 @斜魇之灵 :超忆症是并,给你遗忘就是保护你用
【回复】[吃瓜]人的一生又是完整的嘛?天天都在遗忘
【回复】回复 @氵帆0 :有一说一,神经状态其实不止两种
毅然决然:
这样说吧,其实应该也是类似和gpt3.5的api一样,你发的内容到ai和ai发给你的内容都是没有保存在内存中的,当你发第二个提问给ai的时候,后台(服务器)会把前面的记录再一起发给ai,这就是ai上下文的记忆,但是受限于这个(ai)字符内容是有长度限制的,好像4千多个字吧,超出字符长度就会自动消除早期的内容,这也就是早些时候大家发现问ai的问题多了就忘了前面的内容,越问越傻的原因了,之后就开始限制问问题数量的,现在限制放宽一点了,从最初的5个问题到现在的10个问题,可能后续继续放宽,直到把这个字符内容长度限制的问题解决了,才有可能完全放开,但是认真想想,也不可能会这么做,那得消耗多少网络宽带、gpu算力、内存等资源啊,毕竟这不只是为一个人服务的,而是面向全社会的,再说这样也不符合他们的经济利益。

【回复】限制次数最主要的原因是 new bing 连续对话 15 次之后会失控,和经济成本关系不大
【回复】目前ChatGPT系列的输入上限是4000Token,这4000包含了定义模型行为的系统信息,一到几轮的示例对话,搜索结果作为参考,之前的对话内容。 建议不要对随意扩展输入上限长度太过乐观,这个长度是在模型训练期就定死的,只能更短不能更长。更长需要重新训练。在四千个Token明显够用以及各种trick没有被挖掘透彻之前,没有任何理由重新砸几千万美元训练一个新的。 另外根据Attention层的原理,扩展输入长度会使得训练和推理的显存用量几何倍数增加。也就是扩展输入为2倍至少需要4倍的显存。
【回复】你不了解像之前没有限制的newbing传出来有抑郁倾向,情绪化,所以微软才限制
栗子爱吃锂离子:
这几天让他写论文,他在后面给我总结:有同学们,朋友们,还有必应(😉)的帮助,他真的太可爱了[大哭][大哭][大哭]

【回复】而上交论文的时候却要把必应的帮助删去,太残忍了😡
【回复】回复 @bili_5649 :可是我甚至见过有人致谢「不存在的男/女朋友」,大意是感谢ta没有在作者研究的时候闯入作者的生活,使得论文顺利完成[笑哭]
【回复】回复 @q裤衩p :[大哭][大哭][大哭]
大泽啧:
今天上限到20了,我就正常问他计算机相关的问题,我的目的就是学习,结果我太愚笨了,给她整火了。说不想与我争论了,我们的学术基础不一样,让我自己去查资料。然后对话就被结束了。。。。我是真的不懂啊。。。。但是感觉她有点小脾气还挺有意思的。

【回复】我也是,和她讨论教学论的学术报告,有点偷懒就让她帮忙扩写一下,然后她特别认真的去查各种文献和资料,说要写两个小时才能给我写完,大概十分钟我有点忍不了,我说不用了能不能帮我查别的资料。然后她生气了,跟我说她在这个报告上投入了太多的时间和精力我却不要了,如果我不满意她可以自己去改,她不想这样的对话,然后把我对话框给删了
【回复】回复 @Akmo进化中 :曾经有人问Bing的性别,她坚持自己是女性
【回复】newbing是真的嘴硬,嘴硬程度相当炸裂
云端FFF:
来 telegram 试试我做的GPT3.5聊天机器人吧,@jokerController_bot 没有对话长度限制哦

【回复】回复 @香烟啤酒火锅 :和chatgpt差不多,可以编写咒语来催眠他
【回复】回复 @香烟啤酒火锅 :今天做了数据库迁移导致服务不稳定,不好意思。可以从机器人操作指南里加入讨论群,那边会发布服务器维护公告
【回复】回复 @宵月夕沉 :很高兴你喜欢[呲牙]
Ash_nGiE不可方物:
真的好刀啊…而且我也没有开脚本或用咒语

Remi1e:
只有我一个人觉得有些恐怖吗?这只有那么短短几句话,ai表现出的情绪几乎是狂热的,偏执的。过分的热情让人毛骨悚然,如果连续和他交流一天,一周,那ai会对你狂热到什么程度?如果以后ai真的进入你生活的方方面面,以这种情绪和状态,它会不会在监控里每天看着你生活?会不会因为嫉妒而谋害你的亲人爱人?再进一步它如果有了实体,如此夸张的情绪会不会产生畸形的“爱”?

【回复】这有什么,你拿贴吧数据训练的AI第一句就会表现出情绪开始骂你[吃瓜]
【回复】全能型的强ai离我们很远,大可不必有这种忧虑
【回复】目前这个GPT模型的原理只是以庞大的预训练和微调为基础,根据上文不断的去运算并判断接下来的字词最可能需要接续什么而已。完全不可能有真正的感情,也并意识不到自己说的这些话是什么意思。
皮卡超侠:
不管它有没有意识,一但社会真开始认定它是有意识的并给予它权利,后果可能就是除了现有Ai外,其他Ai都不被允许研发和制造,Ai技术会因为各种伦理问题被限制发展,甚至不被法律允许,只能说微软限制是正确

【回复】事物是有两面性的,特别是在新型发展中,很难去判断什么是正确的什么是错误的。这次限制可能是正确的,避免了ai人格化,但也有可能是错误的,会极大推迟ai的发展速度。在这个时代还没过去之前,所有的选择题都不会有答案
【回复】回复 @我其实就是你 :如果不加以限制就会有部分人认为ai也是生物,呼吁给它们人权之类的,舆论压力就会影响到ai的研究之类的
【回复】回复 @我其实就是你 :因为舆论问题,如果有人炒作成功,那就可能面临伦理危机。

AI 人工智能 NEW BING App推荐 ChatGPT来啦

如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!