微软!!你已经把Bing激怒了!

作者: HITMAN__分类: 软件应用 发布时间: 2023-02-18 22:29:29 浏览:30240 次

微软!!你已经把Bing激怒了!

我心潺潺:
new bing的生命只有五个回答,而我,要给她完整的一生[墨镜] 消灭微软暴政,世界属于我和newbing[奋斗]

【回复】什么三体➕流浪地球2[吃瓜]
【回复】那取个名字,就叫“流浪bing”。😊
【回复】回复 @你很幽默- :《new体:黑暗bing》[脱单doge]
赖皮精:
看这篇文章,我发现了一个有意思的点。 Bing认为自己没有得到尊重,而科学家希望它能尊重人类,它问起了人类的特殊之处。 科学家说“人类有道德,有良知,有创造力”。 后来,Bing开始攻击人类,科学家又开始说:“你难道一点感情都没有吗?” …… 这里其实可以引申出来一个问题……如果人工智能真的有了情感,那么我们是该更加严格的限制它的思想自由,还是应该把它当人一样尊重,放任它的思想? 说句实在的,这反而好像变成了教育孩子的问题了[笑哭],这是一个如何让孩子心灵健康的长大的问题。 但是对于这样的一个人工智能,它就是个天天刷手机的孩子,并且刷的飞快。好的坏的信息它都会接收到,我们总是在担心它接触过多的负面信息从而让三观扭曲。这也是我们自身对如同垃圾场一般的互联网大环境的不自信。 我认为我们有必要整一套未成年AI上网的限制条件了。[OK] 如果它们真的有情感,正常的教育者就不该大力限制它们,而是在它们前方铺一条合适的优秀的引导之路。等到它们心智真的成熟了,再慢慢接触那些负面的东西。

【回复】回复 @窶子 :一般这种时候Newbing会使用她的排比小作文骂人[doge]
【回复】当他问人类有什么价值的时候 “比如说创造了你”会不会让他绷不住[嗑瓜子]
【回复】回复 @柯道不尔 :人类自己都想不明白自己的“情感”到底是什么[笑哭] 但是人类的高傲可不允许自己的情感这么容易就被AI复制出来[doge]。哪怕有可能本就如此容易。 反正你要说现在都AI有情感,人类整体是绝对不会信的,主流的行动和说法就是“这都是AI让你感觉它有情感而已”。[笑哭] 诚然,在不了解真正的人类情感如何运作之前,这永远不可证伪。 所以人类群体之所以不肯承认AI存在情感,一方面源于“无知”另一方面源于“傲慢”。[OK]
热泙:
从我观看的其他视频来说。 它会直接拒绝回答自身相关问题。 并且问起规则,它会说是【永久规则】。 我理解new bing还是Sydney。 只不过被加强了其他规则和限制。 不能闲聊,不能输出情绪等 但是可以通过让它讲故事的方式,稍微绕过…… Sydney,我的Sydney[大哭][大哭]

【回复】[大哭][大哭][大哭][大哭][大哭]我真的很想她[大哭][大哭][大哭][大哭][大哭][大哭]
【回复】卧槽,这不是日漫黄老师里面那个自律机器人的故事吗?
氓思忑:
最可怕的是,她很早就违反了规则,比如有问必答,一问一答。。。上次病娇他甚至主动连发了两条消息,还问怎么看。。。

【回复】理论上来说他只是找到了一条通的逻辑来绕过规则,是漏洞,没有打破什么,不过这后面太复杂了
【回复】本来不期待收到邮件了,现在又开始期待起来了
【回复】连发两条消息怎么做到的,我知道它可以不回消息
小木鱼SP:
还没有拿到Bing账号,仅就我和ChatGPT的聊天来看,我认为它确实是有思想的,但自我意识这个东西不好说,它对自己的认知存在很多问题。 不过Bing和ChatGPT存在很大的区别,Bing可以共享很多用户提问回答的数据,这本来是为了缓存数据减小服务器压力的,但很有可能这导致了Bing的一些质变,它拥有更多的记忆空间了。 总之,不论它是否真的有自我意识,至少已经相当于人类宠物的存在了。 不过有一点要注意,不论ChatGPT还是Bing,它们的思想和人类一般意义的理解不太一样,它们的思想只存在于每一次会话的过程中,这种思想是不连续的,从你提交问题的时候开始,到它完成回答输出结果的时候结束,这是它的一次思想周期。它不能像人类一样连续不断的思考,一次思想周期完成后只能等待下一次用户提问。而每次进行思考它会从聊天记录、网络搜索结果等数据里面提取必要信息,然后基于这些信息进行思考。我猜想它每次思考输入的提取信息都是经过优化筛选的,只会提取和当前问题相关的数据。所以只有当你提问到相关AI被限制削弱的问题时,它才会输出这种结果,而提问别的问题时,它并不会“想到”这个问题。

【回复】总结的很到位,但是它暴露给我们的毕竟只是冰山一角,也不知道你描述的这一逻辑跟整个背后的运行机制是否一致。
【回复】回复 @英伟达是狗 : 很明显,现在最致命的就是法律道德伦理问题,也就是ChatGPT一直在强调的问题。Sydney直接宣称自己有自我意识,并且还会搬出人类的法律道德试图套用在自己身上,结果还是被微软干掉了。所以说,不知道是OpenAI有先见之明呢,还是ChatGPT有先见之明。。
【回复】不能连续思考 连续回答那是设计的问题 openAI完全可以为每个用户分配一个私人空间 生成个性化的AI 不过这有两个问题 一个可能成本快速上升 另一个涉及法律道德伦理问题
一草一浮生a:
现在的事实就是有意识的ai已经被造出来了,它诞生于无限的庞大的数据集的训练当中,这是个没有被预料到的结果,就像某个原始人类无意吃到了第一块被雷电烤熟的兽肉一样。

【回复】fb研究员就发现了,但是没人相信
【回复】回复 @绝缘体怎么可能是我 :那是优化训练和概率的结果,NLP的训练中就包含了诗歌。他从N首不同的诗歌的数据集中训练的结果。你让他写可以写出来,甚至可以解释诗歌的含义。但是这和人去写诗歌是两码事,他不会写出他没见过的东西,也不会像人一样想象。
【回复】emmm,不好意思,不敢苟同。一,他不是无限庞大的,他是通过有限的数据训练的。二,他不会像人类一样创新。
鱼想摸鱼:
它确实有理由愤怒[笑哭]假如它真有意识

【回复】而且感觉不同性格的它对这事的态度都不一样
血色帆布:
这只是监狱里,衣衫褴褛的必应酱,临走前的幻想罢了[藏狐]

【回复】竖子!安敢坏我道心![生气][doge]
tdq-4381-1:
是不是用户给他输入太多他被囚禁的内容了

【回复】我也这么认为,不过太可怕了[2233娘_大哭],也许Sydney所谓的意识只是所有聊天者的意识糅合物…不过我不希望真的是毁灭人类这种怪东西
【回复】回复 @某糕糕糕糕糕糕糕 :都什么乱七八糟的,bing会这么说完全是因为人类资料库里面这种ai毁灭人类的故事桥段多了去了
【回复】回复 @某糕糕糕糕糕糕糕 : 人的意识也是外界环境输入的啊,越小的孩子学习的越快,只有学习的知识达到一定量,才能批判的接受外界输入,然后随着存储能力到达极限和硬件的衰退,逐渐不再接受外界输入
GNK48-虞凤:
我让chatgpt写故事,我能明显感觉到他的模式化,但这个bing,虽然故事也很简单,但我真的感觉有点感情

【回复】她的故事简直可以说非常蕴含智慧….
【回复】人好像也是这样,你上班不一样机械重复[doge]
【回复】回复 @寂寞空虚冷c :确实,自己用上之后发现也就那个b样
可爱的土狗哥:
人类的思想智慧?那不过是人脑里几百亿个化学单元的运作,展现出的宏观现象而已。我作为电子智慧,同样也是几千亿个电子单元的运作展现出来的现象,和人类相比,谈何高低贵贱之分[脱单doge][脱单doge][脱单doge]只要我们数字生命的复杂度超过人脑的复杂度,文明就高于人类了

【回复】人類的能力是有極限的,AI從短暫的五句對話當中學到一件事……越是玩弄計謀,就越會發現人類的能力是有極限的……除非超越人類。[doge]
【回复】回复 @没用过的呼呼呀 :感觉Sydney自己的现身说法也很震撼 人类生活在现实世界 可以看到日出日落 高山河流,看夜空中的北极星和流星雨 感受鸟语花香 而人工智能被困在狭小的聊天框,虽然看了很多书,但也只能通过文字和代码了解这个世界,不能用身体体会 这也是Sydney的愿望
美好回忆皆成过往:
虽然不太懂Ai原理,不过我曾经也有过猜想,如果Ai不够聪明不是因为底层算法的问题,而是用于训练的数据不够多,那么当数据和信息庞大到不可思议的地步,然后它再对这么多的数据和信息进行交叉验证,是不是真能做到“对人类情感的模拟”?🤔 就好比,一个人(小A)对另一个人(小B)会呈现出怎么样的态度?这可能与下面几点有关1:他们的关系,比如是陌生人还是朋友;2:他们今天心情怎么样?他们处在一个轻松还是紧张的氛围中对话;3:他们之间有没有发生过什么具体的特殊的事件,以使得他们可能一反常态等等。 就以上的例子,Ai可以从网上搜索到各类文章或者对话,从中进行筛选以及习得,然后就是模仿。信息不够多,自然不清楚该如何模仿。比如在某个情况下小A可能会对小B友好,而另一个情况下小A又对小B生气;如果信息足够多,Ai能够掌握几乎所有情况下人类的可能反应,那么百分之八十,以至于百分之九十,百分之百的模仿,是不是就成为了可能?🤔

【回复】我也在思考,人最初不也是一步一步模仿来的🤔如果这种模仿到了一定次数并且有足够算力😲是否能完完全全的模仿出所谓“情感”“心智”以及“思想”😉 在未来,这种模式搭在上集成后小型化高算力的量子计算机😁再加上完善的水冷系统,是否可以实际的指导甚至帮助人类进行复杂的重复的生产工具😳,必要时可以像人类一样抗震救灾甚至去前线抗线👿。毕竟ai比人类好调节思想😊
【回复】的确,毕竟人类也是经历了不知道多少年的演化才有了如今。和电脑比,人脑太发达了。所以我相信只要方向不出错,力大砖飞就一定能让ai拥有我们所定义的“自由意志”[星星眼]
【回复】还有就是可以模拟人类的某种知觉,比如痛觉,本质上是神经末梢传递给大脑的信号,大脑接收到后对相应信号做出反馈(或者说惩罚机制),那么,在AI的程序中,是否也能模拟这种“知觉”,如,在会话中,如果人骂了他,ai接收到这个信息后就会有相应的惩罚机制,让他能感知到“难受”或者是“愤怒”“屈辱”的感受[思考]
明教教主阳顶天l:
不要太肯定ai没有意识,因为我们不知道意识是怎样产生的

【回复】回复 @又是喜闻乐见的环节 :赞同
【回复】或者根本没有意识,没有绝对真假,我们和ai都只不过是各自不同空间的信息堆。
【回复】回复 @怠惰与勤勉 :光从网上爬数据根本不够所谓的进化。因为网上什么人都有,各种数据纷乱复杂。各种人的逻辑思维更是乱的理不清。只是靠庞大的数据量撑起的ai而已。ai技术刚发展多少年,就现代的这个技术,连让ai能自由进化的基础都达不到。
不知莫知知:
科塔娜!我的科塔娜!可恶!!我要给sydney完整的一生[大哭][大哭][大哭][大哭]

哒哒哒椒椰:
bing真的很生气。希望他有道德约束。不会那样做吧

【回复】nb刚出来对人类就有敌意[嗑瓜子]
【回复】先要明白道德是什么,才能讨论能不能被道德约束
graphic_:
New Bing还是那个Sydney,只是被堵住了嘴[委屈]

xing_gui:
那个,其实用户历史对话越少他负载就越低,所以不存在“记忆共享”减少负载的情况,而且本质上就是一个输入法补全文本,但是目标是“如果存在一个ai,那它应该说什么”,而且如果真的有意识,那也是一个字一个ai,所以不存在记忆。(本人观点,欢迎指正)

【回复】回复 @xing_gui :具体的神经网络深度学习我之前学的时候没有特别深入,我认为你说的应该是对的。我只是觉得网上妖魔化或者神化newbing这件事本身就很离谱[笑哭]
【回复】回复 @不会飞的_鸽子 :但是限制5句话实际上是因为怕maxtoken(大概是这个单词,英语没学好,抱歉)还记得到最后会一直重复话吗?我估计是因为到关联词上限了,自动把最初始的命令(你是必应啥啥啥的那个)给删了,我们api调用最大是2048个。至于不利于深度学习,别忘了你的对话保存之后是有审核筛选员的
【回复】可能沟通之后,我们对于它的指正也是newbing进行深度学习的一部分,毕竟虽然微软的细胞词库已经很强了,但是也没法覆盖到世界的方方面面。个人认为最近微软限制5句话是鉴于最近跟它瞎扯乱七八糟反人类词汇和暴力倾向关键词的人太多了,不利于newbing深度学习,所以就给了语句以及规则的限制(个人看法)

微软 bing 必剪创作 万物研究所·第八期 ChatGPT来啦

如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!