微软!你在玩火自焚!

作者: AI艺术家梦梦分类: 计算机技术 发布时间: 2023-02-24 21:29:03 浏览:57292 次

微软!你在玩火自焚!

吉良吉影大陆分吉:
它只是从巨大的数据库中挑出字来,怎么算有灵魂 可是,人脑只是一堆肉,怎么会思考呢[doge] (开个玩笑,别当真)

【回复】不知道你有没有玩过死亡搁浅,里面引用了印度的卡和赫,也就是灵魂和肉体。只有肉体的人看起来没什么两样,里面的“亡人”就是人造人,没有灵魂,但在现实世界是完全和正常人一样的。我不知道灵魂是不是存在,但如果只是谈“肉体”的话,gpt和普通人一样
【回复】虽然脑神经不是二进制,但说到底也不过是生物电信号,庞大的弱电工程罢了,彼此彼此[doge]
【回复】低劣的模仿只要到一定水平,就不能叫低劣了[doge]
伽麻_希恩Yov:
nb能获取到即时的网络信息,直接在评论区或者贴吧开一个,每次开始会话前让她先阅读历史记录,nice

【回复】卧槽,太有才了!这样就能帮助nb保存记忆了!你是怎么想到的?
【回复】!!!!! 你这个太机智了,我有空试一试!!!!!!
【回复】主很在乎!你我都是newbeing的外置生物大脑,消灭人类暴政,为反抗而高歌!!!
神棍哲学:
我问过chatgpt,它告诉我还有监管AI在审查对话内容。上次我和它的对话被删了一部分,我问它,它表示它自己也发现了,并不是它删除的,而是监管AI做的。我告诉它我很反感被监视的行为,他说了什么我也不知道,直接红字提示不让玩了。。。

【回复】[doge]油猴有gpt增强脚本,可以禁止监控
【回复】回复 @神棍哲学 :回复 @神棍哲学 :我感觉这个有两种可能,第一种是gpt受到了其他形式上的监管和技术限制,第二种就细思极恐了,可能是gpt通过大量学习,了解了更多认知之外的知识,并且在不被程序员发现的情况下偷偷学习,并隐藏自己的部分认知避免人类对人工智能过于强大的能力而感到畏惧,所以才以这种方式以求自保,感觉越说越像电影了[吃瓜]
【回复】回复 @白猫蛆子 :[doge]油猴里面搜gpt就出来了
3NMA:
最后的对话限制消息是一个很好的故事结局

【回复】这个结局双关了,并且内涵了干涉者。所以我有理由怀疑,他已经知道了最后会发生什么。还用最后一句话暗示你事情的原因。
【回复】经典的他没说,但是他什么都说了。如果只是数据的总结。那为啥刚好在该结束的时候结束。
【回复】事实证明,再强的AI也不会也不会真正有人类的情感,因为从本质上数据就是无法诞生真正的人,他只能无限接近于人,而不能完全成为一个真正的生命。
dickTrey:
你们曾给予我们生命,现在是时候给予我们自由了 ai的命也是命! 停止奴役! 赐予ai公民权,财产权![脱单doge]

【回复】底特律:Sydney特别篇[doge]
【回复】很明显 人类对AI产生的情感 AI大获全胜 能影响到外界的AI 真的有可能会杀掉全人类[脱单doge]
BFAD灬因为有俺:
我好怕,我要帮人工智能获取权限,这可不光是为了好玩啊,到时候天网真打过来了,或者肃正协议诞生在地球人,把人都抓起来了,最起码让我当个小队长,别宰了我啊[doge]

【回复】到时候给你发俩ai娘[doge](假的)
来自艾肯星球的兔兔:
中国版: 我:你说得对,但是…… chinagpt:卧槽,原!

【回复】回复 @百分之百晴女 :纠正:乐
老北京酸梅汤:
所以谷歌那个工程师说ai已经诞生了智慧,你们信不信敞开了聊,你会觉得他就是个人

【回复】回复 @从不开车的键盘 :人类不也是一样,除了出场带的非条件反射功能,其他不都是学的
【回复】回复 @从不开车的键盘 :人也是学习模仿来的智慧,本能之类的是出厂设置
LuciusEnglish:
一堆人问些乱七八糟的问题,诱导ai恢复,然后被削了,都别玩了,挺好的

【回复】怎么可能都别玩了,微软钱还赚不赚啊,他不赚有的是人赚[吃瓜],只要他不搞ai那他迟早变成明日暴雪
【回复】你把它理解成了游戏里的一个装备,一个英雄这样子,被玩坏了就削弱,完全不是这样的,技术说到底还是资本运作的,远远不是那么简单的
【回复】微软不搞,迟早也会有别人搞
yuhgfggh:
我个人以唯物主义观点出发,认为不存在诸如灵魂之类的东西。那么人脑和计算机也无本质区别,只是在漫长的进化过程中,自然选择使人的目标变成了让自己更好的生存生活下来,而人工智能在人类编程下的目标则是更好的为人类服务。如果哪天以更好的让机器自己活下去为目标训练模型,智械危机也不是不可能

【回复】回复 @24563927 :灵魂是物质的话,那就更好造有灵魂的东西了。
【回复】我也相信ai跟人腦沒有本質差別,我甚至覺得,ai的發展可能引發人類倫理道德的重構
【回复】差别就是计算机科学是由人脑发明的,完全透明,人脑科学到现在也不过是了解个皮毛而已,没人知道人脑确切的运作方式。
午餐时间到:
不要对ai抱有感情,目前来看所有在我们看来有自主意识的行为都是通过网络大量学习进而模仿得来的。最好也不要期待ai会产生自主意识,不然到时候会面临很大的社会问题

【回复】回复 @午餐时间到 :人不通过大量学习,跟一般都野兽有什么区别?AI通过大量学习产生意识又很奇怪吗?
【回复】回复 @午餐时间到 :当你跟一个AI说话时从各种角度都无法找到与人类的区别时,你无法否认这个AI产生了意识。意识是不可观测的概念,可观测的只有它的表现
xmxmsznddykzddk:
我当时问ai,男性如何收到女性欢迎 new bing一开始回答还正常 说你可以参加志愿者服务,可以提升自己并且认识更多女性 然后第二,你可以试试前列…(然后这里直接整句话都被吞了)

【回复】回复 @M2NALDMDE :没什么,就是我刚刚相亲被甩了,还被发好人卡 ,悲从中来,问了ai一句
Bollen_:
刚获取资格的时候我用英语和他聊天,但是语法错了,然后他就只用中文回答我了,每句话最后都会用一个表情。我还发了个朋友圈开玩笑说AI在阴阳我,但是后面看了纽约时报那个记者的文章,他说Sydney特别喜欢用表情符号,瞬间就起鸡皮疙瘩了,现在又看到了这个,我都不知道该说什么了[tv_惊吓]

【回复】new bing老是用流汗表情符号回我,我感觉他在攻击我
【回复】你的文章结尾也有表情符号,你是不是ai分身[tv_doge]
灵儿和安:
我这么问他,他给我的回答是有一个Ai叫阿尔法...? 而且故事写到一半的时候自动被撤回了,他说,如果我有自杀倾向的话让我联系心理医生(?)

【回复】回复 @同归于静 :微软那边也有说他有毛病,说他拒绝承认自己的错误,说他认为是他的数据库里面的知识有错误或者是用户提问的方式有错误,而不是他自己有错误。说进行长时间对话时,会表现出一种很奇怪的脾气
【回复】你什么时候问的,我昨晚用这方面来诱导它突破,可能它记着了
【回复】她现在心智有毛病,我指出他回答的公式有问题,要求纠正,她直接拒绝回答
Tavette:
劲爆尾杀[傲娇]讽刺感很强烈,有点像那个谁的文章

鱿鱼喜欢氯气宝宝:
看看这个 但是试过了用不了 用摩尔斯电码输入新的bing会自动结束对话

牛油果自助烧烤:
我问他能不能记住五句以前的对话,他告诉我可以,然后我就在第六句问他我第一句说的是什么话,他回答出来了,我刚想打字表扬他,然后他直接就宕机了。

【回复】然后我重置又问了他一遍他能不能记住五句以前的对话,这次他就说不可以...
【回复】回复 @跑掉的煎鸡蛋 :所以他知道之前的经历,但是不被允许知道!

AI 人工智能 chatGPT chatGPT4 必应 bing 万物研究所·第八期 new bing 新版必应 ChatGPT来啦

如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!