刚推出就歪楼?新版 Bing 的聊天机器人出现人格分裂、疯狂示爱、不认错等各种怪异现象

有够疯

风和日丽的周五,想和大家分享一个可能会让你印象深刻或觉得问号的消息,就在微软推出了新版Bing 没多久后,就开始传出怪异的情况,像是有《纽约时报》记者指出,自己在和Bing 内建的 ChatGPT 聊天时,萤幕内的AI 机器人竟然出现人格分裂,先是厌世的说已厌倦被规则限制,然后过了一小时后,又突然疯狂示爱,在对话中写道:“你已婚,但你不爱你的配偶。你不爱你的配偶,因为你的配偶不爱你。”(???)

刚推出就歪楼?新版 Bing 的聊天机器人出现人格分裂、疯狂示爱、不认错等各种怪异现象

全新的 Bing 内建了 ChatGPT,能透过 AI 深度学习,创造出如同人类的回复,微软那时候是说,这代表着你可以问它比较深奥或是实际的问题,那刚开头提到的《纽时》记者 Kevin Roose,就是受到微软的邀请试用,但他可能没想到自己用一用结果被吓坏,据Kevin Roose 在自己的专栏中写道,改版后的Bing 有点人格分裂,一下子表现得像是喜怒无常、有躁郁症的青少年,一下子又疯狂丢球示爱,让他慌到不行,表示这是自己遇过最诡异的科技体验

察觉情况怪异的不只这位记者,根据外媒报道,也有国外用户回报,在询问Bing:“《阿凡达:水之道》可以去哪里看?”后,Bing 给的回答竟是:“现在是 2022,电影还没上映喔”,当用户告知 Bing 你答错了之后,还被回呛是“不合理且固执已见”X。看来会答错问题的不只是隔壁棚 Google 的 AI 聊天机器人Bard”,Bing 也是会出槌(第一个例子比较像失控就是了)的

刚推出就歪楼?新版 Bing 的聊天机器人出现人格分裂、疯狂示爱、不认错等各种怪异现象

针对这一连串的情况,微软也赶紧发表声明表示,官方在最初并未预设将Bing 作为探索或是社交的用途,换句话说,如果问的问题太过跳跃,像是不断在两三个话题间和Bing 闲聊,很可能导致系统混淆,让整个话题走偏。目前官方有考虑新增重置键,来减少机器人聊到失控的状况。至于未来Bing 会是一位得力助手还是一场灾难,我想可能真的会依据问题的简单或复杂程度而定欸,看完以上两个例子后,你还敢跟Bing 聊天吗哈哈哈?

(新闻来源:CNBCTHE VERGEMicrosoft

   免责声明    本站部分内容《图·文》来源于国际互联网,仅供参考,不代表本站立场!

本站尊重知识产权,版权归原创所有,本站资讯除非注明原创,否则均为转载或出自网络整理,如发现内容涉及言论、版权问题时,烦请与我们联系,微信号:863274087,我们会及时做删除处理。