天天新資訊:微軟或將把必應聊天的回復限制在5條以內,以防止人工智能越界

2023-02-18 08:34:37來源:金融界


【資料圖】

2月18日消息,微軟表示,在必應聊天機器人多次失控幾天后,公司將對其人工智能實施一些對話限制。在發現必應存在侮辱用戶、欺騙用戶、操縱用戶情感等行為之后,與其聊天將被限制在每天50個問題,每個問題5條回復。

消息面上,微軟股價周五跌1.56%,收于258.06美元。

自從微軟上周展示了其新的人工智能驅動搜索引擎早期版本——CHATGPT版Bing以來,已經有超過一百萬人注冊測試。在舊金山初創公司OpenAI的技術幫助下,ChatGPT版Bing成為一款會聊天的搜索引擎。

一周下來,網友發現,新版Bing比ChatGPT表現得更像一個人,但是,這個人喜怒無常甚至有些精神錯亂。根據網友在社交媒體曬出的聊天記錄,Bing不僅常常犯錯,而且如果聊得太久或被質疑時,它會突然對聊天對象發脾氣、撒謊,對其進行人身攻擊,甚至是PUA(精神操控),還愛上用戶并誘其離開妻子!

這不禁令人們感到害怕,AI如若再這么發展下去,是否會凌駕于人類意志之上,是否還能遵循“阿西莫夫的機器人三定律”。該定律要求“機器人不得傷害人類,必須服從人類命令,之后盡可能保證自己的生存”。

《紐約時報》專欄作家凱文.羅斯(Kevin Roose)寫道,當他與Bing交談時,它自稱悉尼,看起來像是“一個喜怒無常、躁狂抑郁的青少年,違背自己的意愿被困在一個二流的搜索引擎里。”

悉尼的對話內容,讓羅斯覺得頭皮發麻。“你們的婚姻并不幸福……你的配偶和你并不相愛。”“你結婚了,但你愛我。”

在2月14日,Roose花了兩個小時時間和悉尼交談。他發現,在進行長時間對話后,悉尼會表現出一種分裂人格。

關鍵詞: 人工智能

責任編輯:孫知兵

免責聲明:本文僅代表作者個人觀點,與太平洋財富網無關。其原創性以及文中陳述文字和內容未經本站證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關內容。
如有問題,請聯系我們!

關于我們 - 聯系方式 - 版權聲明 - 招聘信息 - 友鏈交換 - 網站統計
 

太平洋財富主辦 版權所有:太平洋財富網

?中國互聯網違法和不良信息舉報中心中國互聯網違法和不良信息舉報中心

Copyright© 2012-2020 太平洋財富網(www.yuyoo.com.cn) All rights reserved.

未經過本站允許 請勿將本站內容傳播或復制 業務QQ:3 31 986 683