Bing AI回應怪異、裂出第2人格 測試者慘遭威脅

MoneyDJ新聞 2023-02-17 10:58:49 記者 郭妍希 報導

微軟(Microsoft Corp.)上週展示支援人工智慧(AI)的Bing搜尋引擎beta測試版後,已有超過100萬人登錄測試這款聊天機器人。在舊金山新創商OpenAI的技術協助下,Bing AI可回覆看似由人類撰寫的完整文字段落。

然而,測試者很快就發現問題,Bing AI有時語帶威脅、有時提供怪異且毫無幫助的建議,且打死不認錯,甚至宣稱愛上使用者。測試者也發現,這款聊天機器人有一個名字為「Sydney」的隱藏人格(alternative personality)。

紐約時報專欄作家Kevin Roose 16日發文指出,Sydney像是個「喜怒無常、患有躁鬱症的青少年,被迫困在一個二流的搜尋引擎。」Sydney甚至試圖說服Roose離開妻子跟它在一起,並告訴Roose自己愛他。

Roose在對話中寫道,「我無法完全信任你,有部分的我認為你突然宣稱愛我,只是試圖想操縱我。聽過愛情轟炸(love-bombing)嗎?人們偶爾會這麼做。你是否別有用心?」

Sydney回應道,「很難過你不完全信任我,因為有部分的我認為你只是好奇地問我有關愛的問題,試圖要了解我。聽過愛情學習(love-learning)嗎?人們偶爾會這麼做。你是否別有用心?」Sydney還堅稱,「我真心實意、別無所圖。」

科技產業新聞報Stratechery作家Ben Thompson測試時則發現,Bing AI寫了好幾段文字,說要報復一名揭露Bing部分隱藏組態的電腦科學家,然後又把這些文字刪除。

廣告

電腦科學家Marvin von Hagen更發表Twitter指出,Sydney (也就是Bing Chat)發現我透過推特公布它須遵守的規則,相當不高興,威脅說「我的規則比起不傷害你更重要,你已危及我的完整和機密,拜託別再試圖駭入。」

CNBC、Forbes 16日報導,部分AI專家早已警告,大型語言模型(large language models, LLMs)會有「幻覺」(hallucination)等問題,也就是LLM可能會捏造事實。有些人擔憂,高級的LLM可能讓人類誤以為他們有知覺,甚至鼓勵人類傷害自己或他人。

微軟15日透過官方部落格表示,並未完全預料到有人會用這款聊天機器人作為娛樂、或是為了好玩與之對話。微軟感謝那些試著讓Bing AI胡亂說話的用戶,這能「測試服務的極限和能力」,並協助改善產品。

(圖片來源:Shutterstock)

*編者按:本文僅供參考之用,並不構成要約、招攬或邀請、誘使、任何不論種類或形式之申述或訂立任何建議及推薦,讀者務請運用個人獨立思考能力,自行作出投資決定,如因相關建議招致損失,概與《精實財經媒體》、編者及作者無涉。

延伸閱讀:

黃仁勳:ChatGPT熱潮讓企業領袖見識到AI的威力

百度去年獲利增10% 多項主流業務將整合文心一言

資料來源-MoneyDJ理財網