AI聊天機器人洩密風險高?谷歌也警告員工須小心

MoneyDJ新聞 2023-06-16 13:38:07 記者 郭妍希 報導

谷歌(Google)母公司Alphabet Inc.雖在全球大力推廣人工智慧(AI),但傳出該公司私底下卻警告員工須小心使用AI聊天機器人,包括旗下的「Bard」。

路透社15日引述為具名未具名消息人士報導,Alphabet已警告員工不可在AI聊天機器人輸入機密資料,以免違反公司保護資訊安全的政策。Alphabet證實確有其事。

據報導,人類檢查員可能會讀取聊天內容,且AI會複製訓練期間吸收的資料,造成資料外洩風險。

事實上,包括三星電子(Samsung)、亞馬遜(Amazon.com)、德意志銀行(Deutsche Bank)等企業都決定對AI聊天機器人設防,以免商業機密外洩。

值得注意的是,根據報導,Fishbowl調查近12,000名受訪者後發現,截至今(2023)年1月份,約43%的專業人士會使用ChatGPT或其他AI工具,且上司經常不知情。AI聊天機器人可協助草擬電子郵件、文件甚至軟體本身,大幅加快人類員工執行任務的速度。不過,這些內容可能涵蓋錯誤資訊、敏感資料,甚至剽竊《哈利波特》書中段落。

蘋果(Apple Inc.)執行長庫克(Tim Cook)最近透露,已開始使用AI聊天機器人「ChatGPT」,蘋果正在仔細檢視這項技術。他認為,ChatGPT及Bard這些大型語言模型(LLMs)雖蘊藏極大潛力,卻可能有偏見、資訊錯誤甚至更糟的問題。

廣告

華爾街日報5月18日才剛引述公司內部文件報導,擔憂內部機密外洩,蘋果已禁止部分員工使用ChatGPT及其他外部AI工具,同時加緊腳步開發自家類似技術。

報導指出,蘋果除了限制員工使用ChatGPT等AI軟體外,也要求員工不得使用微軟(Microsoft Corp.)旗下GitHub的Copilot自動軟體編碼工具。報導引述消息人士稱,蘋果已在研發自家的大型語言模型(LLM)。

(圖片來源:Shutterstock)

*編者按:本文僅供參考之用,並不構成要約、招攬或邀請、誘使、任何不論種類或形式之申述或訂立任何建議及推薦,讀者務請運用個人獨立思考能力,自行作出投資決定,如因相關建議招致損失,概與《精實財經媒體》、編者及作者無涉。

延伸閱讀:

慧與宣佈推出大型語言模型專用AI雲端運算服務

研究:7成IT業資深主管擬於18個月內導入生成式AI

資料來源-MoneyDJ理財網