自我設限?為什麼科技巨頭反而希望政府監管人工智能

距離ChatGPT的推出已經接近一年了,這款產品引發了革命性的人工智能熱潮。

儘管現實和其他不便因素有時會使熱度降低,但包括Alphabet(GOOG, GOOGL)CEOSundar Pichai、微軟(MSFT)總裁Brad Smith和OpenAI的Sam Altman在內的企業領袖們都支持人工智能的監管,而這在傳統上通常是新技術最大的阻力之一。

那麼,為什麼人工智能的領袖們支持監管呢?實際上有幾個原因。從根本上說,這是因為一套經過深思熟慮的規則將確保人工智能公司投資於它們知道未來不會被監管淘汰的產品。

監管還意味著公司將擁有統一的規則,而不是在不同州份之間存在著各種不同的人工智能的法律大雜燴。

布魯金斯學會科技創新中心的高級研究員Darrell West解釋道:「對企業來說,最壞的情況就是在州一級存在著50套不同的規則。」

OpenAI CEO Sam Altman testifies before a Senate Judiciary Privacy, Technology & the Law Subcommittee hearing titled 'Oversight of A.I.: Rules for Artificial Intelligence' on Capitol Hill in Washington, U.S., May 16, 2023. REUTERS/Elizabeth Frantz
OpenAI CEO Sam Altman testifies before a Senate Judiciary Privacy, Technology & the Law Subcommittee hearing titled 'Oversight of A.I.: Rules for Artificial Intelligence' in May 2023. (Image: Reuters/Elizabeth Frantz) (Elizabeth Frantz / reuters)

當然,通過規定,公司可以更積極地參與制定未來的人工智能規則。但在短期內讓某種形式的立法通過對華盛頓來說可能是一個難以完成的任務。

「他們確實希望參與其中,以確保從他們的角度來看,是合理且具成本效益的。」市場研究公司Gartner的資深副總裁和分析師Avivah Litan解釋道。 「他們希望避免任何對他們施加沉重壓力的法規,因為那將使他們花費巨額資金以確保合規。」

監管制度如何幫助企業和消費者?

對於科技公司來說,呼籲對人工智能進行監管可能聽起來有些違背直覺,但對於那些投資數百萬、甚至數十億美元進行新技術開發的企業來說,具體的法律可以確保他們的投資不會在未來被禁止。

廣告

麻省理工學院工程學院的傑出教授Regina Barzilay表示「你可能不喜歡這種監管,但至少你知道究竟會發生什麼,以及如何優化你的流程,使其符合監管要求。」

Alphabet/Google CEO Sundar Pichai, center, departs following a closed-door gathering of leading tech CEOs to discuss the priorities and risks surrounding artificial intelligence and how it should be regulated, at Capitol Hill in Washington, Wednesday, Sept. 13, 2023. (AP Photo/Jacquelyn Martin)
Alphabet/Google CEO Sundar Pichai, center, departs following a closed-door gathering of leading tech CEOs to discuss the priorities and risks surrounding artificial intelligence and how it should be regulated, at Capitol Hill in Washington, Wednesday, Sept. 13, 2023. (AP Photo/Jacquelyn Martin) (ASSOCIATED PRESS)

監管不僅使公司更清楚地了解如何投資於人工智能,也給他們的客戶提供了更大的安心,讓他們知道使用這些產品是安全的。

如果沒有監管,人工智能的客戶基本上是在茫然的狀況下使用技術,只能根據他們購買產品的公司提供的保證,判斷這項技術是否安全。

在消費者方面,人工智能監管可以幫助打擊基於人工智能的電話詐騙,防止金融服務中存在的歧視,並消除人工智能在司法體系、房地產市場等方面的偏見風險。

Litan表示:「存在著準確性風險、知識產權風險、偏見和歧視風險、消費者保護風險、可持續性風險,除了製造這些模型的公司,沒有其他人能夠控制這些風險。如果它們沒有受到監管,它們將不會有動機去做這些事情,因為這在許多情況下並不一定會提高它們的收入。」

先進國家的例子

人工智能監管並不是不可能的任務。在美國之外,歐洲聯盟已經在制定人工智能法規方面取得了很好的進展。他們最初於2021年4月提出了人工智能規則,主要關注了與該技術相關的不同風險。與技術相關的風險越高,就會受到越多的監管。

從一開始,歐盟提出的規則禁止了許多形式的人工智能,包括用於基於種族、性別和宗教等特徵對人進行分類的人工智能,預測性的警察工作,以及從網絡或閉路電視中提取人物圖像的系統。

高風險應用需要在上市前由監管機構進行評估,其中包括那些可能影響人們健康和安全的應用,以及被超過4500萬用戶使用的社交媒體平台用於推薦內容的應用。驅動生成式人工智能系統的基礎模型還需要在歐盟的數據庫中進行註冊。其他形式的人工智能需要滿足幫助用戶了解其能力的透明度要求。

中國也制定了自己的人工智能法規。今年8月,中國完成了一項指引,要求國內的人工智能平台公司將其算法提交給適當的政府機構進行審查。然而,那些面向中國以外市場的平台不需要遵守相同的規則。

華盛頓的立法者和拜登政府已經開始與主要的人工智能公司進行會議。預計拜登還將在未來幾天內發布一項關於人工智能的行政命令。但如果他們希望跟上創新的步伐,他們就必須加快速度。

(本文翻譯自Yahoo Finance)