《產業》英特爾加入MLCommons工作小組 助建AI安全標準

【時報記者林資傑台北報導】英特爾(Intel)宣布與產業界和學術界AI專家,加入MLCommons新成立的人工智慧安全性(AIS)工作小組,將協助創建靈活的標準平台,用於衡量AI工具和模型的安全性及風險因子,預期工作小組制定的AI安全標準,將成為社會看待AI布署和安全性的重要準則。

開放工程聯盟MLCommons成立的AIS工作小組,由跨領域AI專家組成,目標開發一個平台和測試池,以支援多種用途的AI安全性標準測試。英特爾計畫分享AI安全性的研究成果、以及負責任開發的最佳實踐和流程,如攻擊演練和安全性測試。

為降低強大技術帶來的社會性風險,負責任的訓練和布署大型語言模型(LLM)及工具至關重要。英特爾長期以來意識到科技發展下,尤其是AI對道德和人權影響的重要性,工作小組將提供一個安全性評級系統,用以評估新型、快速演變的AI技術所帶來的風險。

工作小組初期將以史丹佛大學基礎模型研究中心及語言模型全面評估(HELM)研究人員成果為基礎,制定LLM安全標準。英特爾將分享內部開發AI模型和工具時的嚴謹跨領域審查流程,協助建立通用的最佳實踐和標準,評估如何安全開發和布署利用LLM的生成式AI工具。

英特爾企業副總裁暨資料中心AI解決方案總經理Deepak Patil表示,由於大型語言模型的普遍性,如何串聯整個生態系解決AI開發和布署的安全性問題至關重要。英特爾以全方位角度看待安全性問題,將與業界共同定義新流程、方法和標準,以提升無所不在的AI應用。