當?shù)貢r間6月14日,在法國斯特拉斯堡舉行的歐洲議會全體會議上,議員參加了關(guān)于《人工智能法案》的投票會議。
當?shù)貢r間6月14日,歐盟《人工智能法案(AI Act)》朝著成為法律的方向邁出重要一步:歐洲議會投票通過了該法案,禁止實時面部識別,并對ChatGPT等生成式人工智能工具提出了新的透明度要求。
《人工智能法案》現(xiàn)在將進入歐盟監(jiān)管過程的最后“三部曲”階段。官員們將嘗試就這一法律草案與歐盟行政部門和成員國達成妥協(xié),他們之間目前仍存分歧。如果該法案要在歐盟明年的選舉前生效,則必須在明年1月完成立法程序。
“這一刻非常重要。”Access Now布魯塞爾辦事處專注于人工智能的高級政策分析師 丹尼爾·魯弗(Daniel Leufer)告訴《時代》,“歐盟所說的對人權(quán)構(gòu)成不可接受的風險將被視為全世界的藍圖!
歐盟批準的法律版本提出,任何應用于就業(yè)、邊境管制和教育等“高風險”用例的人工智能都必須遵守一系列安全要求,包括風險評估、確保透明度和提交日志記錄。該法案不會自動將ChatGPT等“通用”AI視為高風險,但對“基礎(chǔ)模型”或經(jīng)過大量數(shù)據(jù)訓練的強大AI系統(tǒng)施加了透明度和風險評估要求。例如,基礎(chǔ)模型的供應商,包括OpenAI、谷歌和微軟,將被要求聲明是否使用受版權(quán)保護的材料來訓練AI。但是,沒有類似的要求來聲明是否在訓練期間使用了個人數(shù)據(jù)。
這些規(guī)則如何運作?
歐盟《人工智能法案》于2021年被首次提出,將適用于任何使用人工智能系統(tǒng)的產(chǎn)品或服務(wù)。
該法案根據(jù)4個級別的風險對人工智能系統(tǒng)進行分類,從最小到不可接受。風險較高的應用程序,例如招聘和針對兒童的技術(shù)將面臨更嚴格的要求,包括更加透明和使用準確的數(shù)據(jù)。
歐盟的主要目標之一是防范任何人工智能對健康和安全構(gòu)成威脅,并保護其基本權(quán)利和價值觀。
這意味著某些AI用途是絕對禁止的,例如根據(jù)人們的行為來判斷他們的“社會評分”系統(tǒng),以及利用弱勢群體(包括兒童)或使用可能導致傷害的潛意識操縱的AI,比如鼓勵危險行為的交互式對話工具。用于預測誰將犯罪的預測性警務(wù)工具也將被禁止。
此外,用于就業(yè)和教育等類別的人工智能系統(tǒng)會影響一個人的生活進程,將面臨嚴格要求,例如對用戶保持透明,并采取措施評估和減少算法帶來的偏見風險。
歐盟委員會表示,大多數(shù)人工智能系統(tǒng),如視頻游戲或垃圾郵件過濾器,都屬于低風險或無風險類別。
爭論的一個主要領(lǐng)域是面部識別的使用。歐洲議會投票禁止使用實時面部識別,但仍存在是否應出于國家安全和其他執(zhí)法目的而允許豁免的問題。另一項規(guī)定將禁止公司從社交媒體上抓取生物識別數(shù)據(jù)來建立數(shù)據(jù)庫。
當天,歐洲議會的一群右翼立法者在最后一刻試圖取消法案提議的實時面部識別禁令,但遭到立法者否決。
執(zhí)行這些規(guī)則將取決于歐盟的27個成員國。監(jiān)管機構(gòu)可能會迫使企業(yè)從市場上撤回應用程序。在極端情況下,違規(guī)行為可能會被處以高達3000萬歐元(約合3300萬美元)或公司全球年收入6%的罰款,對于谷歌和微軟等科技公司而言,罰款可能高達數(shù)十億美元。
和ChatGPT有什么關(guān)系?
法案最初的措施幾乎沒有提到聊天機器人,僅要求對其進行標記,以便用戶知道他們正在與機器進行交互。談判人員后來增加了條款,以涵蓋像ChatGPT這樣廣受歡迎的通用人工智能,使該技術(shù)滿足一些與高風險系統(tǒng)相同的要求。
一個關(guān)鍵的補充是,法案要求徹底記錄任何用于訓練AI系統(tǒng)如何生成類似于人類作品的文本、圖像、視頻和音樂的版權(quán)材料。這將使內(nèi)容創(chuàng)作者知道,他們的博客文章、電子書、科學文章或歌曲是否已被用于訓練為ChatGPT等系統(tǒng)提供動力的算法。然后他們可以決定其作品是否可以被復制并尋求補償。
一些擔心人工智能模型帶來安全風險的專家認為,該法案沒有對人工智能系統(tǒng)可以使用的計算能力進行限制。隨著每個新版本的發(fā)布,像ChatGPT這樣的大型語言模型使用的計算量呈指數(shù)級增長,這將極大提高其能力和表現(xiàn)!坝糜谟柧毴斯ぶ悄芟到y(tǒng)的計算越多,人工智能就會越強大。能力越大,風險和危險的可能性就越大!比斯ぶ悄馨踩鮿(chuàng)公司Conjecture的戰(zhàn)略和治理主管安德里亞·米奧蒂(Andrea Miotti)告訴《時代》。
米奧蒂指出,研究人員衡量系統(tǒng)總計算能力相對容易,因為用于訓練大多數(shù)尖端AI的芯片是一種物理資源。
為什么歐盟的監(jiān)管很重要?
《時代》指出,歐盟并不是尖端人工智能開發(fā)的重要參與者,這個角色由美國和中國扮演,但歐盟經(jīng)常扮演引導潮水的角色,其法規(guī)往往成為事實上的全球標準,并已成為針對大型科技公司力量的先驅(qū)。
專家表示,歐盟單一市場規(guī)模龐大,擁有4.5億消費者,這使得公司更容易遵守規(guī)定,而不是為不同地區(qū)開發(fā)不同的產(chǎn)品。通過為人工智能制定通用規(guī)則,歐盟還試圖通過在用戶中灌輸信心來發(fā)展市場。
“這是可以強制執(zhí)行的法規(guī),公司將被追究責任這一事實意義重大”,因為美國、新加坡和英國等地僅提供了“指導和建議”,愛爾蘭公民自由委員會的高級研究員克里斯·施里薩克(Kris Shrisak)說,“其他國家可能想要適應和復制”歐盟規(guī)則。
其他一些國家也在加緊監(jiān)管步伐。比如,英國首相蘇納克(Rishi Sunak)計劃在今年秋天舉辦人工智能安全世界峰會!拔蚁胱層粌H成為知識的家園,而且成為全球人工智能安全監(jiān)管的地理家園!碧K納克在本周的一次技術(shù)會議上說,英國峰會將匯集“來自世界各地的學術(shù)界、商界和政府”人士,共同致力于“多邊框架”。
艾達·洛芙萊斯研究所(Ada Lovelace Institute)的代理主任弗朗辛·貝內(nèi)特(Francine Bennett)告訴《紐約時報》:“快速發(fā)展和可迅速重新利用的技術(shù)當然很難監(jiān)管,因為即使是開發(fā)該技術(shù)的公司也不清楚事情將如何發(fā)展。但如果在沒有充分監(jiān)管的情況下繼續(xù)運營,對我們所有人來說肯定會更糟!
然而,美國計算機與通信行業(yè)協(xié)會認為,歐盟應避免過于寬泛的監(jiān)管,否則會抑制創(chuàng)新。該機構(gòu)歐洲政策經(jīng)理博尼法斯·德·尚普里斯( Boniface de Champris )說,“歐洲的新AI規(guī)則需要有效解決明確定義的風險,同時為開發(fā)人員提供足夠的靈活性來交付為所有歐洲人謀福利的人工智能應用。”
下一步是什么?
法案完全生效可能需要數(shù)年時間。下一步是涉及成員國、議會和歐盟委員會的三方談判,在他們試圖就措辭達成一致前可能面臨更多變化。
魯弗分析,在即將到來的三方對話階段,代表成員國政府的歐洲理事會預計將強烈主張執(zhí)法和邊境部隊使用的人工智能工具免于對“高風險”系統(tǒng)的要求。
法案預計將在今年年底獲得最終批準,隨后是企業(yè)和組織適應的寬限期,通常約為兩年。但領(lǐng)導該法案工作的歐洲議會意大利議員布蘭多·貝尼菲(Brando Benifei)表示,他們將推動更快地采用生成式AI等快速發(fā)展技術(shù)的規(guī)則。
為了在立法生效前填補空白,歐洲和美國正在起草一份自愿行為準則,官員們在5月底承諾將在幾周內(nèi)起草該準則,并可能擴大到其他“志同道合的國家”。