各國、各地區(qū)政府和各大國際機構(gòu)紛紛出臺措施,加強對AI技術(shù)帶來的生存風(fēng)險的監(jiān)管,但各方的監(jiān)管力度有所不同
文 | 《財經(jīng)》特約撰稿人 魏城 發(fā)自倫敦
編輯 | 江瑋
英國和美國近日簽署了一項具有里程碑意義的人工智能(AI)安全協(xié)議,成為首批在測試和評估AI新模型風(fēng)險方面展開合作的國家。
這是世界上第一個關(guān)于人工智能安全的雙邊協(xié)議。今年4月1日,英國科學(xué)大臣米歇爾·唐蘭和美國商務(wù)部長吉娜·雷蒙多在美國華盛頓特區(qū)簽署了這項協(xié)議。
此外,在今年4月5日舉行的歐盟-美國貿(mào)易與技術(shù)理事會(TTC)會議上,歐盟和美國也宣布在人工智能安全、標(biāo)準(zhǔn)和研發(fā)等領(lǐng)域開展合作。
就在英美簽署AI安全協(xié)議的同一天,全球最知名的AI公司,即開發(fā)出AI聊天機器人程序ChatGPT的OpenAI宣布,從4月1日起放開所有限制,用戶無需注冊即可使用ChatGPT。
OpenAI稱,目前每周使用ChatGPT的用戶超過1億人,遍及全球185個國家。流量跟蹤器SimilarWeb估計,今年2月ChatGPT的訪問量為16億,雖然比2023年5月的高點(18億)略有下降,但它仍然是全球訪問量最大的AI聊天機器人。
OpenAI放開所有限制的目的是什么?根據(jù)該公司自己的說法,是讓這些用戶“使用ChatGPT,學(xué)習(xí)新知識,尋找創(chuàng)意靈感,并獲得問題的答案”。
聽上去,像是對所有監(jiān)管機構(gòu)的挑戰(zhàn)。
AI是把雙刃劍
美國投資管理公司方舟投資(ARK Invest)最近發(fā)布了一份報告,預(yù)計到2030年,人工智能將為全球GDP(國內(nèi)生產(chǎn)總值)增加40萬億美元,它將“轉(zhuǎn)型每一個行業(yè),影響每一家企業(yè),并成為每一個創(chuàng)新平臺的催化劑”。
2022年11月,OpenAI推出了火遍天下的ChatGPT,從此催化了這場AI革命。ChatGPT展示了“生成式人工智能”(generative AI)在處理和生成大規(guī)模數(shù)據(jù)方面的強大而又可怕的能力,預(yù)見到這一技術(shù)的商業(yè)潛力,全球領(lǐng)先的科技公司們紛紛向消費者推出了自己的生成式人工智能工具,希望在這場激烈競爭中搶先占位。
谷歌母公司Alphabet的首席執(zhí)行官桑德爾·皮查伊如此描述人工智能的影響:“它比火或電更加影響深遠!
不過,AI也是一把雙刃劍,它在帶來GDP增加、生產(chǎn)率提升等福音的同時,也帶來許多負面效應(yīng)和安全隱患。
那么,人工智能可能帶來哪些負面影響呢?
首先,是大規(guī)模的失業(yè)。這大概也是大多數(shù)人最擔(dān)憂的問題。
自AI技術(shù)誕生以來,關(guān)于AI搶走人類飯碗的討論特別多。但俗話說,舊的不去,新的不來,AI也能創(chuàng)造新的就業(yè)崗位。
今年3月底,高盛發(fā)布了一份研究報告,聲稱當(dāng)前美國大約有三分之二的工作在一定程度上受到AI自動化的威脅,生成式AI很有可能取代四分之一的崗位。在全球范圍內(nèi),生成式AI可能讓3億個全職工作崗位面臨“自動化”。
但這份報告也指出,AI能夠通過創(chuàng)造新的工作崗位,填補它替代掉的崗位,這在很大程度上將是長期就業(yè)增長的主要來源。例如,生成式AI將在未來10年內(nèi)使美國的年勞動生產(chǎn)力增長近1.5個百分點,并最終可能使全球GDP年增長率提高7%。
其次,生成式AI可能成為“謠言生成器”,大規(guī)模制造和傳播假新聞、假信息和假照片。
再次,AI將會加劇社會不公。如果人工智能算法包含偏見,就有可能對特定群體造成不公平的影響。例如,在招聘過程中,人工智能可能會傾向于選擇某種類型的員工,而排除其他類型的員工。
最后,有人甚至把AI的出現(xiàn),類比為核武器的誕生,認為AI是人類自己創(chuàng)造的“怪物”,可能無法控制,最終被它毀滅。
而最后這種看似匪夷所思的可怕前景,似乎并不僅僅是科幻作家們庸人自擾、杞人憂天式的幻想。
去年5月,人工智能行業(yè)的數(shù)百名領(lǐng)軍人物聯(lián)名發(fā)表了一封公開信,描述了AI技術(shù)對人類生存構(gòu)成的威脅。這封公開信把人工智能與可能滅絕人類的大流行病和核戰(zhàn)爭相提并論。公開信說:“減輕人工智能滅絕人類的風(fēng)險,應(yīng)該是全球性的當(dāng)務(wù)之急。”
這一提及人類滅絕前景的句子,成為當(dāng)時全球各大媒體相關(guān)報道的大幅標(biāo)題。
在這封公開信上簽名的,并不是科幻作家和自媒體網(wǎng)紅,而是業(yè)內(nèi)大佬,是包括OpenAI、谷歌DeepMind、微軟、OpenAI前雇員創(chuàng)立的Anthropic在內(nèi)的全球最著名AI公司的數(shù)百名高管和科學(xué)家。
各方監(jiān)管或緊或松
既然完全不受控制的人工智能并非人類的福音,而是人類的喪鐘,那么,對它的監(jiān)管就成為全世界所面對的一件刻不容緩的大事。
去年 11 月,英國主辦了AI安全峰會。在那次峰會上,包括美國、英國、中國、歐盟在內(nèi)的28個國家和地區(qū)共同簽署了《布萊切利宣言》,呼吁和倡導(dǎo)以人為本,希望AI科研機構(gòu)和相關(guān)企業(yè)等以負責(zé)任的方式,設(shè)計、開發(fā)和使用AI。
那次峰會之后,各國、各地區(qū)政府和各大國際機構(gòu)紛紛出臺措施,加強對AI技術(shù)帶來的生存風(fēng)險的監(jiān)管,但各方的監(jiān)管力度有所不同。
聯(lián)合國大會在今年3月21日通過了首個關(guān)于人工智能的全球決議,呼吁推動開發(fā)“安全、可靠和值得信賴的”人工智能系統(tǒng),以促進可持續(xù)發(fā)展。
去年8月15日,中國的《生成式人工智能服務(wù)管理暫行辦法》正式施行。該法被認為是全球第一部生成式 AI 立法。該《暫行辦法》的監(jiān)管對象是創(chuàng)建圖像、視頻、文本和其他內(nèi)容的生成式AI服務(wù),如ChatGPT,強調(diào)開發(fā)人員對他們創(chuàng)建的AI模型所輸出的內(nèi)容“負有責(zé)任”。
早在2021年4月,歐盟就發(fā)布了《人工智能法案》提案,該提案在今年3月13日被歐洲議會正式通過,即將成為法律,被輿論普遍視為全球迄今為止最全面的AI立法。歐盟的這部法案要求科技公司承擔(dān)起確保其AI模型不違反相關(guān)規(guī)則的責(zé)任。
相比之下,美國的動作則比較遲緩。與中國和歐盟不同,美國至今還沒有專門針對AI的聯(lián)邦法規(guī),但特定行業(yè)的AI應(yīng)用受到該行業(yè)現(xiàn)行法律法規(guī)的約束,例如,美國食品和藥物管理局監(jiān)管AI醫(yī)療,聯(lián)邦貿(mào)易委員會監(jiān)管AI驅(qū)動的產(chǎn)品和服務(wù),交通部監(jiān)管無人駕駛汽車等。
美國更傾向于讓科技行業(yè)自我監(jiān)管。去年7月,微軟、OpenAI、谷歌、亞馬遜和Meta(以前稱為臉書,即Facebook)在白宮簽署了一系列自愿的承諾,包括在向公眾發(fā)布人工智能系統(tǒng)之前對其進行內(nèi)部測試和外部測試、幫助人們識別人工智能生成的內(nèi)容、提高AI系統(tǒng)功能和限制的透明度等等。
美國國際戰(zhàn)略研究中心(CSIS)戰(zhàn)略技術(shù)項目高級顧問比爾·懷曼認為:“美國不太可能在未來幾年通過一項廣泛的全國性的人工智能立法。成功的相關(guān)立法可能集中在爭議較少和有針對性的措施上,比如對人工智能研究的資助和人工智能兒童安全!
紐約大學(xué)媒體技術(shù)教授W·羅素·紐曼指出:“美國式的監(jiān)管通常沒有歐洲和亞洲那么嚴(yán)格。長期以來,傾向于自由放任或最低限度監(jiān)管是美國制度的特點!
英國的情況既不同于歐盟,也不同于美國。英國目前在包括AI安全研究在內(nèi)的一些領(lǐng)域內(nèi)處于領(lǐng)先地位,但英國保守黨政府并不打算制定人工智能方面的立法,而試圖利用它在歐盟之外的獨特地位,設(shè)計一套相對靈活的AI監(jiān)管制度,即監(jiān)管行業(yè)的AI應(yīng)用,而非監(jiān)管AI軟件。
不過,不管是美國的做法,還是英國的做法,都比歐盟更為“親科技行業(yè)”,因為歐盟的《人工智能法》受到了科技行業(yè)的嚴(yán)厲批評。
雖然歐盟和美國也許諾加強在AI安全方面的合作,但英美兩國4月1日達成的人工智能安全協(xié)議,是迄今為止全球在這個領(lǐng)域的第一個雙邊協(xié)議。目前看來,該協(xié)議似乎更有利于美國。
盡管美國財大氣粗,盡管全球幾乎所有領(lǐng)先的人工智能公司和研究力量都集中在美國,但即使是美國媒體也承認,在人工智能安全研究工作方面,英國遠遠走在了美國前面。例如,在英國主辦了AI安全峰會之后,去年11月,英國成立了人工智能安全研究所,并已展開相關(guān)工作;雖然美國也在不久后成立了自己的人工智能安全研究所,但這一研究所尚未開展工作,經(jīng)費也比英國所少:英國所獲得了政府許諾的1.25億美元研究經(jīng)費,而美國所目前只獲得了政府許諾的0.1億美元研究經(jīng)費,是英國所經(jīng)費的8%。
英美4月1日簽署的AI安全協(xié)議,將使這兩家機構(gòu)能夠共同研究如何獨立評估OpenAI、谷歌等公司建立的私營人工智能模型,并通過借調(diào)雙方的研究人員來交流相關(guān)的專業(yè)知識。
人工智能會不會“惡賓殺主”?
盡管某些自媒體關(guān)于人工智能最終可能反客為主,甚至惡賓殺主的說法有些過于聳人聽聞,但人工智能究竟會不會摧毀發(fā)明、創(chuàng)造、設(shè)計和控制它的人類呢?
我有些好奇:人工智能工具自己怎么回答這個問題?
我先向那個紅得發(fā)紫的AI聊天機器人——ChatGPT提出了這個問題。提問是英文的,回答也是英文的,我又用谷歌開發(fā)的人工智能翻譯軟件,把ChatGPT的英文回答翻譯成了中文。
回答是這樣的:“不受控制的人工智能導(dǎo)致人類毀滅的想法是科幻小說中的常見主題,但重要的是要認識到它是推測性的。人工智能是否對人類構(gòu)成威脅取決于多種因素,包括它的開發(fā)、監(jiān)管和使用方式。負責(zé)任的開發(fā)、強有力的安全措施和道德考慮可以減輕與人工智能相關(guān)的潛在風(fēng)險。對于政策制定者、研究人員和整個社會來說,參與討論并建立框架至關(guān)重要,以確保人工智能的開發(fā)和部署能夠造福人類,同時最大限度地減少潛在風(fēng)險!
中規(guī)中矩,滴水不漏,是不是?語氣、措辭好像聯(lián)合國秘書長的發(fā)言人。
微軟也有自己的AI聊天機器人——Copilot,它能夠讀懂中文,并用中文回答。我的中文問題是:“人工智能會不會摧毀人類?”
Copilot的中文回答是:“關(guān)于人工智能是否會毀滅人類,這是一個復(fù)雜的話題,涉及倫理、技術(shù)發(fā)展和未來預(yù)測。目前,人工智能是由人類設(shè)計和控制的,它的主要目的是幫助人類解決問題和提高效率。然而,人工智能的安全性和對社會的影響是需要嚴(yán)格監(jiān)管的?茖W(xué)家和工程師正在積極研究如何確保人工智能的發(fā)展能夠造福人類,防止?jié)撛诘呢撁嬗绊。因此,人工智能毀滅人類的可能性非常低,而且這樣的情況可以通過負責(zé)任的管理和規(guī)范來避免!
聽上去,口吻更像是微軟公司出來“滅火”的公關(guān)部門負責(zé)人,面面俱到,挑不出什么大的毛病。
最后,我必須聲明一下,此文除了上述兩款A(yù)I工具的回答之外,沒有使用任何人工智能應(yīng)用程序。