新浪科技訊 北京時間10月25日晚間消息,據(jù)報道,微軟(340.7701, 10.24, 3.10%)、谷歌(126.6, -13.52, -9.65%)、人工智能初創(chuàng)企業(yè)OpenAI和Anthropic正加緊推進人工智能(AI)安全標準的制定工作,并于今日任命了一名董事,以期填補全球監(jiān)管方面的空白。
今年夏天,這四家科技巨頭聯(lián)合成立了新的產(chǎn)業(yè)組織“前沿模型論壇”(Frontier Model Forum),致力于安全和負責任地開發(fā)AI模型。今日,他們又任命美國智庫布魯金斯學會(Brookings Institution)的人工智能主管Chris Meserole擔任該組織的執(zhí)行董事。
此外,前沿模型論壇還表示,計劃向一個人工智能安全基金投資1000萬美元。
Meserole對此表示:“我們距離真正的監(jiān)管可能還有一段路要走。在此期間,我們希望確保這些系統(tǒng)(監(jiān)管規(guī)則)盡可能安全!
在過去的幾個月里,人們越來越擔心日益強大的人工智能有可能取代人類工作崗位,創(chuàng)造和傳播錯誤信息,或者最終超過人類智能。
Meserole表示,該論壇將尋求對任何官方法規(guī)進行“補充”。據(jù)預計,歐盟的人工智能法案將在明年初敲定。與此同時,英國將于下周主辦首屆全球人工智能安全峰會,各國領導人和主要科技高管將受邀討論相關的合作。
Meserole還稱,論壇最初將重點關注風險,包括人工智能幫助設計生物武器的能力,以及生成可用于促進關鍵系統(tǒng)黑客攻擊的計算機代碼的能力。