在近日瑞士舉行的2024年人工智能向善全球峰會(huì)(AI for Good Global Summit)上,OpenAI CEO山姆·奧爾特曼(Sam Altman)與《大西洋月刊》CEO尼古拉斯·湯普森(Nicholas Thompson)進(jìn)行了連線交流,提及AI的全球化、安全性、合成數(shù)據(jù)訓(xùn)練以及下一代大模型等相關(guān)問(wèn)題。
奧爾特曼在對(duì)話中預(yù)測(cè),中國(guó)將會(huì)擁有自己獨(dú)特的大語(yǔ)言模型,與世界其他地區(qū)的模型不同。當(dāng)被問(wèn)到三年后會(huì)有多少基礎(chǔ)的大語(yǔ)言模型存在時(shí),奧爾特曼表示,當(dāng)下有許多模型正在訓(xùn)練,這種趨勢(shì)將會(huì)持續(xù),“將有成千上萬(wàn)的大語(yǔ)言模型被開發(fā)出來(lái),但其中只有少數(shù),如10個(gè)、20個(gè)或類似的數(shù)量,會(huì)獲得大量的使用和最密集的資源投入!
奧爾特曼認(rèn)為,我們?nèi)蕴幵贏GI的初級(jí)階段,還有許多未知等待去探索,還有許多科學(xué)上的突破即將到來(lái),因此在這一點(diǎn)上做出任何自信的預(yù)測(cè)都是非常困難的。
另一點(diǎn)是關(guān)于人工智能的全球化和公平問(wèn)題,有人認(rèn)為,GPT-4和其他大語(yǔ)言模型在英語(yǔ)、西班牙語(yǔ)和法語(yǔ)上的表現(xiàn)要優(yōu)于斯瓦希里語(yǔ)(一種在非洲廣泛使用的語(yǔ)言)等語(yǔ)言。奧爾特曼則回復(fù),GPT-4o在更多種類的語(yǔ)言上都表現(xiàn)出色,OpenAI此前公布的統(tǒng)計(jì)數(shù)據(jù)顯示,GPT-4o已經(jīng)能夠覆蓋97%人群的母語(yǔ)。
關(guān)于OpenAI,近段時(shí)間備受關(guān)注的仍然是其安全性問(wèn)題,在GPT-4o模型發(fā)布不久后,負(fù)責(zé)安全事務(wù)的聯(lián)合創(chuàng)始人、首席科學(xué)家伊爾亞·蘇茨克維(Ilya Sutskever)就官宣離職,而另一位在安全領(lǐng)域作出重大貢獻(xiàn)的超級(jí)對(duì)齊團(tuán)隊(duì)聯(lián)合負(fù)責(zé)人楊·萊克(Jan Leike)也離開OpenAI轉(zhuǎn)投Anthropic,并在社交媒體X上稱“(OpenAI)安全文化和安全流程已經(jīng)讓位給閃亮的產(chǎn)品”。
奧爾特曼在對(duì)話中表示,在確保安全性方面,模型的可解釋性是一個(gè)值得探究的領(lǐng)域,目前盡管尚未解決可解釋性問(wèn)題,但他“對(duì)正在發(fā)生的許多事情感到非常興奮”。在他看來(lái),對(duì)模型內(nèi)部運(yùn)作的理解越深入,就越能做出更好的決策,“這可以成為我們構(gòu)建和驗(yàn)證安全性聲明的綜合性方案的一部分!
此外,人道科技中心聯(lián)合創(chuàng)始人兼執(zhí)行主管特里斯坦·哈里斯(Tristan Harris)曾提出一個(gè)建議是,大語(yǔ)言模型公司每投入100萬(wàn)美元用于增強(qiáng)模型的能力,也應(yīng)同等投入100萬(wàn)美元用于安全性研究。奧爾特曼認(rèn)為,人們往往傾向于把世界簡(jiǎn)單地劃分為性能與安全兩個(gè)部分,并制定一些聽起來(lái)很有道理的政策,而要界定許多工作的性質(zhì)是非常困難的。
如果在生產(chǎn)中使用一個(gè)模型,用戶確實(shí)會(huì)希望它能夠完成既定任務(wù),同時(shí)不會(huì)產(chǎn)生任何負(fù)面影響。不過(guò),讓模型在既定的界限內(nèi),按照用戶的期望去運(yùn)行,是一個(gè)綜合性的問(wèn)題。奧爾特曼將這個(gè)過(guò)程比喻為搭乘飛機(jī),用戶期望它能安全地將自己送達(dá)目的地,同時(shí)也希望在整個(gè)飛行過(guò)程中不會(huì)出現(xiàn)任何故障。
“在飛機(jī)設(shè)計(jì)中,有些部分可以明確區(qū)分為能力提升或安全措施,但總體而言,我們是在努力設(shè)計(jì)一個(gè)綜合系統(tǒng),旨在安全、迅速地將您帶到目的地,并確保飛行中不會(huì)出現(xiàn)任何部件脫落的問(wèn)題。”奧爾特曼的觀點(diǎn)是,有關(guān)產(chǎn)品能力提升和安全措施的這種界限,實(shí)際上并沒(méi)有表面上看起來(lái)那么清晰。
不過(guò),在有關(guān)安全的關(guān)鍵人才離開之后,OpenAI “飛機(jī)的機(jī)翼”依然穩(wěn)固嗎?針對(duì)公眾的質(zhì)疑,奧爾特曼認(rèn)為,這種評(píng)價(jià)應(yīng)基于公司行動(dòng),包括發(fā)布的模型、所開展的工作、進(jìn)行的科學(xué)研究,實(shí)際上公司已經(jīng)進(jìn)行了對(duì)齊研究、建立了安全系統(tǒng)、實(shí)施了監(jiān)控措施。
在對(duì)話中,談及下一代模型是否會(huì)迎來(lái)指數(shù)增長(zhǎng)的顯著飛躍,奧爾特曼表示,“我們并不認(rèn)為我們正處于任何指數(shù)增長(zhǎng)的臨界點(diǎn)。”他認(rèn)為大模型仍然有很大的發(fā)展空間,并預(yù)期在某些領(lǐng)域?qū)?shí)現(xiàn)巨大的進(jìn)步,但在其他一些領(lǐng)域可能提升并不如預(yù)期顯著,這與之前每次模型更新時(shí)的情況相似。
訓(xùn)練大模型最關(guān)鍵的部分之一是數(shù)據(jù),在對(duì)話中奧爾特曼提到,為了訓(xùn)練下一代模型,OpenAI在大量生成合成數(shù)據(jù)用以訓(xùn)練方面進(jìn)行了各種實(shí)驗(yàn)。但如果訓(xùn)練模型的最佳途徑僅僅是創(chuàng)造數(shù)以萬(wàn)億計(jì)的合成數(shù)據(jù)并將其重新輸入系統(tǒng),這種方法在某種程度上顯得效率不高,“應(yīng)該存在一種機(jī)制,讓模型在訓(xùn)練過(guò)程中能夠更有效地從數(shù)據(jù)中學(xué)習(xí),我認(rèn)為我們還有許多問(wèn)題需要解決!
合成數(shù)據(jù)是否會(huì)引發(fā)數(shù)據(jù)出錯(cuò)問(wèn)題?奧爾特曼認(rèn)為,無(wú)論是合成數(shù)據(jù)還是人類生成的數(shù)據(jù),都存在質(zhì)量良莠不齊的問(wèn)題,關(guān)鍵在于獲取高質(zhì)量的數(shù)據(jù)。只要能夠收集到足夠高質(zhì)量的數(shù)據(jù)來(lái)訓(xùn)練模型,或者能夠開發(fā)出提高數(shù)據(jù)效率的方法,從較少的數(shù)據(jù)量中學(xué)習(xí)更多,出錯(cuò)的問(wèn)題是可以解決的。