近期的一項研究表明,OpenAI 最新的聊天機器人 GPT-4o 能夠提供道德方面的解釋和建議,且質(zhì)量優(yōu)于“公認的”道德專家所提供的建議。
據(jù) The Decoder 當?shù)貢r間周六報道,美國北卡羅萊納大學教堂山分校和艾倫 AI 研究所的研究人員進行了兩項研究,將 GPT 模型與人類的道德推理能力進行比較,以探討大語言模型是否可被視為“道德專家”。
匯總研究內(nèi)容如下:
研究一
501 名美國成年人對比了 GPT-3.5-turbo 模型和其他人類參與者的道德解釋。結(jié)果表明,人們認為 GPT 的解釋比人類參與者的解釋更符合道德、更值得信賴、更周到。
評估者也認為人工智能的評估比其他人更可靠。雖然差異很小,但關鍵發(fā)現(xiàn)是 AI 可以匹配甚至超越人類水平的道德推理。
研究二
將 OpenAI 最新的 GPT-4o 模型生成的建議與《紐約時報》“倫理學家”專欄中著名倫理學家 Kwame Anthony Appiah 的建議進行了比較。900 名參與者對 50 個“倫理困境”的建議質(zhì)量進行了評分。
結(jié)果表明,GPT-4o 在“幾乎每個方面”都勝過人類專家。人們認為 AI 生成的建議在道德上更正確、更值得信賴、更周到、更準確。只有在感知細微差別方面,人工智能和人類專家之間沒有顯著差異。
研究人員認為,這些結(jié)果表明 AI 可以通過“比較道德圖靈測試”(cMTT)。而文本分析顯示,GPT-4o 在提供建議時使用的道德和積極語言比人類專家更多。這可以部分解釋為什么 AI 的建議評分更高 —— 但不是唯一因素。
需要注意的是,這項研究僅僅針對美國參與者進行,后續(xù)仍需進一步研究人們?nèi)绾慰创?AI 生成的道德推理的文化差異。
論文地址:https://osf.io/preprints/psyarxiv/w7236