" 要真正解決人工智能帶來的挑戰(zhàn),可能還需要很長(zhǎng)時(shí)間,"OpenAI 的高管 Pachocki 表示。" 在完全信任這些系統(tǒng)之前,我們顯然需要一些限制措施。" 他認(rèn)為,強(qiáng)大的 AI 模型應(yīng)部署在沙盒環(huán)境中,與任何潛在破壞性或危害性因素隔離開來。
目前,人工智能工具已被用于設(shè)計(jì)新型網(wǎng)絡(luò)攻擊,甚至有人擔(dān)心它們可能被用來制造生物武器。無數(shù)科幻故事中的 " 邪惡科學(xué)家 " 情節(jié)似乎正在成為現(xiàn)實(shí)。" 確實(shí)存在一些令人擔(dān)憂的情景,"Pachocki 坦言。
他進(jìn)一步指出:" 這將是一件非常奇怪的事情,其權(quán)力集中程度前所未有。" 想象一下,未來只需一個(gè)數(shù)據(jù)中心,就能完成如今 OpenAI 或谷歌這樣的巨頭所做的所有工作。過去需要大型人類組織才能完成的任務(wù),現(xiàn)在可能僅需幾個(gè)人即可實(shí)現(xiàn)。
" 這是各國(guó)政府需要面對(duì)的重大挑戰(zhàn)," 他補(bǔ)充道。然而,也有人認(rèn)為政府本身可能是問題的一部分。例如,美國(guó)政府正計(jì)劃在戰(zhàn)場(chǎng)上使用人工智能。Anthropic 與五角大樓之間的爭(zhēng)議揭示了社會(huì)對(duì)如何劃定技術(shù)應(yīng)用界限缺乏共識(shí),更不用說由誰來制定規(guī)則了。在這場(chǎng)爭(zhēng)議之后,OpenAI 取代其競(jìng)爭(zhēng)對(duì)手與五角大樓達(dá)成協(xié)議,局勢(shì)依然撲朔迷離。
當(dāng)被問及是否相信其他人能解決這些問題時(shí),Pachocki 坦言:" 我確實(shí)感到有個(gè)人責(zé)任。但這并非 OpenAI 一家可以解決的問題,通過單純推動(dòng)技術(shù)發(fā)展或優(yōu)化產(chǎn)品設(shè)計(jì)并不足夠。我們需要政策制定者的深度參與。"
那么,未來究竟會(huì)走向何方?我們是否正朝著 Pachocki 所描述的那種人工智能邁進(jìn)?對(duì)此,艾倫研究所的 Downey 笑著回應(yīng):" 我已經(jīng)在這個(gè)領(lǐng)域工作了幾十年,不再相信自己對(duì)某些能力何時(shí)實(shí)現(xiàn)的預(yù)測(cè)了。"
盡管 OpenAI 的使命是確保人工通用智能(AGI)造福全人類,但在對(duì)話中,Pachocki 并未過多提及 AGI,而是將其稱為 " 經(jīng)濟(jì)轉(zhuǎn)型技術(shù) "。他表示,大語言模型雖然表面上與人類相似,因?yàn)樗鼈兓谌祟悓?duì)話訓(xùn)練,但它們并非由進(jìn)化形成,因此效率有限。
" 即使到 2028 年,我認(rèn)為我們也不會(huì)擁有在各方面都像人類一樣聰明的系統(tǒng)。這不太可能發(fā)生," 他補(bǔ)充道。" 但這也并非絕對(duì)必要。有趣的是,你并不需要全面超越人類的智能,就能帶來巨大的變革。"