前谷歌CEO施密特署名文章:在AI會走之前不要嘗試去跑

發(fā)布時間:2023-07-07 09:07:16  |  來源:DeepTech  

又是一個各種極端天氣頻出的夏季,前所未有的熱浪、野火和洪水席卷了世界各國。想要準(zhǔn)確預(yù)測此類極端情況一直是一個挑戰(zhàn),作為潛在的應(yīng)對手段,半導(dǎo)體巨頭英偉達(dá)正在為地球打造一個人工智能驅(qū)動的“數(shù)字孿生”版本。


(資料圖片僅供參考)

這個數(shù)字孿生名為“Earth-2”,它將使用人工智能模型 FourCastNet 的預(yù)測,在數(shù)十 TB 的地球系統(tǒng)數(shù)據(jù)的幫助下,比現(xiàn)有預(yù)測方法更快、更準(zhǔn)確地預(yù)測未來兩周的天氣。

常見的天氣預(yù)報系統(tǒng)有能力為未來一周生成大約 50 個預(yù)報,而 FourCastNet 可以生成數(shù)千種預(yù)測,準(zhǔn)確捕捉罕見但致命的災(zāi)難風(fēng)險,從而為弱勢群體提供寶貴的準(zhǔn)備和疏散時間。

人們寄予厚望的氣候建模革命只是一個開始。隨著人工智能的出現(xiàn),科學(xué)將變得更加令人興奮,并且在某些方面變得前所未有的陌生。這種轉(zhuǎn)變將在實驗室以外的地方出現(xiàn),它們將影響我們所有人。

(來源:CHRISTOPH BURGSTEDT/SCIENCE PHOTO LIBRARY)

如果我們做出對的選擇,通過合理的監(jiān)管和對人工智能創(chuàng)新應(yīng)用的恰當(dāng)支持來解決科學(xué)上最緊迫的問題,那么人工智能就可以改寫科學(xué)進(jìn)程。我們可以建立一個未來,在這個未來中,人工智能驅(qū)動的工具將讓我們免于無意識和耗時的勞動,也將引導(dǎo)我們進(jìn)行創(chuàng)造性的發(fā)明和發(fā)現(xiàn),讓那些原本需要幾十年時間的突破成果更快出現(xiàn)。

近幾個月來,大型語言模型(LLM,large language model)幾乎已經(jīng)成為人工智能的代名詞,但在科學(xué)領(lǐng)域,有許多不同的模型架構(gòu)可能會產(chǎn)生更大的影響。在過去的十年里,科學(xué)的大多數(shù)進(jìn)步都來自于專注特定問題的較小的“經(jīng)典”模型。這些模型已經(jīng)帶來了深遠(yuǎn)的進(jìn)步。最近,融合了跨領(lǐng)域知識和生成式人工智能的、體積更大的深度學(xué)習(xí)模型擴(kuò)大了可能性。

例如,來自加拿大麥克馬斯特大學(xué)和美國麻省理工學(xué)院的科學(xué)家使用人工智能模型來識別一種抗生素,以對抗被世界衛(wèi)生組織稱為世界上最危險的耐藥細(xì)菌之一(的病原體)。谷歌 DeepMind 模型可以控制核聚變反應(yīng)中的等離子體,使我們離清潔能源革命更進(jìn)一步。在醫(yī)療保健領(lǐng)域,美國食品和藥物管理局已經(jīng)批準(zhǔn) 523 種使用人工智能的設(shè)備用于放射學(xué)。

重塑科學(xué)

從本質(zhì)上講,我們在小學(xué)學(xué)到的科學(xué)過程將保持不變:進(jìn)行背景研究,確定假設(shè),通過實驗進(jìn)行檢驗,分析收集的數(shù)據(jù),并得出結(jié)論。但人工智能有可能在未來徹底改變這些步驟的具體實踐。

人工智能已經(jīng)改變了一些科學(xué)家進(jìn)行文獻(xiàn)綜述的方式。PaperQA 和 Elicit 等工具使用了大型語言模型(LLM)掃描文章數(shù)據(jù)庫,并對現(xiàn)有文獻(xiàn)引文進(jìn)行簡潔而準(zhǔn)確的總結(jié)。

一旦文獻(xiàn)綜述完成,科學(xué)家們就形成了一個有待檢驗的假設(shè)。LLM 的核心工作原理是預(yù)測句子中的下一個單詞,構(gòu)建完整的句子和段落。這使得 LLM 特別適用于科學(xué)領(lǐng)域的結(jié)構(gòu)清晰的問題,并使其能夠幫助科學(xué)家找到物理學(xué)或生物學(xué)的下一個重大發(fā)現(xiàn)。

人工智能還可以更快地擴(kuò)大假設(shè)的搜索范圍,再縮小潛在目標(biāo)的范圍。因此,人工智能工具可以幫助制定更有力的假設(shè),例如為新藥提供更有前景的候選模型。我們已經(jīng)看到模擬的運(yùn)行速度比幾年前快了幾個數(shù)量級,這使得科學(xué)家在進(jìn)行真實世界的實驗之前可以在模擬中嘗試更多的設(shè)計選項。

例如,美國加州理工學(xué)院的科學(xué)家使用人工智能流體模擬模型自動設(shè)計了一種更好的導(dǎo)管,可以防止細(xì)菌向上游游動并導(dǎo)致感染。這種能力將從根本上改變科學(xué)發(fā)現(xiàn)的漸進(jìn)過程,使研究人員能夠從一開始就為最佳解決方案進(jìn)行設(shè)計,而不是像我們曾經(jīng)對燈絲的改良那樣,通過一大堆逐漸改進(jìn)的設(shè)計來取得進(jìn)展。

進(jìn)入實驗階段,人工智能將能夠更快、更便宜、更大規(guī)模地進(jìn)行實驗。例如,我們可以用數(shù)百個日夜運(yùn)行的微量移液器制造人工智能驅(qū)動的機(jī)器,以前所未有的速度產(chǎn)生樣本??茖W(xué)家可以使用人工智能工具進(jìn)行一千次實驗,而不再因為樣本有限,不得不將自己限制在有限的實驗次數(shù)中。

擔(dān)心下一次資助、出版或任期過程的科學(xué)家將不再局限于成功幾率最高的安全實驗,他們可以自由地追求更大膽、更跨學(xué)科的假設(shè)。例如,在評估新分子時,研究人員傾向于選擇與我們已經(jīng)知道的分子結(jié)構(gòu)相似的候選分子,但人工智能模型沒有相同的偏見和約束。

最終,大部分科學(xué)過程將在“自主運(yùn)行的實驗室”中進(jìn)行,即與人工智能相結(jié)合的自動化機(jī)器人平臺。在這里,我們可以將人工智能能力從數(shù)字領(lǐng)域帶入物理世界。這種自主運(yùn)行的實驗室已經(jīng)在 Emerald Cloud Lab 和 Artificial 等公司出現(xiàn),甚至在美國阿貢國家實驗室也出現(xiàn)了。

最后,在分析和結(jié)論階段,自主運(yùn)行的實驗室將超越自動化,根據(jù)產(chǎn)生的實驗結(jié)果,使用 LLM 來解釋結(jié)果,并推薦下一個實驗。然后,作為研究過程中的合作伙伴,人工智能實驗室人類助理可以訂購消耗品來補(bǔ)滿實驗中消耗的,并在一夜之間設(shè)置和運(yùn)行下一個推薦的實驗,結(jié)果可以隨時公布,甚至是當(dāng)科學(xué)家睡覺的時候。

可能性和局限性

年輕的研究人員可能對這一前景感到緊張。幸運(yùn)的是,這場革命創(chuàng)造的新工作可能比目前大多數(shù)實驗室工作更有創(chuàng)意,也沒有那么無腦。

人工智能工具可以降低新科學(xué)家的進(jìn)入門檻,并為那些傳統(tǒng)上被排除在該領(lǐng)域之外的人打開機(jī)會。有了 LLM 能夠幫助構(gòu)建代碼,STEM(Science、Technology、Engineering)學(xué)生將不再需要掌握晦澀難懂的代碼構(gòu)建,這為新的非傳統(tǒng)人才打開了象牙塔的大門,并使科學(xué)家更容易參與自己研究方向以外的領(lǐng)域。很快,經(jīng)過專門培訓(xùn)的 LLM 可能會不僅限于提供書面工作的初稿,并可能被開發(fā)為與人類評審員一起評審新論文的“同行”。

人工智能工具有著令人難以置信的潛力,但我們必須認(rèn)識到人的價值和重要性,同時也不能在學(xué)會走路之前嘗試跑步。例如,通過自主運(yùn)行實驗室將人工智能和機(jī)器人技術(shù)成功融合并非易事??茖W(xué)家們在實驗室里學(xué)到了很多隱性知識,這些知識很難傳授給人工智能驅(qū)動的機(jī)器人。同樣,在我們將大部分文書工作、研究和分析交給 LLM 之前,我們應(yīng)該意識到當(dāng)前 LLM 的局限性,甚至是幻覺。

像 OpenAI 和 DeepMind 這樣的公司仍然在新的突破、模型和研究論文方面處于領(lǐng)先地位,但目前的行業(yè)主導(dǎo)地位不會永遠(yuǎn)持續(xù)下去。到目前為止,DeepMind 在具有明確目標(biāo)和指標(biāo)的、定義明確的問題方面表現(xiàn)出色。它最著名的成功案例之一是在兩年一度的 Critical Assessment of Structure Prediction(CASP)競賽上,其研究團(tuán)隊根據(jù)蛋白質(zhì)的氨基酸順序預(yù)測蛋白質(zhì)的確切形狀。

從 2006 年到 2016 年,在 CASP 競賽的 1 到 100 分制中,最難類別的平均分?jǐn)?shù)在 30 到 40 分之間。突然間,在 2018 年,DeepMind 的 AlphaFold 模型獲得了驚人的 58 分。兩年后,一個名為 AlphaFold2 的更新版本獲得了 87 分,使其人類競爭對手難以望其項背。

得益于開源資源,我們開始看到一種模式,即行業(yè)達(dá)到某些基準(zhǔn),然后學(xué)術(shù)界介入完善模型。在 DeepMind 發(fā)布 AlphaFold 后,美國華盛頓大學(xué)的民川百可(Minkyung Baek)和大衛(wèi)·貝克(David Baker)發(fā)布了 RoseTTAFold,該軟件使用 DeepMind 的框架來預(yù)測蛋白質(zhì)復(fù)合物的結(jié)構(gòu),而不是僅預(yù)測 AlphaFold 最初可以處理的單個蛋白質(zhì)結(jié)構(gòu)。更重要的是,學(xué)者們更不容易受到市場競爭壓力的影響,因此他們可以超越吸引 DeepMind 的明確問題和可量化的成功。

除了達(dá)到新的高度,人工智能還可以通過解決科學(xué)的可復(fù)制性危機(jī)來幫助驗證我們已經(jīng)知道的事情。大約 70% 的科學(xué)家報告說,他們無法復(fù)制另一位科學(xué)家的實驗,這是一個令人沮喪的數(shù)字。隨著人工智能降低了實驗的成本和工作量,在某些情況下,成功復(fù)制結(jié)果或得出無法復(fù)制的結(jié)論會更容易,這有助于增強(qiáng)人們對科學(xué)的信任。

可復(fù)制性和信任的關(guān)鍵在于透明度。在理想的世界里,科學(xué)領(lǐng)域的一切都是開放獲取的,從無需付費(fèi)的論文到開源數(shù)據(jù)、代碼和模型??杀氖?,由于這些模型可能會帶來危險,使所有模型都開源是不現(xiàn)實的。在許多情況下,完全透明的風(fēng)險大于信任和公平的好處。盡管如此,在一定程度上,我們?nèi)钥梢裕ǘ覒?yīng)該)讓模型更透明,尤其是使用場景更有限的經(jīng)典人工智能模型。

監(jiān)管的重要性

對于所有這些領(lǐng)域,我們必須記住人工智能的固有局限性和風(fēng)險。人工智能是一種強(qiáng)大的工具,因為它可以讓人類用更少的時間、更少的教育、更少的設(shè)備完成更多的任務(wù)。但這些能力亦會讓其成為危險的武器。美國羅切斯特大學(xué)教授安德魯·懷特(Andrew White)與 OpenAI 簽訂了合同,參與一個“紅色團(tuán)隊”,該團(tuán)隊的目的是在 GPT-4 發(fā)布前發(fā)現(xiàn)其風(fēng)險。

在拿到該語言模型及相關(guān)工具后,懷特發(fā)現(xiàn)它可以給出包含危險化合物的回答,甚至可以從化學(xué)品供應(yīng)商那里訂購。為了測試這個過程,他曾成功地把一個(安全的)測試化合物送到了家里。OpenAI 表示,在 GPT-4 發(fā)布之前,它利用懷特的發(fā)現(xiàn)對其模型進(jìn)行了調(diào)整。

即使人類本意不壞,也可能促使人工智能產(chǎn)生糟糕的結(jié)果。正如計算機(jī)科學(xué)家斯圖爾特·拉塞爾所說,我們應(yīng)該少擔(dān)心自己會創(chuàng)造出終結(jié)者,多擔(dān)心自己是否會成為米達(dá)斯國王——他希望自己觸摸到的一切都能變成金子,因而意外地將自己的女兒“點(diǎn)石成金”。

我們目前沒有一套機(jī)制能促使人工智能改變其目標(biāo),即使它以我們意想不到的方式對其目標(biāo)做出反應(yīng)。一個經(jīng)常被提到的思維實驗是這樣的:你告訴了一個人工智能系統(tǒng)制作盡可能多的回形針。為了實現(xiàn)其目標(biāo),該模型劫持了電網(wǎng),并殺死了任何試圖阻止其劫持電網(wǎng)的人。隨著回形針不斷增多,世界陷入一片混亂。到頭來,人工智能“心滿意足”地表示,自己已經(jīng)實現(xiàn)了目標(biāo)。

OpenAI 已經(jīng)成功實施了一系列令人印象深刻的保護(hù)措施,但只有 GPT-4 位于 OpenAI 的服務(wù)器上,這些措施才會保持不變。很快就會有人復(fù)制模型并將其存儲在自己的服務(wù)器上。這些前沿模型需要得到保護(hù),以防止居心不良的人拆除開發(fā)者精心添加的人工智能安全護(hù)欄。

為了解決對人工智能系統(tǒng)的有意和無意的濫用,我們需要對科技巨頭和開源模型進(jìn)行聰明、知情的監(jiān)管,不要阻止我們以有利于科學(xué)的方式使用人工智能。盡管科技公司在人工智能安全方面取得了長足進(jìn)步,但政府監(jiān)管機(jī)構(gòu)目前在制定適當(dāng)法律方面準(zhǔn)備不足,應(yīng)該在應(yīng)對和教育技術(shù)最新發(fā)展方面采取更多的行動。

除了監(jiān)管之外,政府和慈善機(jī)構(gòu)可以支持社會回報高、但經(jīng)濟(jì)回報或?qū)W術(shù)激勵少的科學(xué)項目。有幾個領(lǐng)域特別緊迫,包括氣候變化、生物安全和流行病防備。正是在這些領(lǐng)域,我們最需要人工智能模擬和自主運(yùn)行實驗室?guī)淼乃俣群鸵?guī)模。

在安全考量允許的情況下,政府還可以幫助開發(fā)大型、高質(zhì)量的數(shù)據(jù)集,例如 AlphaFold 所依賴的數(shù)據(jù)集。開放數(shù)據(jù)集是公共產(chǎn)品:它們使許多研究人員受益,但研究人員幾乎沒有動力去創(chuàng)建它們。政府和慈善組織可以與大學(xué)和公司合作,找出科學(xué)領(lǐng)域的重大挑戰(zhàn),強(qiáng)大的數(shù)據(jù)庫將幫助我們更好地應(yīng)對這些挑戰(zhàn)。

在化學(xué)研究領(lǐng)域,沒有人能夠正確地匯總存儲在數(shù)十個數(shù)據(jù)庫中的分子性質(zhì)數(shù)據(jù)。如果我們只有一個數(shù)據(jù)來源的話,就無法獲得人工智能模型所能獲得的對該領(lǐng)域的見解。

與此同時,生物學(xué)缺乏物理學(xué)或化學(xué)的已知和可計算的數(shù)據(jù),像內(nèi)在無序的蛋白質(zhì)這樣的子領(lǐng)域?qū)ξ覀儊碚f仍然是神秘的。因此,需要更協(xié)調(diào)一致的努力來理解甚至記錄匯總數(shù)據(jù)庫中的數(shù)據(jù)。

在科學(xué)領(lǐng)域廣泛采用人工智能的道路是漫長的,我們必須做很多正確的事情,從建立正確的數(shù)據(jù)庫到實施正確的法規(guī),從減輕人工智能算法中的偏見,再到確保有需要的科學(xué)家能夠平等地獲取計算資源。

盡管如此,我們?nèi)蕴幱谝粋€非常樂觀的時刻。以前的科學(xué)范式轉(zhuǎn)變,比如科學(xué)過程或大數(shù)據(jù)的出現(xiàn),一直集中在內(nèi)部,使科學(xué)更加精確、準(zhǔn)確和有條理。與此同時,人工智能有著廣闊的發(fā)展空間,使我們能夠以新穎的方式將信息結(jié)合起來,并將科學(xué)的創(chuàng)造力和進(jìn)步帶到新的高度。

作者簡介:埃里克·施密特(Eric Schmidt)于 2001 年至 2011 年擔(dān)任谷歌 CEO。他目前是 Schmidt Futures 的聯(lián)合創(chuàng)始人,這是一項慈善倡議組織,專注于在早期押注于杰出人才,讓世界變得更美好,通過應(yīng)用科學(xué)和技術(shù),將各個領(lǐng)域的人才聚集起來。

支持:Ren

關(guān)鍵詞:

 

網(wǎng)站介紹  |  版權(quán)說明  |  聯(lián)系我們  |  網(wǎng)站地圖 

星際派備案號:京ICP備2022016840號-16 營業(yè)執(zhí)照公示信息版權(quán)所有 郵箱聯(lián)系:920 891 263@qq.com