難逃要與資本合作宿命 OpenAI被10億美元收買

發(fā)布時間:2021-09-18 14:00:43  |  來源:雷鋒網(wǎng)  

近日,一篇名為“How OpenAI Sold its Soul for $1 Billion”(OpenAI 是如何因為 10 億美元出賣自己的靈魂)的文章在 Reddit 上引起了熱議。

文章作者 Alberto Romero 抨擊知名的非營利機構(gòu) OpenAI 為了金錢而出賣自己原有的“為人類造福”宗旨。

OpenAI 成立于 2015 年,創(chuàng)立之初便將自己定位為“非營利組織”,目標是以安全的方式實現(xiàn)通用人工智能(AGI),使全人類平等收益,而不是為公司的股東創(chuàng)造利潤。

但在 2019 年,OpenAI 違背了它的初衷,成為了一家名為“OpenAI LP”的營利性公司,由一家名為“OpenAI Inc”的母公司控制。這時,OpenAI 成了一家有利潤上限的機構(gòu),股東的投資回報被限制為不超過原始投資金額的 100 倍。也就是說,如果你投資 1000 萬美元,你最多能得到 10 億美元的回報。

OpenAI 的結(jié)構(gòu)改了之后,沒幾個月,微軟就注資了 10 億美元。而微軟與 OpenAI 的合作關(guān)系,是基于一個重要前提,即微軟有權(quán)將 OpenAI 的部分技術(shù)商業(yè)化,比如 GPT-3 與 Codex。今年 5 月末,微軟的官方網(wǎng)站便報道了他們用 GPT-3 的技術(shù)賦能內(nèi)部商業(yè)產(chǎn)品,為用戶服務(wù):

當 OpenAI 因金錢關(guān)系與大型商業(yè)公司達成合作協(xié)議,我們還能相信他們會信守承諾,從全人類的福祉出發(fā)來發(fā)展人工智能嗎?亦或是,技術(shù)終將淪為資本的俘虜,情懷也難逃被出賣的命運?

金錢始終排在第一位

文章作者 Alberto 指出,OpenAI 的技術(shù)野心,決定了它難逃要與資本合作的宿命。

作為一個高定位的人工智能研究實驗室,OpenAI 的雄心壯志要求它必須獲取足夠的資源支持,其中,金錢始終是排在第一位。比方說,去年夏天火熱全網(wǎng)的 GPT-3,在訓(xùn)練階段就已花費了大約 1200 萬美元:

GPT-3 是一個大規(guī)模語言模型,光參數(shù)量就已達到 1750 億。如果不尋求交易,他們很難獲得這么雄厚的研究經(jīng)費。所以,在他們意識到需要投資時,發(fā)現(xiàn)微軟當時正等著給自己提供云計算服務(wù),交換條件是微軟屆時能將它們尚未成熟的系統(tǒng)商業(yè)化。這時,一方可以獲得計算資源,一方可以達到盈利,何樂而不為呢?

早在 2020 年 2 月,麻省理工科技評論的記者 Karen Hao 就發(fā)表了一篇文章,探究了 OpenAI 與微軟的合作。Karen Hao 在“The messy, secretive reality behind OpenAI’s bid to save the world”一文中明確指出,經(jīng)過對 OpenAI 內(nèi)部員工的數(shù)次采訪,她發(fā)現(xiàn) OpenAI 的公開宣稱內(nèi)容(實現(xiàn)通用人工智能、使人類平均受益)與內(nèi)部的運營方式存在不一致之處。

為什么一家以造福全人類為基礎(chǔ)的公司突然需要大量的私人資金?要知道,從創(chuàng)立之初,Open AI 就獲得了馬斯克、Sam Altman 與 Peter Thiel(Paypal 創(chuàng)始人)等人 10 億美元的私人投資。OpenAI 從非營利到營利的轉(zhuǎn)變,不僅引起了公眾輿論的不解,也在公司內(nèi)部遭到了批評。

艾倫人工智能研究所的所長 Oren Etzioni 在得知微軟注資 OpenAI 時,當時即表示懷疑態(tài)度,稱:“我不同意非營利組織不具備競爭力的觀點…… 如果規(guī)模更大、資金更多就代表(這個機構(gòu))會發(fā)展地更好,那 IBM 就不會被擠下第一名的位置。”

Vice News 的知名撰稿人 Caroline Haskins 也認為,OpenAI 已經(jīng)違背了他們當初的使命:“(我們)從來沒有試過靠風(fēng)險投資者來改善人類的命運。”

我們不得不承認,OpenAI 將研究重點放在需要由更大算力與更大數(shù)據(jù)驅(qū)動的神經(jīng)網(wǎng)絡(luò)上,這必然需要很多金錢。但是,Alberto 也指出,如 Oren Etzioni 所言,金錢并不是取得最先進的 AI 成果的唯一途徑。更多時候,你需要的是極富創(chuàng)造性的想法,而不是靠堆更多的算力,或更多的數(shù)據(jù)。

OpenAI 是如何淪落的?

2019 年初,已經(jīng)成為營利性公司的 OpenAI 發(fā)布了一個強大的語言模型 ——GPT-2,能夠生成達到人類水平的文本。盡管 GPT-2 在當時是一個巨大的飛躍,但也有許多研究人員將其比喻為一只“危險的怪獸”,無法與大眾共享。比如,他們擔(dān)心 GPT-2 會被用來“傳播假新聞、垃圾郵件與虛假信息”。

但這份擔(dān)心很快就被打消。GPT-2 沒有被廣泛證明有濫用的風(fēng)險,所以研究人員還是紛紛使用了 GPT-2。

羅格斯大學(xué)的教授 Britt Paris 曾評論,GPT-2 的誕生似乎不是為了造福人類,反而像是 OpenAI 利用了人工智能可能會給人類社會帶來的恐慌,從而引起媒體的注意。他們認為,GPT-2 并不像 OpenAI 聲稱的那樣強大,但是,從營銷的角度來看,他們可以吸引媒體的關(guān)注。

如果 GPT-2 沒有他們宣稱的那么強大,那為什么要讓它看起來更危險呢?Alberto 認為,單從這一點來看,OpenAI 就已經(jīng)沒有遵守自己的道德標準。

2020 年 6 月,GPT-3 發(fā)布,比 GPT-2 大了 100 倍,更強大,本質(zhì)上也許更危險。但 OpenAI 似乎認為新系統(tǒng)足夠安全,可以與世界分享,所以通過 API 發(fā)布。他們設(shè)置了一個候補名單來逐個審查訪問請求,但這并不能控制系統(tǒng)最終被用于何處。

在“Language Models are Few-Shot Learners”一文中,他們甚至承認,如果 GPT-3 落入壞人之手,可能會帶來不好的后果,比如“錯誤信息、垃圾郵件、網(wǎng)絡(luò)釣魚、濫用法律和政府程序、欺詐性學(xué)術(shù)論文寫作和社會工程托辭”,或加劇性別、種族偏見。

他們認識到問題的存在,但仍然允許用戶對系統(tǒng)進行試驗。關(guān)于通過 API 發(fā)布,OpenAI 當時的回應(yīng)是“支付他們接下來的 AI 研究、安全與政策制定等工作”。

一句話總結(jié),就是說:“負責(zé)”保護人類免受 AI 侵害的公司決定讓人們使用一個能夠造成虛假信息和危險偏見的系統(tǒng),以便他們可以支付昂貴的維護費用。這還是“對所有人都有價值”嗎?

所以,當時社交媒體上很快就出現(xiàn)了關(guān)于 GPT-3 可能造成的潛在問題的激烈討論。Facebook 人工智能研究的負責(zé)人 Jerome Pesenti 當時就寫了一條推文,在推文中舉了一個例子,談到 GPT-3 可能會生成加劇種族與性別歧視的文本:

UC Berkeley 的計算機系學(xué)生 Liam Porr 還用 GPT-3 寫了一篇能提高寫作效率的文章,與訂閱者分享,但沒有透露其中的技巧。這篇文章在 Hacker News 上排名第一。如果 UC Berkerley 的大學(xué)生都會設(shè)法用人工智能編寫的作品欺騙所有人,那么一群有惡意的人會做什么呢?

除了傳播假新聞,GPT-3 的另一個危害是傳播人類無法區(qū)分的假新聞。這一點也被 OpenAI 在“Language Models are Few-Shot Learners”一文中認可、甚至強調(diào)了:

[M]ean human accuracy at detecting the longer articles that were produced by GPT-3 175B was barely above chance at 52%. This indicates that, for news articles that are around 500 words long, GPT-3 continues to produce articles that humans find difficult to distinguish from human written news articles.

(人類在檢測 GPT-3 175B 生成的較長文章時的平均準確率僅略高于 52%。這表明,GPT-3 能夠繼續(xù)生成人類難以區(qū)分的、長度約為 500 字的新聞文章。)

今年他們也做了類似的事情。

幾周前,OpenAI、GitHub 和微軟聯(lián)合發(fā)布了一款編程工具 Copilot,這款工具基于 GitHub 及其他網(wǎng)站的源代碼,可根據(jù)上文提示為程序員自動編寫下文代碼!被稱為是結(jié)對編程的虛擬版本。

結(jié)對編程是一種常見的敏捷軟件開發(fā)技術(shù) —— 即兩個開發(fā)人員在同一個項目上并肩協(xié)作,輪流編寫代碼并檢查合作伙伴的輸出。

拋開可能對開發(fā)者造成的潛在威脅不談,這款工具僅發(fā)布幾天后便遭到了猛烈的抨擊,原因是它在未經(jīng)許可的情況下,使用了公共的 Github 存儲庫的開源代碼。

當時,GitHub 的首席執(zhí)行官 Nat Friedman 公布這則消息后,Hacker news 上已經(jīng)有不少網(wǎng)友在討論,Copilot 可能會存在潛在的法律風(fēng)險。

比如,一位網(wǎng)友就指出了多個疑問:

AI 生成的代碼屬于我?還是 GitHub?

生成的代碼屬于哪個許可證?

如果生成的代碼侵權(quán),誰來承擔(dān)法律責(zé)任?

一位從事開源工作的開發(fā)者 Armin Ronacher 直接在 Twitter 上分享了一個示例,表明 Copilot 確實存在剽竊版權(quán)代碼的可能。

下面也有一位網(wǎng)友評論說:“我們也發(fā)現(xiàn) Copilot 直接復(fù)制了一段 GPL 代碼,這說明它在商業(yè)使用上是有風(fēng)險的。

其實,就算 Copilot 沒有逐字復(fù)制代碼,也會產(chǎn)生一個道德問題:GitHub 或者 OpenAI 等公司是否有權(quán)使用數(shù)千名開發(fā)者的開源代碼對自己的系統(tǒng)進行訓(xùn)練,并將這些系統(tǒng)的使用權(quán)賣給開發(fā)者自己?

一位開發(fā)者兼游戲設(shè)計師 Evelyn Woods 對此評論說:“他們好像在把開源當成一個笑話!”

我們還能寄希望于 OpenAI 嗎?

OpenAI 現(xiàn)在真正的意圖是什么?

Alberto 發(fā)出疑問:

難道他們已經(jīng)與微軟的利益捆綁在一起,以至于忘記了最初“造福人類”的宗旨?還是他們真的以為自己擁有最好的工具和人才可以獨自開拓這條道路,這是否意味著 OpenAI 出賣了自己的靈魂?他們是按照自己的意愿來建設(shè)未來,還是考慮到了更多人?更重要的是,他們是否想從中獲取巨額利潤?

OpenAI 在邁向更復(fù)雜人工智能的道路上占據(jù)了主導(dǎo)地位,當然,也有許多其他有潛力的機構(gòu)在做相關(guān)的工作,這些機構(gòu)并沒有與金錢產(chǎn)生直接的聯(lián)系,因而也受到了外界廣泛的關(guān)注。

就目前來看,大型科技公司的目標似乎是并不是建立一個滿足科學(xué)好奇心的通用人工智能,也不是建立一個最安全、最負責(zé)、最道德的人工智能。他們的首要任務(wù)是賺錢!

當然,這本身并不違法,但在道德上需要警惕,因為他們可能會不惜一切手段去實現(xiàn)目標,而這個過程可能會對大多數(shù)人產(chǎn)生不利影響。

之前 OpenAI 聯(lián)合創(chuàng)始人埃隆?馬斯克(Elon Musk)就曾批評其稱:OpenAI 應(yīng)該更加開放!

OpenAI 已經(jīng)不再“Open”

在 Reddit 上,Alberto Romero 的文章也引起了網(wǎng)友的討論。

網(wǎng)友紛紛稱:OpenAI 早已應(yīng)該更名為“ClosedAI”。

也許 OpenAI 公司仍在堅持他們最初的使命,但他們也應(yīng)該意識到:不能為了達到目的而不擇手段,因為不合理的手段可能會損害更遠大的目標。

毫無疑問,科學(xué)家們都希望實現(xiàn)通用人工智能??茖W(xué)的好奇心是沒有限度的,但我們也應(yīng)該對潛在的風(fēng)險保持警惕,就像核聚變是了不起的發(fā)明,但核聚變炸彈不是。

換一個角度來講,我們愿意為了實現(xiàn)通用人工智能而付出任何代價嗎?至少從道德上,很多人是不愿意的。科學(xué)家們或許更應(yīng)該注意到這一點。

我們正在快速地更新這些深刻改變?nèi)藗兩畹募夹g(shù)。但是,如果只關(guān)心自己的利益和目標,無論是 OpenAI 還是其他人,最后都應(yīng)該對后果承擔(dān)很大的責(zé)任。

關(guān)鍵詞: 資本合作 宿命 OpenAI 10億美元

 

網(wǎng)站介紹  |  版權(quán)說明  |  聯(lián)系我們  |  網(wǎng)站地圖 

星際派備案號:京ICP備2022016840號-16 營業(yè)執(zhí)照公示信息版權(quán)所有 郵箱聯(lián)系:920 891 263@qq.com