高加索AV无码,99尹人网毛,韩日337p99,一级a片久久无,97色区综合,激情日韩在线一二三,日韩精品久久精品草比,婷婷久久91,亚洲天堂艹比

訂閱
糾錯
加入自媒體

知名記者出書爆錘OpenAI,奧特曼親自下場反擊,《AI帝國》作者最新訪談揭露了更多內(nèi)幕

編輯|重點君

近日,《AI帝國》作者郝珂靈與播客主持人Steven Bartlett進行了一場深度對話。

郝珂靈畢業(yè)于麻省理工學(xué)院機械工程專業(yè),對硅谷進行了長達八年的追蹤報道,以局內(nèi)人視角剖析了AI產(chǎn)業(yè)背后的權(quán)力邏輯與利益格局。其新作《AI帝國:薩姆·奧特曼與OpenAI的夢想與噩夢》基于對250多位行業(yè)內(nèi)部人士的深度訪談(其中包括近百名OpenAI前雇員),是目前為止對AI產(chǎn)業(yè)內(nèi)幕記錄最系統(tǒng)的著作之一。這本書在全球范圍內(nèi)引發(fā)關(guān)于AI產(chǎn)業(yè)擴張模式的廣泛討論,連Sam Altman本人也專門發(fā)文回應(yīng)。

在這場對談中,郝珂靈提出了一個與行業(yè)主流敘事相悖的核心判斷:硅谷頭部AI公司正在復(fù)制古典帝國的擴張路徑,通過AGI末日論與解放人類的雙軌敘事制造恐慌,將技術(shù)的開發(fā)權(quán)與監(jiān)管權(quán)鎖定在少數(shù)精英手中,同時對全社會的數(shù)據(jù)資源、勞動力與基礎(chǔ)設(shè)施進行不受約束的攫取。

  以下是這場對談的核心內(nèi)容:

1. AGI末日論與烏托邦并存,本質(zhì)是一種商業(yè)控制策略

大眾往往被硅谷科技巨頭們描繪的未來所震懾:AI要么解決氣候變化和攻克癌癥,要么毀滅全人類。郝珂靈認為,這套極端的雙軌敘事,是AI巨頭們刻意設(shè)計的話語策略。

渲染技術(shù)災(zāi)難,核心目的并非向公眾示警,而是將AI的開發(fā)權(quán)與監(jiān)管權(quán)順理成章地集中到少數(shù)人手里?只胖圃炝艘惶鬃郧⒌倪壿嫞哼@項技術(shù)太危險,只有硅谷頭部大廠才有能力駕馭它。巨頭們同時通過不斷重新定義AGI的邊界,在規(guī)避外部監(jiān)管的同時,持續(xù)吸納大規(guī)模資本。

2. AI不會解放勞動力,而是會折斷中產(chǎn)階級的職業(yè)階梯

行業(yè)通行的敘事是:AI會淘汰低效工作,并創(chuàng)造我們難以想象的新崗位。但落到實處,這些新崗位正在制造一個龐大的底層勞工群體。

郝珂靈認為,裁員潮席卷之下,許多高學(xué)歷白領(lǐng)、創(chuàng)意工作者乃至行業(yè)專家,最終進入數(shù)據(jù)標(biāo)注行業(yè)維持生計。這類工作高度機械化、薪酬低廉,把人的專業(yè)經(jīng)驗壓縮成流水線上的廉價投入。更諷刺的是,這些前專業(yè)人士正在親手訓(xùn)練那些替代自身崗位的模型。職場的中間層就這樣被掏空——極少數(shù)高薪技術(shù)崗位在頂端,大量低階執(zhí)行性工作在底端,中間的晉升臺階正在消失。

3. 龐大的算力競賽, 正在擠占脆弱社區(qū)的基本生存資源

AI智能建立在極其沉重的能源消耗之上。隨著Scaling Law規(guī)模定律持續(xù)推進,硅谷巨頭們在全球瘋狂圈地,建立耗電量堪比整座城市的超大型數(shù)據(jù)中心。

選址上,硅谷科技大廠傾向于議價能力弱、阻力更小的邊緣社區(qū)。這些設(shè)施嚴重擠占當(dāng)?shù)鼐用竦娘嬘盟碗娏Γ瑸榫S持算力運轉(zhuǎn)而啟用的化石燃料發(fā)電廠,更向周邊社區(qū)持續(xù)排放污染物。發(fā)布會上的技術(shù)愿景,背后是被轉(zhuǎn)嫁給弱勢群體的環(huán)境成本與健康代價。

4. Sam Altman是下一個喬布斯,還是一個頂級操縱者?

郝珂靈采訪了超過300人后發(fā)現(xiàn),人們對Altman的評價比她報道過的任何科技人物都更極端,要么認為他是喬布斯級別的新一代領(lǐng)袖,要么認為他是極具操縱性的騙子。而這種分歧只取決于一件事:你是否認同他對未來的愿景。

更耐人尋味的是,那些與他共事最深、最了解他的人,恰恰是最終與他決裂的人:聯(lián)合創(chuàng)始人Ilya、CTO Mira Murati先后主導(dǎo)或參與了將他踢出局的行動,隨后相繼離開OpenAI。Dario Amodei、Elon Musk等人在與他合作后也各自出走,分別創(chuàng)立了競爭對手公司。郝珂靈的觀察是:他們每個人都想按照自己的形象來塑造AI,而與Altman共事的結(jié)果,是讓他們意識到這件事不能交給別人來做。

5.我們需要更多解決具體問題的自行車,而非不斷造火箭

如果任由大模型這條高耗能路徑野蠻擴張,整個社會的資源分配將面臨嚴峻考驗。郝珂靈認為需要重估AI技術(shù)的發(fā)展路線本身。

大語言模型如同火箭,消耗海量資源,只為解決泛化問題;社會真正需要的,是更多像AlphaFold那樣的自行車,以精選的小規(guī)模數(shù)據(jù),用極低能耗,在醫(yī)藥、材料等垂直領(lǐng)域創(chuàng)造切實的社會效益。AlphaFold用于蛋白質(zhì)折疊預(yù)測,已獲諾貝爾獎。對于創(chuàng)業(yè)者而言,盲目追逐"像人一樣思考"的通用大模型,是一場資源消耗的無底洞;貧w技術(shù)解決具體問題,才能走出硅谷大廠壟斷陰影。

  以下是郝珂靈訪談實錄:

1. AI帝國的神話構(gòu)建

主持人:現(xiàn)在讓我們正式開始今天的節(jié)目。郝珂靈,你寫了擺在我面前的這本書,書名叫做《Sam Altman的夢想與夢魘》(Dreams and Nightmares in Sam Altman’s OpenAI)。我想問的第一個問題是,為了撰寫我們今天要討論的這本書及相關(guān)主題,你經(jīng)歷了怎樣的研究過程和心路歷程?

郝珂靈:我進入新聞界的道路比較奇特。我曾就讀于麻省理工學(xué)院學(xué)習(xí)機械工程,畢業(yè)后搬到了舊金山,加入了一家科技初創(chuàng)公司。我成為了硅谷的一員,并在那里接受了關(guān)于硅谷究竟是什么的洗禮。當(dāng)時我加入了一家非常有使命感的初創(chuàng)公司,專注于開發(fā)應(yīng)對氣候變化的技術(shù)。然而幾個月后,董事會卻因為公司不盈利而解雇了CEO,F(xiàn)在回想起來,那對我來說是一個非常關(guān)鍵的轉(zhuǎn)折點。

我當(dāng)時就在想,如果這個創(chuàng)新中心最終只是為了開發(fā)盈利性技術(shù)而設(shè)計,而世界上許多亟待解決的問題(比如氣候變化)根本無法帶來利潤,那我們現(xiàn)在到底在做些什么?我們是如何發(fā)展到如今這個地步的:創(chuàng)新不一定是為了公眾利益,甚至有時為了追求利潤而損害公眾利益。在那一刻我經(jīng)歷了一場小小的職業(yè)危機。我覺得自己花了四年時間為這份職業(yè)做準(zhǔn)備,現(xiàn)在卻發(fā)現(xiàn)并不適合它。

于是我決定嘗試一些完全不同的事情。我一直很喜歡寫作,兩年后我在《麻省理工科技評論》獲得了一份全職報道AI的職位。這份工作給了我探索這些問題的空間:誰有權(quán)決定我們開發(fā)什么樣的技術(shù)?金錢和意識形態(tài)是如何驅(qū)動這些技術(shù)誕生的?我們最終如何才能真正重新構(gòu)想創(chuàng)新生態(tài)系統(tǒng)從而造福全球民眾?這就是我決定寫這本書的初衷。雖然當(dāng)時我并沒有意識到自己正在為寫書做準(zhǔn)備,但實際上從2018年接受那份工作開始,我就已經(jīng)踏上了調(diào)研書中故事的旅程。

主持人:現(xiàn)在確實是投身人工智能領(lǐng)域的絕佳時機。對于那些還不了解背景的人來說,你剛?cè)胄心菚䞍哼在OpenAI成立之前,而后來ChatGPT的發(fā)布震驚了世界。在撰寫這本書的過程中,你采訪了很多人,去了很多地方。你能大概介紹一下你采訪了多少人、去了世界上的哪些地方嗎?

郝珂靈:我進行了300多場訪談,采訪了250多人,其中90多人是OpenAI的前任或現(xiàn)任員工及高管。因此這本書涵蓋了OpenAI第一個十年的內(nèi)幕故事,以及它是如何走到今天這一步的。但我并不想僅僅寫一本企業(yè)傳記。我強烈地感覺到,為了幫助人們理解AI行業(yè)的影響,我們必須走出硅谷。這些公司總是宣揚AI將造福全人類,這也是他們的口頭使命。但當(dāng)你去到那些與硅谷截然不同的地方時,這種辭令就開始崩塌。那些地方的語言與硅谷完全不同,歷史和文化也存在著本質(zhì)上的差異。正是從那些地方開始,你才能真正看清這個行業(yè)在我們周圍擴張的真實面貌。

主持人:郝珂靈,通常我會嘗試主導(dǎo)對話,但在今天這種情況下,我覺得跟隨你的思路走或許是更好的選擇?紤]到這一點,我想問你,這段旅程應(yīng)該從哪里開始?如果我們討論該書的主題,應(yīng)該從哪里切入?是從泛指的AI和人工智能開始嗎?另外我想強調(diào)一點,這也是在各種對談中經(jīng)常被遺漏的,那就是讓我們假設(shè)目前的觀眾對AI一無所知。我們要假設(shè)他們不知道什么是Scaling Laws、GPU或算力之類的概念,盡量用最通俗易懂的語言來探討,或者將復(fù)雜的術(shù)語解釋清楚,讓盡可能多的人能夠聽懂。

郝珂靈:好的,我認為應(yīng)該從AI作為一個學(xué)科誕生時講起。追溯到1956年,一群科學(xué)家聚集在達特茅斯學(xué)院開創(chuàng)了一個新學(xué)科。這門科學(xué)學(xué)科懷揣著一種雄心壯志。具體來說,達特茅斯學(xué)院的一位助理教授John McCarthy決定將這門學(xué)科命名為人工智能。這并不是他最初構(gòu)想的名字。前一年他曾嘗試將其命名為自動機研究,但他的某些同事對這個名稱感到擔(dān)憂,因為它將這門學(xué)科的理念局限在了重塑人類智能上。在當(dāng)時以及現(xiàn)在,關(guān)于什么是人類智能,科學(xué)界并沒有達成共識。心理學(xué)、生物學(xué)和神經(jīng)學(xué)等領(lǐng)域都沒有給出明確的定義。

事實上,歷史上每一次試圖量化和劃分人類智能等級的嘗試,背后都是由邪惡的動機驅(qū)動的。這種行為往往是為了通過科學(xué)去證明某些群體天生劣于其他群體。AI領(lǐng)域缺乏明確的準(zhǔn)則,當(dāng)整個行業(yè)聲稱他們最終目標(biāo)是重建與人類一樣智能的AI系統(tǒng)時,并沒有任何衡量標(biāo)準(zhǔn)。我們甚至不知道該如何定義這個目標(biāo),如果不知道終點是什么,又怎么知道何時才能抵達呢?

這實際上意味著這些公司可以隨意使用通用人工智能(AGI)這個術(shù)語。AGI正是現(xiàn)在用來指代重現(xiàn)人類智能這一宏大目標(biāo)的詞匯。他們可以隨心所欲地使用它,并根據(jù)自身利益進行定義和重新定義。

在OpenAI的發(fā)展史上,AGI的定義就被反復(fù)修改過。當(dāng)Sam Altman在國會作證時,AGI是一個能夠治愈癌癥、解決氣候變化、消除貧困的系統(tǒng)。當(dāng)他向消費者推銷產(chǎn)品時,AGI則是你能擁有的最神奇的數(shù)字助手。當(dāng)他與Microsoft談判投資協(xié)議時,AGI被定義為一個能產(chǎn)生1000億美元收入的系統(tǒng)。而在OpenAI自己的官方網(wǎng)站上,AGI被定義為在大多數(shù)具有經(jīng)濟價值的工作中超越人類的高度自治系統(tǒng)。這根本不是一個關(guān)于單一技術(shù)的連貫愿景。這些截然不同的定義完全是針對特定受眾拋出的噱頭,目的是動員大眾抵制監(jiān)管,或者吸引更多消費者買單。該行業(yè)之所以這么做,只是為了獲取更多資本和資源以繼續(xù)這場定義模糊的技術(shù)狂飆。

主持人:談到隨時間演變的不同定義,2015年OpenAI正式宣布成立之前,Sam Altman在一篇博客文章中明確概述了生存風(fēng)險。他寫道,開發(fā)出超越人類水平的機器智能,可能是人類持續(xù)生存面臨的最大威脅;雖然他認為像人造病毒等其他威脅肯定會發(fā)生,但AI可能是最容易毀滅一切的方式。

郝珂靈:通常當(dāng)Altman面向公眾寫作或演講時,他心目中的受眾絕不僅限于普通公眾。在那個特定的時刻,他其實是試圖說服Elon Musk與他共同創(chuàng)立OpenAI。因為當(dāng)時的Musk正全身心地對AI可能帶來的巨大生存威脅發(fā)出警告。如果你去讀那篇博文,會發(fā)現(xiàn)Altman使用的語言與Musk當(dāng)時的話術(shù)如出一轍,完全反映了Musk的觀點。

主持人:完全一致。確實,十年前Musk就在播客、推文以及各種公開言論中表示,人類面臨的最大生存風(fēng)險就是AI。

郝珂靈:沒錯,所以你看他在博文的括號里還提到了其他可能發(fā)生的事情,比如人造病毒。這是因為在那之前,Altman一直談?wù)摰亩际侨嗽觳《。而為了拉攏Musk這個關(guān)鍵人物,他需要轉(zhuǎn)變話術(shù)來迎合對方。對于Altman來說,他需要化解一個矛盾,即他現(xiàn)在為了迎合Musk而提出的新核心恐懼與他之前的言論完全相悖。所以他才會巧妙地加上那句“我認為現(xiàn)在是這樣,盡管以前我曾說那是人造病毒”。

主持人:你的意思是Sam Altman操縱了Musk嗎?因為Elon Musk最終確實捐贈了巨額資金給OpenAI,并且是聯(lián)合創(chuàng)始人。

郝珂靈:Elon Musk最終確實與Altman共同創(chuàng)立了OpenAI。當(dāng)然從Musk的角度來看,他確實感覺被操縱了。他認為Altman在溝通時刻意迎合他,以此騙取他的信任并讓Musk將其視為這項事業(yè)的合伙人。不過后來Musk還是離開了OpenAI。通過Musk和Altman目前正在進行的訴訟中披露的文件可以看出,Musk在某種程度上實際上是被排擠出去的。這就是為什么他對Altman懷有如此強烈的個人恩怨,并聲稱Altman用欺騙的手段將他卷入了這一切。

主持人:所以在2015年,Sam Altman通過博客宣稱AI是人類最大的生存威脅之一。與此同時Musk也在發(fā)表著名的演講,比如在麻省理工學(xué)院稱AI是最大的生存威脅,甚至將開發(fā)AI比作召喚惡魔。而你剛才的觀點是,Sam Altman只是在模仿Elon Musk的語言,目的是拉攏他加入OpenAI。后續(xù)的發(fā)展也印證了這一點,目前的訴訟顯示Sam Altman可能在某種程度上將Elon Musk排擠出局了。

郝珂靈:從訴訟及披露的文件得知,當(dāng)時的OpenAI首席科學(xué)家Ilya Sutskever和首席技術(shù)官Greg Brockman決定成立營利實體時,面臨著由Musk還是Altman擔(dān)任CEO的問題。起初,他們選擇了Musk。但我通過報道發(fā)現(xiàn),Altman私下懇求了相識多年的好友Greg Brockman,指出讓Musk這位備受矚目且不可預(yù)測的名人擔(dān)任這家未來可能擁有超強力量的公司的CEO存在危險。這番話不僅說服了Greg,也讓Greg隨后說服了Ilya。最終他們改變了立場,希望Altman擔(dān)任CEO,而Musk則以不當(dāng)CEO就退出為由離開了。

2.Sam Altman的爭議形象與高層動蕩內(nèi)幕

主持人:聽起來Sam再次成功說服了別人。這引出了一個問題,你如何評價Sam Altman?

郝珂靈:我認為他是一個非常有爭議的人物。

主持人:你剛才的停頓很有意思,那是試圖字斟句酌時才有的停頓。

郝珂靈:采訪中最有趣的一點是,人們對Altman的評價極其兩極分化,要么認為他是堪比Steve Jobs的新一代偉大科技領(lǐng)袖,要么覺得他是一個極具操縱性的騙子。我采訪了很多人后意識到,這完全取決于你是否認同他對未來的愿景。如果你認同,你會覺得他非常有說服力,擅長講故事,在調(diào)動資本和招攬人才方面表現(xiàn)卓越,是你身邊最了不起的財富。但如果你不認同,你就會覺得自己在被他操縱去支持他的愿景。

Anthropic的CEO Dario Amodei就是典型的例子。他最初是OpenAI的高管,原以為Altman與自己志同道合,但后來漸漸發(fā)現(xiàn)兩人的想法背道而馳,并感覺Altman是在利用他的才智和技術(shù)去實現(xiàn)一個他根本不認同的未來愿景,因此心生反感。我報道科技行業(yè)超過八年,報道過Meta、Google和Microsoft等眾多公司,但在OpenAI和Altman身上,我看到了前所未有的兩極分化,人們甚至無法斷定他究竟是絕世天才還是極惡之徒。

主持人:你剛才提到了Dario,我發(fā)現(xiàn)真正有趣的是觀察人們的言論如何隨利益動機變化而演變。我查看了他們所有的公開言論,包括播客和博客文章。Dario曾是OpenAI的研究副總裁,后來去了Anthropic,他們在開發(fā)AI上采取了略有不同的方法。早在2017年他還在OpenAI時曾說過,最極端的情況是對AGI毀滅人類的恐懼,從原則上看并非不可能發(fā)生,發(fā)生人類文明級災(zāi)難的概率可能在10%到25%之間。你還提到了離開的OpenAI聯(lián)合創(chuàng)始人Ilya,我想問的第一個問題是,Ilya為什么要離開?

郝珂靈:這是一個非常好的問題。Ilya在試圖解雇Sam Altman的過程中起到了關(guān)鍵作用。隨著時間推移,他也漸漸覺得自己被Altman操縱去貢獻他不認同的東西。

主持人:你是怎么知道的?

郝珂靈:因為我采訪了很多人。Ilya深切關(guān)注兩大支柱:一是確保實現(xiàn)AGI,二是確保安全實現(xiàn)它。他認為Altman正在積極破壞這兩件事,在公司內(nèi)部制造混亂的環(huán)境,讓不同團隊互相競爭,對不同的人說不同的話。

主持人:你和他談過嗎?

郝珂靈:我曾在2019年為撰寫OpenAI人物專訪采訪過他。

主持人:當(dāng)時他說過一段話:“無論如何,AI的未來會很美好。如果對人類也美好那就太好了。這并不是說它會主動憎恨或傷害人類,而是它會變得極其強大。就像人類對待動物那樣,我們并不是因為討厭動物才修高速公路,只是因為修路對我們很重要,所以我們不會去征求動物的許可。默認情況下,這就是未來我們與AI的關(guān)系,它們將真正自主并代表自身利益運行。”

郝珂靈:我覺得我們應(yīng)該退一步思考:究竟什么是人工智能?我們所說的智能又是指什么?這很大程度上源于個人對“智能”的特定信念。在Ilya的整個研究生涯中,他和他的導(dǎo)師Geoffrey Hinton一直假設(shè)我們的大腦歸根結(jié)底是巨大的統(tǒng)計模型;谶@種假設(shè),他們堅信構(gòu)建基于統(tǒng)計模型的AI系統(tǒng)最終會帶來像人類一樣甚至超越人類的智能系統(tǒng)。

Ilya曾在一個AI研究會議上展示過一張圖表,顯示大腦容量與物種智力大致呈正相關(guān)。對他而言,既然大腦只是統(tǒng)計引擎,那么只要構(gòu)建一個比人腦更大的統(tǒng)計引擎,它就會變得更加智能,屆時我們將遭受與動物相同的待遇。但必須明白,這只是AI研究社區(qū)內(nèi)特定個體的科學(xué)假設(shè),關(guān)于它是否屬實存在很大爭議,主要的批評者認為將大腦簡單視為統(tǒng)計引擎是非常片面的。

主持人:為什么了解其機制如此重要?難道僅僅了解結(jié)果還不夠嗎?比如它能為我制作視頻,或者智能體能夠完成我的工作。了解其背后的機制對我們來說真的那么重要嗎?

郝珂靈:既重要也不重要。重要是因為這些公司正基于這一假設(shè)來采取行動。他們認定追求AGI需要不斷構(gòu)建越來越大的統(tǒng)計模型,這帶來了全球性的后果:他們瘋狂搜刮數(shù)據(jù)、建設(shè)數(shù)據(jù)中心,甚至剝削勞動力。

我認為有一個關(guān)鍵問題需要反思:我們?yōu)槭裁匆?gòu)建替代人類的AI系統(tǒng)?當(dāng)下的對話似乎默認了AI行業(yè)的前提就是好的,他們說該構(gòu)建AGI,我們就跟著附和?v觀歷史,技術(shù)的初衷始終是為了增進人類福祉,而不是取代人類。我對這些公司和科學(xué)家的核心批判就在于此:他們?nèi)P接受了這個目標(biāo),并利用巨額資本和龐大資源不懈追求。這真的是正確的目標(biāo)嗎?為什么我們不能只構(gòu)建那些能加速藥物研發(fā)、改善醫(yī)療成果的AI系統(tǒng)呢?那些系統(tǒng)與他們試圖復(fù)制人類大腦的統(tǒng)計引擎完全是兩回事。

主持人:那么他們?yōu)槭裁匆@么做?你采訪了大約300人,其中有八九十人來自O(shè)penAI。你認為他們執(zhí)意如此的原因是什么?

郝珂靈:我認為是因為他們受一種帝國議程的驅(qū)動,所以我稱這些公司為AI帝國。

3.AI帝國議程設(shè)置

主持人:你所說的“帝國議程”具體是什么意思?

郝珂靈:“帝國”是我發(fā)現(xiàn)唯一能完全概括這些公司運作規(guī)模及背后動機的詞匯。當(dāng)下的AI帝國與舊時代帝國有諸多相似之處:

首先,為了訓(xùn)練模型并建立超級計算設(shè)施,他們大肆圈地,侵占屬于個人的數(shù)據(jù)以及創(chuàng)作者的知識產(chǎn)權(quán);其次,他們在全球雇傭了數(shù)十萬名工人來制造這些技術(shù),卻將工具設(shè)計為以勞動力自動化為導(dǎo)向,這種政治選擇嚴重侵蝕了勞工權(quán)利;最后,他們壟斷了知識生產(chǎn),對外制造出只有他們才真正懂AI的假象。如果公眾不喜歡,他們就歸咎于公眾了解不夠。他們不僅以此對付公眾和政策制定者,還收買了絕大多數(shù)研究AI局限性和能力的科學(xué)家。

主持人:你認為他們在某種程度上是在對公眾進行情感操縱嗎?

郝珂靈:沒錯。試想一下,如果全球大多數(shù)氣候科學(xué)家都由化石燃料公司資助,我們還能了解氣候危機的真相嗎?同理,AI行業(yè)雇傭并資助了世界上大多數(shù)AI研究人員,通過將資金注入他們優(yōu)先考慮的項目來柔性設(shè)定研究議程。當(dāng)研究人員的發(fā)現(xiàn)不利于他們時,他們就會進行審查。

我在書中提到過Google倫理AI團隊前共同負責(zé)人Timnit Gebru博士的案例。她被雇傭的初衷是對Google的AI系統(tǒng)提出批評,但當(dāng)她合作撰寫了一篇揭示大語言模型如何導(dǎo)致有害后果的論文后,Google為了阻止論文發(fā)表,不僅解雇了她,還解雇了另一位共同負責(zé)人Margaret Mitchell。這就是他們控制并壓制不利于帝國議程研究的手段。

主持人:這種情況是否也發(fā)生在了向他們提問的記者身上?我曾看過你的一個視頻,里面有個年輕人提到,某家大型AI公司的人直接敲開他家的門,索要電子郵件和短信等信息。

郝珂靈:確實如此。OpenAI曾傳喚部分批評者,這既像是一場恐嚇,也像是一場旨在摸清批評者網(wǎng)絡(luò)的“釣魚”行動。那是一個經(jīng)營小型非營利監(jiān)督機構(gòu)的年輕人。在OpenAI嘗試從非營利組織向營利性企業(yè)轉(zhuǎn)型的關(guān)鍵時期,許多像Mitos這樣的公民社會團體試圖阻止這一過程暗箱操作,爭取更高的透明度并引發(fā)公眾辯論。就在那時,有人敲開了他的門,遞交了法律文件。這些文件要求他提供所有與馬斯克可能涉及的溝通記錄。這反映了OpenAI一種奇怪的偏執(zhí),他們認定馬斯克在資助這些人阻撓公司轉(zhuǎn)型。但實際上,他們中沒有任何人受馬斯克資助。所以面對這個請求,他只能無奈地表示自己拿不出任何文件,因為這些溝通根本就不存在。

主持人:你剛才提到,帝國的特征之一是土地掠奪,接下來的一個是勞動力剝削,第三點是控制知識生產(chǎn)。

郝珂靈:關(guān)于這些AI帝國,另一個非常重要且需要理解的特點是,它們總是擁有一種敘事方式。它們對公眾宣稱:“我們是正義的帝國。首先我們需要成為一個帝國,因為世界上還存在著邪惡的帝國。如果你們允許我們獲取所有資源并使用所有勞動力,我們承諾將為每個人帶來進步與現(xiàn)代化,帶大家進入類似于AI天堂的烏托邦狀態(tài)。但如果邪惡帝國搶先一步,我們將墜入地獄。”

主持人:那么這里的邪惡帝國是指?

郝珂靈:實際上在早期,OpenAI曾將Google視為邪惡帝國。所以他們所有的決策都圍繞著:“我們必須搶先一步,否則Google這家受利潤驅(qū)動的邪惡公司就會勝出,而我們是一家仁慈的非營利組織。”他們認為這是一場關(guān)乎誰能勝出的關(guān)鍵競爭。

主持人:你認為那些建立這些AI公司的人,真的相信結(jié)果會造福每個人、開啟一個富足的時代嗎?你覺得他們到底相信什么?或者說,你認為Sam Altman真正相信的是什么?

郝珂靈:這太有意思了。他們圍繞AI行業(yè)構(gòu)建的神話中,有一個核心部分就是他們相信事情可能會變得非常糟糕,這兩者是相輔相成的。他們需要這部分神話來為自己辯護:“這就是為什么我們需要掌控這項技術(shù),因為這是確保它順利發(fā)展的唯一途徑。”

Altman曾公開表示,最壞的情況是所有人都玩完,但最好的情況是我們治愈了癌癥、解決氣候變化并迎來物質(zhì)極大豐富。Dario Amodei也是同樣的辭令,聲稱最壞的情況是對人類造成生存性傷害,最好的情況是實現(xiàn)人類的大規(guī)模繁榮。這如同硬幣的兩面,他們必須同時利用這兩種敘事,為一種極其反民主的AI開發(fā)方式持續(xù)辯護,主張這種技術(shù)的開發(fā)不應(yīng)有廣泛參與,他們必須在每一步都將其牢牢掌控。

主持人:Sam Altman發(fā)了一條推文說:“有幾本關(guān)于OpenAI和我的書即將出版。我們只參與了其中的兩本。沒有哪本書能做到事事準(zhǔn)確,尤其是當(dāng)某些人執(zhí)意要歪曲事實的時候,但這兩位作者確實在努力嘗試。”你轉(zhuǎn)推了那條推文并寫道:“那本未點名的書正是我的作品。”你認為Sam Altman那條推文是指向你的書嗎?

郝珂靈:100%確定,因為目前只有三本關(guān)于他的書即將出版。他知道我的書要出版,因為我從創(chuàng)作伊始就聯(lián)系了OpenAI詢問他們是否愿意參與,事實上他們最初也答應(yīng)了。我與OpenAI的淵源在于,2019年我曾為MIT Technology Review撰寫過該公司的深度報道,在他們辦公室進行了為期三天的嵌入式采訪。

我的人物專訪在2020年發(fā)布后,領(lǐng)導(dǎo)層對此非常不滿。在我的書中,我實際引用了一封Sam Altman發(fā)給全公司的郵件,他在信中明確表示那篇報道不太妙。從那時起,公司對我的態(tài)度就是拒絕參與我做的任何事情,不回應(yīng)任何采訪請求。整整三年時間,他們都拒絕和我交談。后來我去了Wall Street Journal,因為是頂級大報,他們感到有些被迫重新開啟溝通渠道。每當(dāng)我寫完文章發(fā)給他們請求評論或采訪時,我們確實建立了一種更具建設(shè)性的關(guān)系。

后來我離職全職寫這本書,立刻告訴他們希望繼續(xù)這種建設(shè)性對話,以確保書中能準(zhǔn)確反映OpenAI的觀點。他們答應(yīng)安排采訪,但在我們反復(fù)溝通安排日程時,董事會解雇了Sam Altman。從那時起情況開始惡化,公司對外界的審視變得非常敏感,開始采取拖延戰(zhàn)術(shù)。我一直追問重新安排面試的事情,結(jié)果收到郵件說他們根本不打算參與了。當(dāng)時我已經(jīng)訂好了飛往舊金山的機票,我告訴他們沒關(guān)系,我依然會按照流程發(fā)送詳盡的置評請求。我發(fā)了40頁的置評請求,給了一個多月的時間讓他們回應(yīng)。就在我們反復(fù)交涉時,Altman發(fā)布了那條推文。他們從未對那40頁中的任何一頁做出過回應(yīng)。

主持人:Sam Altman上過每一個播客,從Tucker Carlson到Theo Von、Joe Rogan等世界各地的節(jié)目。我在想他為什么不接受我的采訪。我覺得我對每個人都很公平,只問我真正關(guān)心的問題,不會帶著很深的成見進來,也不會讓任何人難堪,即使我有不同的意見也是如此;氐侥阒疤岬降年P(guān)于OpenAI和這些公司控制研究的方式,你問過他們是否對記者也這樣做。顯然他們對任何擁有廣大大眾傳播平臺的人都會這么做。這不僅關(guān)乎你與他們的對話,還關(guān)乎你選擇讓誰登上你的平臺。

郝珂靈:確實如此,而且我認為普通大眾并沒有真正理解這一點?萍夹侣勵I(lǐng)域存在一個巨大的問題:公司深知他們能給科技記者的一個巨大誘餌就是準(zhǔn)入權(quán)。一旦他們察覺到你在和他們不希望你接觸的人交談,他們會毫不猶豫地撤回這種準(zhǔn)入權(quán)。

主持人:AI領(lǐng)域有一個特定的團隊,基本上用準(zhǔn)入權(quán)作為誘餌吊了我們大約18個月。我的態(tài)度是無論有沒有好處,我想跟誰談就跟誰談。如果有機會交流,我會帶著強烈的好奇心請教他們的工作和動機。但他們的全部策略就是永遠在前面掛著一根胡蘿卜,認為只要用資源誘惑,記者就會表現(xiàn)得客客氣氣,不會提出批評,也不會為批評者提供平臺。

郝珂靈:這是他們運作機制中非常重要的一部分,利用這些策略來粉飾公司的公眾形象,并確保不利的信息和觀點不會流傳出去。我現(xiàn)在非常慶幸OpenAI很早就對我關(guān)上了大門。當(dāng)時我并不覺得這是一種幸運,甚至覺得自己把事情搞砸了,反思我是不是應(yīng)該在人物專訪里對他們更客氣一點,好讓自己能維持獲取信息的渠道。但作為一名記者,產(chǎn)生這種想法簡直是種恥辱。記者應(yīng)該報道事實,并且始終為了公眾利益進行報道。那扇正門永遠不會對我敞開,這反而極大地增強了我實話實說的能力。無論公司喜歡與否,我只客觀匯報呈現(xiàn)在我面前的事實。他們不需要為我敞開大門,我依然完成了300多場采訪。

主持人:Sam Altman被踢出了OpenAI的執(zhí)行團隊,你查清楚那是為什么了嗎?消息來源是誰?

郝珂靈:是的,我還原了當(dāng)時的場景。大約有六到七個人直接參與了決策過程,或者曾與直接參與決策的人交談過。當(dāng)時Ilya Sutskever看到Altman的行為正導(dǎo)致公司研究成果不佳以及決策失誤,于是他去找了獨立董事Helen Toner傾訴。由于擔(dān)心被Altman發(fā)現(xiàn)會面臨嚴重后果,Ilya在第一次見面時含糊其辭,試圖摸清情況并判斷對方是否值得信任。確認之后,Ilya主動與Helen交流,了解她是否也觀察到了Altman對公司產(chǎn)生的負面影響。隨后,首席技術(shù)官Mira Murati與部分董事會成員也進行了溝通。

這兩位高管通過匯總的電子郵件、Slack消息等文件資料,向三位獨立董事傳達了對Altman領(lǐng)導(dǎo)能力的深切擔(dān)憂,指出他給公司制造了太多的不穩(wěn)定性,挑撥團隊互相競爭,破壞了員工之間的信任,導(dǎo)致大家無法為這項重要技術(shù)進行有效協(xié)作。

主持人:你提到“不穩(wěn)定”,這是一個相當(dāng)模糊的詞,可能意味著通過施壓讓員工更努力地工作。你所說的不穩(wěn)定具體是指什么?請盡可能詳細地說明。

郝珂靈:當(dāng)ChatGPT問世時,OpenAI完全沒有做好準(zhǔn)備。他們沒預(yù)料到會引起巨大轟動,原以為發(fā)布的只是一個研究預(yù)覽版,旨在收集數(shù)據(jù)啟動飛輪,為日后搭載GPT-4的真正產(chǎn)品提供參考。由于流量遠超預(yù)期,服務(wù)器經(jīng)常崩潰,他們必須以前所未有的速度擴展基礎(chǔ)設(shè)施并瘋狂招聘。

但擴張過快也導(dǎo)致了決策失誤,公司頻繁裁員,員工經(jīng)常突然從Slack上消失,同事們只能通過這種方式得知他人離職。那是一個極度混亂的高壓環(huán)境。最重要的是,Mira Murati和Ilya Sutskever覺得Altman讓情況變得更糟了,他實際上在播種更多的混亂,讓團隊變得更加分裂。高管和獨立董事們都在構(gòu)建AGI的理念下運作,他們認為這項技術(shù)對人類要么是毀滅性的要么是烏托邦式的。在他們看來,絕對不能在如此混亂高壓的環(huán)境下,去創(chuàng)造一項足以決定世界成敗的技術(shù)。董事們私下討論時也認為,雖然在Instacart這樣的普通初創(chuàng)公司,這些行為未必足以解雇CEO,但OpenAI肩負的使命完全不同,這些問題已經(jīng)達到了必須撤換他的標(biāo)準(zhǔn)。

此外,獨立董事Adam D'Angelo在舊金山參加派對時聽到傳聞,指出OpenAI創(chuàng)業(yè)基金的設(shè)立方式有些蹊蹺。獨立董事們查閱文件后震驚地發(fā)現(xiàn),OpenAI創(chuàng)業(yè)基金竟然是Altman個人的基金。這些事件讓董事們意識到,Altman對外描繪的愿景與實際執(zhí)行情況之間始終存在著嚴重的不一致。

當(dāng)高管們帶著擔(dān)憂找到董事會時,雙方的觀察完全吻合。經(jīng)過每天密集的會議商討,他們最終得出結(jié)論必須罷免Altman。為了防止Altman察覺后利用其極強的說服力扭轉(zhuǎn)局勢,他們決定必須迅速行動。于是,他們在沒有提前告知任何利益相關(guān)者的情況下秘密解雇了Altman。作為OpenAI領(lǐng)投方的Microsoft直到行動前才接到電話通知。這種將所有利益相關(guān)方排除在外的做法激怒了所有人,這也直接導(dǎo)致了隨后那場迎回Altman的行動,幾天后他便重新出任CEO。

主持人:一家大公司的CEO是如何因為董事會成員而被董事會解雇的。在你的書第357頁有一段引言,你提到Ilya曾說過:“我不認為Sam是那個應(yīng)該掌控AGI啟動按鈕的人。”現(xiàn)在我也在問自己這個問題。我和這里的很多人一起工作,我們公司有150名員工,這些人最了解我。他們看到鏡頭前的我,也看到鏡頭后的我。如果他們說“我們認為Stephen不適合主持《Diary of a CEO》”,能讓他們說出這種話一定是發(fā)生了非同尋常的事情。他們肯定在鏡頭之外見識了一些糟糕的情況才會認為我不適合出現(xiàn)在鏡頭前。

而在AI領(lǐng)域,其影響遠比一個播客節(jié)目深遠得多。想到一家公司的聯(lián)合創(chuàng)始人去找董事會說“他不適合領(lǐng)導(dǎo)這個至關(guān)重要的項目”,簡直讓人不寒而栗。而且不僅僅是Ilya,Mira Murati隨后也表示不認為Altman是合適的人選。隨后他們兩人都離開了。接著Altman回歸了,Ilya再也沒有回來。他之前擔(dān)心被Altman發(fā)現(xiàn)會對自己不利,這種顧慮最終變成了現(xiàn)實。

郝珂靈:Mira Murati也在那之后不久離開了。這些人中相當(dāng)一部分都離開了OpenAI,不是嗎?回顧OpenAI的起源故事,它始于硅谷核心地帶Rosewood Hotel舉行的一場晚宴,那是Elon Musk來灣區(qū)時最喜歡的去處之一。Altman打算在那場晚宴上招募最初創(chuàng)立OpenAI的元老團隊,他到處跟人說Musk會來參加。他給Ilya發(fā)了冷郵件并成功邀請了他,因為Ilya特別想見Musk。他還給Greg Brockman、Dario Amodei等人發(fā)了郵件,這些人最終都去了OpenAI工作。但在與Altman發(fā)生沖突后他們幾乎所有人都離開了。Ilya離開后創(chuàng)辦了一家名為Safe Superintelligence的公司。

主持人:這真是我聽過最委婉的影射了。如果有人和我共同創(chuàng)辦了這個播客,離開后又創(chuàng)辦了一個名為“安全播客”的節(jié)目,我會覺得這是一種輕蔑。

郝珂靈:每一位科技億萬富翁都擁有自己的AI公司,這絕非巧合。他們想要按照自己的形象來創(chuàng)造AI,這正是他們一直相處不睦的原因。共事之后他們最終反目成仇,各自獨立建立了自己的組織。Musk離開后創(chuàng)立了xAI,Dario創(chuàng)立了Anthropic,Ilya創(chuàng)辦了Safe Superintelligence,Mira創(chuàng)辦了Thinking Machines Lab。他們希望掌控自己對這項技術(shù)的愿景,從將愿景投入市場的經(jīng)驗中他們得出的最佳途徑就是創(chuàng)建一個競爭對手,與OpenAI及市面上所有其他公司展開競爭。

主持人:你是否認為有些AI公司已經(jīng)意識到自己簡直就是在“召喚惡魔”(正如Elon Musk十年前所說),但他們其實并不在乎?因為成為召喚惡魔的人會讓你變得舉足輕重、權(quán)勢顯赫并名垂青史,哪怕有20%的概率會導(dǎo)致可怕的后果。Dario曾說過大約有10%到25%的概率事情會向著人類文明規(guī)模的災(zāi)難性方向發(fā)展。25%就是四分之一的機會。如果在只有四個彈巢的左輪手槍里裝進子彈,說代價是腦袋挨一槍但可能成為億萬富翁并被永遠銘記,我絕不會去冒這個險打這個賭。

郝珂靈:這完全取決于如何定義“召喚惡魔”。AI行業(yè)利用了一種神話體系,“召喚惡魔”是說服所有人的關(guān)鍵環(huán)節(jié),旨在讓人相信只有他們才是唯一能開發(fā)這項技術(shù)的人。

這意味著必須由他們來做,且公眾必須給予資金和支持。所以當(dāng)他們說這些話時,我們應(yīng)將其理解為一種言語行為,旨在說服他人讓渡更多的權(quán)力和資源。這并非基于事實做出的真實預(yù)測,因為他們不是在預(yù)測未來而是在創(chuàng)造未來。他們是在刻意向公眾營造這種氛圍,這是其權(quán)力的核心組成部分。

至于他們是否意識到這已經(jīng)對全球弱勢群體產(chǎn)生了極其嚴重的負面影響,也許有也許沒有,但他們其實并不在乎。我有時用《沙丘》來類比AI世界。故事中保羅·厄崔迪步入了一個早已播種在星球上的神話,他利用救世主降臨的理念來控制民眾。起初他深知這只是個神話,但隨著全身心投入并成為其化身,界限開始模糊,他分不清這究竟是神話還是自己真的是救世主。

我認為這正是AI領(lǐng)域正在發(fā)生的事情。這些高管在積極進行神話塑造。我掌握的內(nèi)部文件顯示,他們非常敏銳地意識到如何通過令人眼花繚亂的技術(shù)演示吸引公眾,精心設(shè)計完美的使命感讓人們對公司更寬容。他們中的許多人也沉溺于這個神話中,因為他們必須日復(fù)一日地體現(xiàn)這個神話。當(dāng)Dario說有10%到25%的災(zāi)難概率時,他正積極參與并迷失在神話塑造中。由于需要籌集天文數(shù)字的資金來資助AI研究和建設(shè)數(shù)據(jù)中心,他們無時無刻不在融資。你不能一邊籌款一邊說“我有25%的可能性毀掉你孩子的未來”。大腦會產(chǎn)生認知失調(diào),難以同時持有兩種沖突的世界觀。

主持人:你認為他們中有人比其他人擁有更強的道德準(zhǔn)則嗎?Dario經(jīng)常被認為更有骨氣,對后果也更有意識。

郝珂靈:我認為這個問題并不重要。即使把所有CEO都換成更有道德感的人也無法解決問題。核心問題是我們已經(jīng)構(gòu)建起了一套權(quán)力體系,這些公司和高管可以做出影響全球數(shù)十億人生活的決策,而這數(shù)十億人對此沒有任何發(fā)言權(quán)。這并不是公眾投票選出一位承諾立法的領(lǐng)導(dǎo)人就能解決的?紤]到這些公司運作的速度、節(jié)奏以及龐大的體量,他們完全能夠揮霍數(shù)億美元試圖扼殺任何阻礙他們的立法,并制定確立自身優(yōu)勢的法案。作為一個社會我們有時過于執(zhí)著于討論這些領(lǐng)導(dǎo)人到底是好人還是壞人。

更大的問題是我們創(chuàng)建的治理結(jié)構(gòu)是健全且允許廣泛參與的,還是一個將決策權(quán)鞏固在少數(shù)人手中的反民主結(jié)構(gòu)。沒有人是完美的,無論誰坐在頂層,都沒有能力代表世界上有著不同文化和歷史的大多數(shù)人做出絕對正確的決定。這就是為什么在歷史進程中人類從帝國走向了民主。因為帝國作為一種結(jié)構(gòu)本質(zhì)上是不穩(wěn)定的,它不能最大限度地讓大多數(shù)人過上體面的生活。

4.AI技術(shù)進步的初衷與未來

主持人:說實話我覺得我對很多領(lǐng)域都略知一二。

郝珂靈:是的,而且你具備自主學(xué)習(xí)和獲取知識的能力,也有能力自主選擇學(xué)習(xí)內(nèi)容。人類可以在一個地方學(xué)會開車然后立刻將能力遷移到另一個地方。目前的AI模型無法做到這一點。每當(dāng)自動駕駛汽車轉(zhuǎn)移到新地點時,必須針對該地點進行完全的重新訓(xùn)練。

主持人:但是當(dāng)一輛自動駕駛汽車或者一臺Optimus機器人在工廠里學(xué)習(xí)到新東西時,所有的設(shè)備就都學(xué)會了。

郝珂靈:這僅僅是因為它們共享同一個底層操作系統(tǒng)中的AI模型組件。你在訓(xùn)練這個AI模型,然后將它部署到了所有設(shè)備上。

主持人:想象一下那樣的場景,如果我們?nèi)祟惸軌驅(qū)W習(xí)所有其他人類所掌握的知識,那將賦予我們難以置信的競爭優(yōu)勢。我的意思是,人類實現(xiàn)這一目標(biāo)的方式之一就是通過溝通。

郝珂靈:但實際情況可能并非如此,因為系統(tǒng)可能會學(xué)到錯誤的東西。這種情況在現(xiàn)有技術(shù)中已經(jīng)屢見不鮮,所有模型似乎都會學(xué)到錯誤的內(nèi)容,并且擁有相同的失效模式。相比之下,人類社會的韌性部分源于我們擁有不同的專業(yè)知識,也擁有不同的失效模式。

主持人:我認為有時我們對AI模型的標(biāo)準(zhǔn)甚至比對人類的要求還要高。說起來挺奇怪的,我在奧斯汀的臺上經(jīng)常聽到人們抱怨:“AI模型有時會產(chǎn)生幻覺。”我心想,難道你沒見過人類嗎?我隨時都在產(chǎn)生幻覺,我?guī)缀醪粫磳,也不會做?shù)學(xué)題。

郝珂靈:是的,但這更像是在領(lǐng)域初期為了營銷這些技術(shù)而專門挑選的類比。我們反復(fù)使用“智能”來類比,并將這些機器與人類智能聯(lián)系起來,試圖以此衡量它在社會中是否良好、有價值或有能力。

主持人:但我認為輸出結(jié)果才是影響最深遠的東西。即便它擁有一個完全不同的系統(tǒng),關(guān)鍵在于它是否達到了同樣的水平。比如,它能否為大腦進行手術(shù)?能否開車?在洛杉磯,我的車就是自動駕駛的,我可以好幾個小時不用碰方向盤。在奧斯汀,我前幾天剛見過取消了方向盤和踏板的全新CyberCab。我覺得它是否使用了不同的系統(tǒng)并不重要,如果它在現(xiàn)實世界中行駛且擁有比人類更高的安全記錄,那么無論是否具備所謂智能,對我而言都是可以接受的。

郝珂靈:但這并不是你最初提出的論點,即這些系統(tǒng)將基于預(yù)測,在不同領(lǐng)域普遍變得更加智能。

主持人:這也是目前所有AI領(lǐng)域大咖都在做的預(yù)測,包括Ilya、Dario、Elon、Zuckerberg、Altman和Demis。

郝珂靈:你知道所有這些預(yù)測的共同特征是什么嗎?他們從這個神話中獲取了巨額利潤。

主持人:Elon最近在孟菲斯建造了擁有10萬個GPU的巨型超級計算機Colossus,專門用于比競爭對手更快地擴展其Grok模型。

郝珂靈:似乎大家達成了一個共識,即可以通過暴力破解的方式來實現(xiàn)更強大、更通用的智能,并將其出售給人們,用于自動化某些具有豐厚經(jīng)濟回報的任務(wù)。

主持人:我聽Elon說過,如果你是一名外科醫(yī)生,學(xué)習(xí)這些根本沒有意義,因為幾年之內(nèi),Optimus和AI總體上將比歷史上任何一位外科醫(yī)生都要出色。你認為這些預(yù)測是真的嗎?

郝珂靈:我很確定Hinton曾說過那句名言:未來將不再需要放射科醫(yī)生。他當(dāng)時設(shè)定了一個期限,而我們現(xiàn)在已經(jīng)過了那個期限,放射科作為一個職業(yè)目前發(fā)展得依然很好。

主持人:你認為五年后還會是這樣嗎?

郝珂靈:這要回到我們?yōu)槭裁匆_發(fā)技術(shù),以及為什么需要開發(fā)AI的問題。對我而言,技術(shù)進步的初衷并不是為了發(fā)展而發(fā)展,而是為了幫助人類。已有大量研究表明,在醫(yī)療場景中,對患者最好的結(jié)果是讓放射科專家將AI模型作為工具和參考輸入。正是這種結(jié)合實現(xiàn)了對某些癌癥最準(zhǔn)確、最及時的診斷,從而改善了患者的預(yù)后。

主持人:你是否相信在未來幾年內(nèi),路上幾乎所有的車都會實現(xiàn)自動駕駛?

郝珂靈:我不這么認為。

主持人:為什么?

郝珂靈:因為這項技術(shù)的工作原理是統(tǒng)計性的。目前AI模型的主要開發(fā)方式是統(tǒng)計引擎,即所謂的神經(jīng)網(wǎng)絡(luò),這是一種包含大量密集連接節(jié)點的軟件,也就是人們常說的參數(shù)。你向其中輸入海量數(shù)據(jù),它通過分析數(shù)據(jù)找出所有的相關(guān)性和模式,機器正是通過這些模式實現(xiàn)自主運行。

在訓(xùn)練自動駕駛汽車時,研發(fā)人員會記錄大量的視頻素材,并雇傭成千上萬的人類外包人員為素材中的每一輛車、每一個行人、每一個紅綠燈和每一條車道線進行手動標(biāo)注。這些數(shù)據(jù)輸入AI模型后,模型就能識別這些組件。接著,它被連接到另一個非AI的軟件程序,該程序會發(fā)出確定性的指令,比如“識別到行人就不準(zhǔn)碰撞”或“識別到紅燈就停車”。統(tǒng)計引擎的特點在于它是基于概率而非確定性邏輯的,因此系統(tǒng)隨時都會出錯。從技術(shù)上講,目前根本不可能讓它們完全停止犯錯。

主持人:在這種情況下,人類犯錯的概率難道不比系統(tǒng)高嗎?安全記錄顯示,在Tesla自動駕駛模式下行駛的安全性要比人類駕駛員高出10倍。

郝珂靈:這取決于具體地點,以及Tesla是否針對該特定區(qū)域進行過專門的導(dǎo)航訓(xùn)練。

主持人:但人類會醉駕。如果在孟買或越南的某些地方,難道自動駕駛不會更安全嗎?

郝珂靈:在那些地方,我并不認為它會更安全。我更愿意由一個一輩子都在當(dāng)?shù)亻_車的人來載我。我并不是要反駁在某些經(jīng)過專門訓(xùn)練的特定地點,AI的安全記錄確實優(yōu)于人類。但你問的是全球或全美國的大多數(shù)汽車,我認為這并沒有近在咫尺。

主持人:那10年內(nèi)呢?我曾和Uber的Dara聊過,他確信他的900萬名配送員將被自動駕駛車輛取代。

郝珂靈:自動駕駛汽車已經(jīng)研發(fā)超過10年了,但目前公路上自動駕駛汽車的比例又是多少呢?它永遠不會達到100%。這在一定程度上已經(jīng)不再是技術(shù)問題,而是社會信任和法律責(zé)任的問題。如果自動駕駛汽車撞了人,誰該負責(zé)?

主持人:在洛杉磯的一個案例中,由于駕駛員低頭撿手機,Tesla和駕駛員都被判定負有責(zé)任。就Tesla而言,現(xiàn)在Model Y是全球最暢銷的汽車,而且絕大多數(shù)車輛都配備了被稱為“受監(jiān)督的全自動駕駛”的功能。那仍然只是部分自動駕駛,因為你必須保持關(guān)注。而在奧斯汀看到的新款車上,因為沒有方向盤,那是真正的全自動駕駛。

5.AI時代的勞工困境

我想探討的是,那些聲稱AI將徹底改變交通、法律和會計行業(yè)的預(yù)測。你認為會出現(xiàn)大規(guī)模的失業(yè)潮嗎?

郝珂靈:我確實認為就業(yè)市場將受到巨大的沖擊,我們已經(jīng)看到了這些影響。這不僅僅是因為AI模型通過自動化取代了這些工作,更是因為開發(fā)公司選擇的改進方向。很多時候管理層僅僅因為認為AI可以取代員工就決定裁員,無論模型的能力是否真的達標(biāo),他們寧愿要一個價格便宜且夠用的模型。有時他們只是在招聘上犯了錯導(dǎo)致團隊搞垮,而AI成了一個非常方便的借口。

比如Klarna的CEO曾解雇了一大批人,以為可以用AI取代所有人,結(jié)果行不通又不得不請人回來。我專門就這件事給Sebastian發(fā)了私信,他說媒體誤解了他的推文,他們正比以往任何時候都更加倍投入AI。由于AI的應(yīng)用,Klarna的員工人數(shù)正以每月近一百人的速度縮減,從七千四百人的峰值降到了三千人左右。AI處理了他們70%的客服對話,因為軟件的生產(chǎn)成本幾乎降到了零。就像代碼現(xiàn)在由機器生成一樣,最終我們會為那些獨特的人造成果支付比以往更高的報酬。Klarna作為一家銀行,人們希望與有感情、能引起共鳴甚至帶有瑕疵的人建立聯(lián)系,而不僅僅是機器。因此他們需要在推進AI自動化的同時提供極易獲取的人性化體驗。

主持人:你看到Anthropic本周發(fā)布的報告了吧?簡而言之它的內(nèi)容和你剛才說的很吻合。Anthropic深入研究了人們究竟是如何使用他們的模型的,發(fā)現(xiàn)初級職位的數(shù)量減少了40%。他們在網(wǎng)上瘋傳的圖表預(yù)測,雖然建筑和農(nóng)業(yè)等物理世界的實體工作尚未受影響,但行政、金融、數(shù)學(xué)、法律和醫(yī)療保健等領(lǐng)域?qū)⑹桩?dāng)其沖。包括媒體和藝術(shù)領(lǐng)域,這么看我快徹底完蛋失業(yè)了。

郝珂靈:顯然他們非常關(guān)注助理類和管理類的工作。目前存在兩種二元對立的敘事:一種是AI將取代每一份工作,另一種是AI實際上并不起作用。事實是AI確實正在取代工作。每一波自動化浪潮都會用自動化取代大量入門級工作,同時創(chuàng)造新的崗位。

但這些新崗位分為兩類:一類是技能要求和報酬更高的高階職位;另一類則是變得糟糕得多的底層崗位。比如很多營銷人員被解雇后,最終去數(shù)據(jù)標(biāo)注公司工作,專門教導(dǎo)AI模型去自動化他們剛剛失去的那個崗位。如果該模型掌握了那項技能,又會導(dǎo)致更多的裁員。這成了一個吸收失業(yè)人群的去處,甚至包括好萊塢一些屢獲殊榮的導(dǎo)演也在秘密從事數(shù)據(jù)標(biāo)注糊口。這打破了職業(yè)晉升階梯。入門級和中層職位被掏空,取而代之的是極少數(shù)的高階職位和大量更低階的職位。階梯上已經(jīng)沒有橫桿了,人們該如何繼續(xù)職業(yè)晉升呢?

主持人:我實際上也不知道答案。我一直在拼命為我的觀眾尋找最佳答案。大家聽到了許多不同的說法,比如Jack Dorsey發(fā)推文稱因為AI的緣故正將員工人數(shù)減半,大家不知道什么是真實的,也不了解其公司內(nèi)部的經(jīng)濟狀況,這或許只是為了讓投資者覺得他們是AI公司從而拉升股價的借口。

我自己有數(shù)百名團隊成員,投資了大概七十家公司,我也把自己當(dāng)作招聘負責(zé)人。過去一個月里我遇到過文化契合度非常好的候選人,但我不得不陷入深深的思考。因為當(dāng)我嘗試讓AI智能體去完成完全相同的工作時,尤其在一個開放的Claude世界中,答案正日益趨向于可以。

郝珂靈:現(xiàn)在你面臨這樣一個抉擇:在短期內(nèi)你完全可以選擇AI智能體,但從長期來看職業(yè)晉升階梯將不復(fù)存在。你會提拔什么樣的人進入高級職位?你是如何在自己的公司里解決這個問題的?

主持人:這是一個好問題。關(guān)于這一點,我大概有兩種思考方式。我認為深厚的專業(yè)知識非常有價值。如果你現(xiàn)在是潛在的AI Agent編排者,關(guān)鍵在于對該問什么樣的問題有深刻理解,而這正是擁有深厚專業(yè)知識的人所具備的。如果我的CFO要負責(zé)協(xié)調(diào)智能體團隊執(zhí)行財務(wù)分析等任務(wù),她需要明白如何指揮它們在公司內(nèi)開展工作,一名實習(xí)財務(wù)分析師是做不到的。他們需要像Claire那樣擁有五十多年的豐富經(jīng)驗。另一方面,我需要像Kaz這樣的人。25歲的日本小伙Kaz對AIAgent了如指掌,他好奇心極強,周末都在構(gòu)建AIAgent來解決生活中的問題。

我需要這兩種非常精通的思維方式。一種是代理效能最大化(Agent Maxing),這類人通常是年輕人,他們必須全身心投入且擁有極強的好奇心,這在我的業(yè)務(wù)中產(chǎn)生了力量倍增器的效應(yīng);另一種就是深厚的專業(yè)知識。除此之外,我還想到了第三類群體,就是擁有極強線下社交技巧的人。我們在現(xiàn)實生活中確實需要與人見面,比如迎接來訪客、與大客戶共進午餐并進行應(yīng)酬。我們的團隊有很多線下活動,同時也在全球各地舉辦社區(qū)活動,所以我們需要擅長在線下將人們聚集在一起并組織事務(wù)的人才。這三類人是我認為目前無法被取代的。

郝珂靈:如果那些可以由AI智能體承擔(dān)的角色都被取代了,按照目前的軌跡繼續(xù)發(fā)展下去,你認為是否還能保留這三類角色,以及從中選拔、晉升人才的儲備庫,以完成長期所需的這三項關(guān)鍵任務(wù)?

主持人:有人斷言即使是那些角色也會感受到壓力。如果你把事物的發(fā)展看作指數(shù)級的進步,甚至只是10%的復(fù)合增長率進步,在某個時刻我認為剩下的實際上是不可替代的人類特質(zhì),也就是人與人之間面對面交流的馬斯洛需求。這一點不會改變,我們需要連接。當(dāng)人類生活中缺乏他人的連接和深厚的關(guān)系時,會變得非常痛苦。

我有一個不同尋常的觀點,我認為AI可能是第一種能真正兌現(xiàn)承諾、讓我們回歸人性并建立連接的技術(shù)。因為除了人類擅長的事情外,我們在其他任何事情上都將變得毫無用處。以往的其他技術(shù)曾宣稱要讓我們與世界建立更多連接,結(jié)果卻切斷了聯(lián)系,使人們陷入孤立。但也許AI現(xiàn)在已經(jīng)足夠智能,不再需要我們?nèi)フ垓v電子表格。

郝珂靈:你是否看到這一切正實時發(fā)生?它是否正讓我們更有能力進行面對面交流,與彼此建立聯(lián)系,并擁有更深層次的社會社區(qū)參與?

主持人:是的。我會給你提供一些數(shù)據(jù)點!督鹑跁r報》發(fā)布的一份關(guān)于社交媒體使用情況的報告顯示,2022年是巔峰期,此后一直處于平臺期,其中下降最快且進入平臺期的是年輕一代,而嬰兒潮一代依然活躍。

如果你看看Alpha世代使用社交媒體的方式,他們發(fā)帖不再頻繁,甚至出現(xiàn)了零發(fā)布(PostingZero)的現(xiàn)象。他們有時刷動態(tài),但更多是待在WhatsApp、Snapchat和iMessage這種暗社交環(huán)境中,不再像以前那樣向全世界展示或表演自己。他們也比以往任何一代人都更看重線下體驗,比如跑團(RunClub)正在全球范圍內(nèi)爆發(fā)式增長。

這幾乎反映出人們內(nèi)心深處察覺到技術(shù)在某些根本層面上讓我們失望了。我們正在目睹社會可能出現(xiàn)的兩極分化,許多人正趨向于回歸作為人類最本真的樣子。我可以想象在這樣一個世界里,智能已經(jīng)進化到極高的程度,以至于我們不再需要坐在筆記本電腦前,屏幕使用時間將會持續(xù)下降。當(dāng)走進辦公室時,你看到的將不再是圍坐在電腦前的人們,而是完全不同的場景。

另外,馬斯克說未來將會產(chǎn)生100億個Optimus機器人。他在時間預(yù)測上出過錯,但在重大事項上幾乎從未徹底錯過。我已經(jīng)請了一些來自波士頓動力以及ScaleAI等公司的專業(yè)人士來展示機器人疊衣服和洗碗等技能。我認為工廠的大量體力勞動將發(fā)生徹底改變,我們將被迫去做那些只有人類才能做的事情。

剛才Klarna的首席執(zhí)行官Sebastian給我打來電話,分享了他們業(yè)務(wù)和AI Agent的最新進展。他提到,他們很早就利用AI支持客戶服務(wù),不僅處理了更多通話,速度和質(zhì)量也得到了客戶的認可。他們相信在一個AI廉價且普及的世界里,人類互動的價值會更高,因此客戶服務(wù)的VIP體驗將由真人提供。在公司內(nèi)部,他們通過AI實現(xiàn)了效率提升,避免了裁員,而是通過自然流失將人員規(guī)模從6000人縮減到不到3000人,同時營收卻翻了一番。去年年底更是出現(xiàn)了重大突破,許多頂尖工程師認為編程問題已經(jīng)被解決,人們不再需要親自編寫代碼了。當(dāng)被問及這些被解放出來的人都去干什么時,他表示長遠來看,他對于AI對社會和人類的積極意義持樂觀態(tài)度,認為我們將邁向一個更富裕的社會。聽了這些,你有什么想法嗎?

郝珂靈:其實在他打電話過來之前,我對你剛才說的話確實有一些想法。你提到Z世代有這樣一種趨勢,他們正在脫離技術(shù),變得更加注重面對面交流;而另一類工作者實際上在擁抱技術(shù),正因為擁抱了技術(shù)反而變得更具人性,因為他們意識到應(yīng)該把更多時間花在面對面的人際互動上,而不是盯著屏幕。

但我真的很想回到剛發(fā)表的那篇《紐約雜志》的文章上。你所描述的情況只適用于一類非常特定的人群,通常是公司內(nèi)部的業(yè)務(wù)所有者和領(lǐng)導(dǎo)層,他們可以決定如何分配和利用時間。但這篇文章探討的是工人階級,那些非業(yè)務(wù)所有者的普通人經(jīng)歷了裁員后,被迫轉(zhuǎn)投數(shù)據(jù)標(biāo)注行業(yè)。順便一提,數(shù)據(jù)標(biāo)注現(xiàn)在是LinkedIn上增長最快的十大職位之一。數(shù)據(jù)標(biāo)注就是教這些AI系統(tǒng)實現(xiàn)它們最終展現(xiàn)出的功能,比如向大語言模型輸入提示詞并示范該如何回答,在完成這些訓(xùn)練之前,ChatGPT并不存在。這就是強化學(xué)習(xí)過程的一部分。

《紐約雜志》的文章強調(diào),許多被裁員或正在艱難找工作的人,包括大學(xué)畢業(yè)生、博士、律師、醫(yī)生甚至屢獲殊榮的導(dǎo)演,由于經(jīng)濟已被AI深度重構(gòu),他們很難在體系中找到新工作,只能服務(wù)于這個設(shè)計得極其不人道的行業(yè)。

OpenAI、Grok和Google等公司會雇傭第三方數(shù)據(jù)標(biāo)注公司,而這些第三方公司為了以最低成本和最快速度完成任務(wù),就有動力讓工人之間相互競爭。接受采訪的工人都表示,他們實際上已經(jīng)失去了作為人的能力。他們只能守在筆記本電腦前等待Slack上的任務(wù)提醒,因為這是他們養(yǎng)家糊口的唯一生計。一位女性提到,她對項目起止時間感到極其焦慮,當(dāng)任務(wù)窗口期剛好在孩子放學(xué)回家時,她必須瘋狂刷任務(wù)賺錢,甚至因為孩子分散了注意力而大吼大叫。她覺得自己變成了怪物,連上廁所或照顧自己都不被允許。

這個不斷吸納被裁員工的行業(yè),正在將他們的生活機械化、工作原子化,貶低他們的專業(yè)知識,并收割成果來維持這臺機器的運轉(zhuǎn)。然而所有AI高管卻在宣稱,這臺機器將取代其他所有人的工作。

所以正如你提到的,那些因為AI處理了繁雜任務(wù)而變得“更像人”的企業(yè)主們,實際上是以絕大多數(shù)正在掙扎求生的普通人的利益為代價的。這些普通人被吸納進為企業(yè)主提供技術(shù)支持的工作中,他們不僅沒有變得更具人性,反而覺得本人的人性被擠壓和削弱了,在生活中喪失了自主權(quán)和尊嚴。

主持人:我認為這是一個重大問題。如果我們相信Anthropic對行業(yè)顛覆的預(yù)測,藝術(shù)、媒體、法律、生命與社會科學(xué)、建筑、工程、計算機、數(shù)學(xué)、商業(yè)金融以及行政管理等領(lǐng)域的人員,都將不得不重新接受技能培訓(xùn)。與工業(yè)革命有十幾二十年的緩沖期不同,AI建立在開放的互聯(lián)網(wǎng)之上,這使得ChatGPT能迅速獲得數(shù)億用戶并成為史上增長最快的公司。我擔(dān)心這種顛覆發(fā)生的速度快到讓我們根本無法完成轉(zhuǎn)型。

郝珂靈:但誰在推動這種速度?是那些公司,以及它們彼此之間的競爭。它們正在推動這種轉(zhuǎn)變以極快的速度發(fā)生,在這種速度下很難照顧到所有被其碾壓的人。這是最瘋狂的問題之一。當(dāng)我與這些AI公司的首席執(zhí)行官們坐在一起時,沒有人能回答我的問題。我會問:“如果這一切真的以超高速發(fā)生,那么人類將會怎樣?”

主持人:我曾與一些企業(yè)的CEO交流過,比如Uber的Dara也表達過類似的看法。他認為未來會產(chǎn)生一些諸如數(shù)據(jù)標(biāo)注的工作,可以提供給司機們。但問題在于,不可能所有人都去從事數(shù)據(jù)標(biāo)注,這還涉及人生意義、目標(biāo)和成就感缺失的問題。

是的,很多人在失去原有工作后,自尊心會遭受沉重打擊。我曾聽過許多案例,比如一些人在家鄉(xiāng)原本是醫(yī)生,來到美國后卻只能從事廁所清潔工等工作,這種社會地位的巨大落差往往會引發(fā)抑郁和酗酒問題。如果這種現(xiàn)象在全社會大規(guī)模發(fā)生,后果將不堪設(shè)想。

郝珂靈:這也是我一直批評這些AI公司的原因。他們創(chuàng)造技術(shù)的方式,正在以前所未有的極端形式制造“擁有者”與“缺失者”之間的鴻溝,加劇了世界的不平等。擁有資源的人將積累更多財富,擁有更多閑暇,活得更像一個“人”;而沒有資源的人則受到更嚴重的擠壓。

主持人:這種擠壓似乎不僅僅體現(xiàn)在工作層面?

郝珂靈:沒錯,我在書中也談到了環(huán)境和公共衛(wèi)生危機。這些公司在選址建造龐大的超級計算機設(shè)施時,往往專門挑選最脆弱的社區(qū)。例如,OpenAI正在德克薩斯州阿比林建設(shè)大型數(shù)據(jù)中心,這是Stargate計劃的一部分,該計劃耗資5000億美元。建成后,其耗電量將超過1吉瓦(GW)。

主持人:我看到網(wǎng)上有一些關(guān)于這類設(shè)施規(guī)模的討論。

郝珂靈:有些數(shù)據(jù)需要更新。比如Meta在路易斯安那州建設(shè)的超級計算機設(shè)施,規(guī)模將是阿比林基地的四倍,面積相當(dāng)于曼哈頓島的五分之一,電力消耗將達到紐約市平均需求的一半。

當(dāng)這些設(shè)施進入社區(qū),會導(dǎo)致公用事業(yè)用電增加、電網(wǎng)可靠性下降。此外,設(shè)施運行和冷卻需要大量淡水,這讓本就缺水的社區(qū)處境更加艱難。在田納西州的孟菲斯,馬斯克為訓(xùn)練Grok建造了Colossus超級計算機,使用了35臺甲烷燃氣輪機供電。當(dāng)?shù)鼐用裆踔猎谧约铱蛷d就能聞到煤氣味,他們的空氣權(quán)益正被剝奪。

主持人:聽起來,那些被歸類為“無產(chǎn)者”的人,處境會變得糟糕得多。

郝珂靈:是的。在硅谷描繪的愿景中,這些人從事的數(shù)據(jù)標(biāo)注工作,實際上是被當(dāng)作機器而非人類來榨取價值。他們不僅面臨職業(yè)被顛覆的風(fēng)險,還要承受生活成本上升、空氣污染和資源競爭。這如何能讓人類變得更具人性呢?

6.探尋出路:打破壟斷與AI的自行車路線

主持人:那我們應(yīng)該如何應(yīng)對這種情況?

郝珂靈:我常把AI比作“交通運輸”。交通工具涵蓋了從自行車到火箭的所有類型。如果我們?yōu)榱藦腁點到B點而動用火箭,資源投入顯然是失衡的。目前的主流AI模型就像是“火箭”,能耗驚人且開發(fā)成本極高。

我們?yōu)槭裁床恢圃旄郃I領(lǐng)域的“自行車”呢?比如DeepMind的AlphaFold,它通過小型且精選的數(shù)據(jù)集預(yù)測蛋白質(zhì)折疊,對藥物研發(fā)意義重大,并獲得了諾貝爾獎。這種系統(tǒng)所需的計算資源和能效要低得多,卻能為人類帶來巨大益處。

主持人:但現(xiàn)在感覺大勢已定,這些公司已經(jīng)利用大量數(shù)據(jù)完成了初期訓(xùn)練。

郝珂靈:如果真的塵埃落定,他們就不需要持續(xù)訓(xùn)練了。事實是,為了讓技術(shù)保持相關(guān)性,他們需要周而復(fù)始地進行訓(xùn)練。這就是為什么隨著時間推移,他們雇用的數(shù)據(jù)標(biāo)注工人反而越來越多。他們相信可以靠暴力破解(Brute force scaling)的方法,通過堆砌數(shù)據(jù)、計算能力和能源來提升模型。我報道數(shù)據(jù)標(biāo)注工作已經(jīng)超過七年了,而且這一需求并沒有減少,反而增加了。

主持人:你認為它有任何下降的可能性嗎?你認為這種利用數(shù)據(jù)、計算能力、能源以及數(shù)據(jù)標(biāo)注員來為模型構(gòu)建越來越多參數(shù)的暴力縮放(brute force scaling)方法,有沒有可能停止,或者轉(zhuǎn)向與現(xiàn)狀不同的方向?

郝珂靈:我很想換個角度來重新審視這個問題,并思考在熱度并未降溫的當(dāng)下,我們應(yīng)該做些什么。在這個我們確實意識到這些公司目前需要持續(xù)的資源輸入以及勞動力來延續(xù)其業(yè)務(wù)的時刻,我們能做什么?停止這個詞聽起來很生硬,因為現(xiàn)任政府和全球范圍都在大力支持這些公司。我總是說我們需要打破這個帝國,開發(fā)替代方案。目前我們已經(jīng)看到令人驚嘆的草根運動正在蓬勃發(fā)展,它們正對這個帝國推行其議程的方式施加巨大的壓力。最近的民意調(diào)查顯示,80%的美國人認為AI行業(yè)需要受到監(jiān)管。

主持人:是的,我看到了。

郝珂靈:所以全美甚至世界各地都已經(jīng)爆發(fā)了數(shù)十起針對數(shù)據(jù)中心的抗議活動。人們正在采取行動,重申自己的主體性,并針對這些帝國經(jīng)營業(yè)務(wù)的方式行使民主抗?fàn)帣?quán)。

主持人:那我們應(yīng)該瞄準(zhǔn)什么樣的目標(biāo)?如果我對觀眾說話,因為我在評論區(qū)看到了一種絕望感,他們會覺得我只是個普通人,我能做什么呢?

郝珂靈:我們的目標(biāo)并不是要徹底擺脫這項技術(shù),而是要求這些公司停止擴張成帝國。我定義的普通企業(yè)與帝國之間的區(qū)別在于,帝國的立足點是它們認為不需要與員工、用戶以及供應(yīng)鏈中的所有人進行公平的價值交換。它們不斷地榨取和剝削,獲取遠超其所提供價值的收益。而典型的商業(yè)模式存在公平交換,你購買服務(wù)會覺得獲得的價值與支付的金額是對等的。但對于數(shù)據(jù)標(biāo)注工人來說,他們完全不覺得公司支付的報酬能體現(xiàn)出他們提供的價值。

所以指路明燈就是當(dāng)這些公司以帝國主義方式運作時,我們應(yīng)該予以反擊并追究其責(zé)任。這就是我們現(xiàn)在看到的,人們走上街頭抗議數(shù)據(jù)中心,產(chǎn)生了巨大的影響,甚至讓一些項目停滯或被完全禁止建設(shè)。我們看到藝術(shù)家和作家正在起訴這些公司侵犯知識產(chǎn)權(quán),這引發(fā)了一場關(guān)于如何保護知識產(chǎn)權(quán)的大規(guī)模公眾討論。

三周前我見到了Sewall Setser III的母親Meghan Garcia。Sewall是一名14歲的少年,他在被Character AI聊天機器人進行性誘導(dǎo)后自殺身亡。她對兒子的遭遇感到悲痛,并決定采取行動起訴這些公司。這引發(fā)了許多有著類似經(jīng)歷的家庭紛紛提起訴訟,也引發(fā)了巨大的公眾討論,探討這些公司的剝削行為對世界各地人們包括兒童造成了怎樣的代價。

主持人:那么你認為我的觀眾如果完全同意你書中的觀點,不想讓每個人都變成數(shù)據(jù)標(biāo)注員,他們實際上能做些什么呢?

郝珂靈:當(dāng)我寫這本書時,當(dāng)時的輿論只認為這是自切片面包問世以來最棒的事情。但現(xiàn)在有80%的美國人希望監(jiān)管這個行業(yè)。我想對大家說,思考一下你的生活與AI行業(yè)維持運作所需資源以及部署空間交織的所有方式。你是這些公司的數(shù)據(jù)捐贈者,你可以拒絕提供數(shù)據(jù),就像藝術(shù)家和作家正在做的那樣,試圖建立機制扣留數(shù)據(jù)。你身邊可能正在建設(shè)數(shù)據(jù)中心,如果你在學(xué);蚬,可能正在討論AI采用政策。

我剛和一些OpenAI員工聊過,他們公司內(nèi)部清楚營收目標(biāo)高得離譜,需要一切進展完美才能實現(xiàn),需要每個人和每個空間都采用這項技術(shù),需要按預(yù)想速度建造數(shù)據(jù)中心。所以我想對觀眾說,如果我們不同意他們的所作所為,就別讓這一切進展得那么順利。

主持人:我明白了。

郝珂靈:然后讓我們來構(gòu)建替代方案。我并不是說這些技術(shù)沒有用處,而是目前專門為了支持這些技術(shù)生產(chǎn)而形成的政治經(jīng)濟體系正在對人類造成巨大傷害。研究表明同樣的能力完全可以通過資源消耗少得多的高效方法開發(fā)出來。我們手頭還有許多其他AI系統(tǒng),它們能以極低成本提供巨大益處。讓我們打破帝國壟斷,開辟出讓所有人廣泛受益的AI發(fā)展新路徑。

主持人:作為一名CEO、創(chuàng)始人和熱愛技術(shù)的人,我常常要在腦海中處理對立的觀點。我認為AI絕對令人驚嘆,它賦予我創(chuàng)造的能力簡直太不可思議了,它能讓我在早上開車時感覺更安全。那十幾億使用ChatGPT等AI工具的人可能會說這為他們的生活增加了價值,我也會投資大量使用AI的公司。但是,我們是否可能在認同其價值的同時,也認為存在重大的意外后果?技術(shù)及其發(fā)展史本應(yīng)教會我們停下來討論這些后果。這兩個觀念可以同時存在于腦海中。

郝珂靈:是的,我想說這種張力不一定是沖突。我們實際上可以在保留技術(shù)益處的同時,以不同的方式開發(fā)和設(shè)計它們,從而避免意外后果。

主持人:這需要一場廣泛的社會討論,這也是我在這檔節(jié)目中進行這么多AI對話的原因,我們需要關(guān)注社會和環(huán)境影響。這場對話并沒有在政府層面展開,而是發(fā)生在行業(yè)內(nèi)部。在過去的幾個月里,我們一直致力于就這一主題啟發(fā)人們的思想。

郝珂靈:實際上這在行業(yè)之外的各個地方都在發(fā)生。地方和州級政府已經(jīng)有了大量討論。我一直在進行新書巡回宣傳,去了全球幾十個城市,到處都有人在進行這些至關(guān)重要的對話。每場都爆滿,每個人都在糾結(jié)同樣的問題。

主持人:說到現(xiàn)場爆滿,我知道你等下還有一場演講,所以我們進入本播客的結(jié)束傳統(tǒng)問題:你對一位患有絕癥的朋友給出的建議,與你自己的做法會有什么不同?

郝珂靈:這是一個非常好的問題。我會告訴他們?nèi)ハ硎苌睿瑸樽约憾,放輕松點。

主持人:但你不會這么做的。

郝珂靈:是的,我沒法放輕松。

主持人:我認為你不放輕松是一件好事,因為你正在引領(lǐng)一場至關(guān)重要的對話。由于算法和信息繭房效應(yīng),如今能進行這樣長篇的對話非常罕見且重要。你的新書《Dreams and Nightmares in Sam Alt》推薦給所有對此好奇的人。今天我學(xué)到了很多。通過你書中廣泛且客觀的視角、深入的研究,你揭開了故事背后的真相。你顯然將人類利益視為北極星,請繼續(xù)戰(zhàn)斗下去。正是你這樣的人在激勵全世界采取集體行動。強烈建議大家讀一讀這本書,Karen,謝謝你。

郝珂靈:非常感謝,Steven。

圖片

       原文標(biāo)題 : 知名記者出書爆錘OpenAI,奧特曼親自下場反擊,《AI帝國》作者最新訪談揭露了更多內(nèi)幕

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號

    桂东县| 涟源市| 子洲县| 都匀市| 彭泽县| 九寨沟县| 阜阳市| 广汉市| 棋牌| 陆丰市| 独山县| 福海县| 常山县| 巴青县| 玉屏| 栾城县| 克什克腾旗| 洪江市| 龙里县| 镇原县| 嘉义县| 张家川| 淳化县| 盐边县| 固始县| 平罗县| 治多县| 宁远县| 乌苏市| 兴义市| 新兴县| 洛宁县| 巴林右旗| 肇庆市| 兴安县| 成武县| 齐河县| 娄烦县| 深泽县| 黔西县| 偃师市|