“無論人工智能如何發(fā)展,人類依然將掌握對世界的最終決定權(quán)?!?/blockquote>圖片來源:由無界 AI生成
作為人工智能界的風(fēng)云人物,OpenAI 首席執(zhí)行官 Sam Altman 于 1 月 19 日參加了瑞士達沃斯世界經(jīng)濟論壇上的一個由企業(yè)重量級人物組成的圓桌討論,主題為“動蕩世界中的技術(shù)”。
來源:Youtube
以下是 Altman 就一系列問題發(fā)表的看法,為方便閱讀已進行部分刪減:
問題:我認為大多數(shù)人對人工智能的擔(dān)憂可分為兩種。其一,它是否會終結(jié)我們所知的人類?其二,為什么人工智能不能直接幫我開車?
Sam Altman:關(guān)于這種新工具的一個非常好的跡象是,即使它目前的能力非常有限,而且存在非常大的缺陷,人們也在想方設(shè)法利用它來提高生產(chǎn)效率或其他方面的收益,并且理解它的局限性 -- 因此,它是一個時而準確、時而富有創(chuàng)意,但同樣可能完全錯誤的系統(tǒng)。我們絕不會放心讓它來駕駛汽車,但非常樂意利用它來集思廣益、撰寫文章或檢查代碼。
為什么人工智能不能開車?舊金山附近其實有很棒的自動駕駛汽車系統(tǒng)(如 Waymo),人們也都很喜歡它們。我的意思是,OpenAI 類型的模型在某些事情上表現(xiàn)出色,但在生死攸關(guān)的情況下就不行了。
人工智能在某種程度上已經(jīng)去神秘化,因為人們現(xiàn)在真的在使用它。我認為,這始終是推動新技術(shù)發(fā)展的最佳方式。
問題:人們擔(dān)心的是信任人工智能的能力。我們能在多大程度上說,“我真的可以讓人工智能來做這件事,無論是開車、寫論文還是填寫醫(yī)療表格?”(或者)我們在某種程度上不得不相信黑匣子?
Sam Altman:我認為,人類對其他人犯錯的寬容度很高,但對電腦犯錯的寬容度卻很低。我猜,對于那些說‘自動駕駛汽車已經(jīng)比人類駕駛的汽車更安全’之類話的人而言,只有(自動駕駛汽車)比人類駕駛的汽車安全 10 到 100 倍,甚至更多時,人們才會接受它……
從某種意義上說,最困難的部分是當它 99.999% 的時間都是正確的時候,你會放松警惕。
(考慮到)我實際上無法進入你的大腦,查看 100 萬億個突觸,并試圖了解每個突觸中發(fā)生了什么……但我可以要求你向我解釋你的推理……我可以決定這對我來說是否合理。
我們的人工智能系統(tǒng)也將能夠做同樣的事情:它們將能夠用自然語言向我們解釋從 A 到 B 的步驟,而我們可以決定我們是否認為這些步驟是 ok 的。
問題:如果人工智能能夠超越人類的分析和計算能力,那么人類還能做什么?很多人說,這意味著我們將只剩下……我們的情商……你認為人工智能也能比我們做得更好嗎?
Sam Altman:國際象棋是人工智能的首批“受害者”之一 --Deep Blue 擊敗 Kasparov 已經(jīng)是很久遠的事了。所有的評論員都說:“計算機可以擊敗人類,這是國際象棋的末日。沒有人會再費心看棋或下棋?!保ǖ牵﹪H象棋從未像現(xiàn)在這樣受歡迎。如果(棋手)用人工智能作弊,那會是件大事。沒有人,或者說幾乎沒有人會觀看兩個人工智能之間的對弈。
我承認(人工智能革命與過去的技術(shù)顛覆相比),這次確實感覺不同。通用認知與我們所珍視的人性特質(zhì)非常接近……(因此,)每個人的工作都將不同……我們都將在更高一點的抽象水平上工作,我們都將獲得更多的能力。我們?nèi)詫⒆龀鰶Q定;隨著時間的推移,這些決定可能會更趨向于策劃,但就世界上應(yīng)該發(fā)生的事情,仍然將由我們做出決定。
問題:您一直對人工智能持相對溫和的態(tài)度。但像埃隆- 馬斯克,有時還包括比爾 - 蓋茨,以及其他非常聰明的人……都非常非常擔(dān)心。你為什么認為他們錯了?
Sam Altman:我不認為他們一定會錯……這顯然是一項非常強大的技術(shù),我們無法肯定地說究竟會發(fā)生什么。所有新的重大技術(shù)革命都是如此。但我們不難想象,這項技術(shù)將會對世界產(chǎn)生巨大的影響,而且有可能出大錯。
我們一直在努力推動的技術(shù)方向,是我們認為可以確保安全的方向,其中包括很多東西。我們相信迭代部署。我們把這項技術(shù)推向世界……讓人們習(xí)慣它。從社會整體來看,我們有時間,或者說機構(gòu)有時間,來討論如何監(jiān)管,如何設(shè)置一些防護措施。
問題:從技術(shù)上講,你能為人工智能系統(tǒng)設(shè)置防護嗎?這樣可行嗎?
Sam Altman:如果你了解過從 GPT-3 到 GPT-4 的進展,看看它能在多大程度上與一系列價值觀保持一致,就知道我們在這方面已經(jīng)取得了巨大進步?,F(xiàn)在,還有一個比技術(shù)更難的問題,那就是“誰來決定這些價值觀是什么、默認值是什么、界限是什么?它在這個國家和那個國家是如何運作的?我可以做什么,不可以做什么?”這是一個重大的社會問題,也是最大的問題之一。
但從技術(shù)角度來看,我們?nèi)杂袠酚^的余地,盡管我認為我們現(xiàn)在擁有的對齊技術(shù)(或多種技術(shù))不會一路擴展到更強大的系統(tǒng),(因此)我們需要發(fā)明新的東西。我認為,人們害怕這項技術(shù)的缺點是件好事,我們談?wù)撍约拔覀兒推渌吮灰筮_到高標準都是好事。
我對世界對像我們這樣的公司普遍感到的不適感同身受……為什么我們的未來掌握在他們手中?還有……他們?yōu)槭裁匆@么做?他們?yōu)槭裁催@么做了?。..... 現(xiàn)在全世界都認為,這里的利益如此巨大,我們應(yīng)該去做這件事。
但我認為,我們有責(zé)任想出一個辦法,從社會中獲得意見,了解我們將如何做出這些決定,不僅要了解系統(tǒng)的價值是什么,還要了解安全閾值是什么,以及我們需要什么樣的全球協(xié)調(diào)來確保一個國家發(fā)生的事情不會對另一個國家產(chǎn)生超級負面影響。
問題:怎么看待《紐約時報》的訴訟……寫這些文章的人難道不應(yīng)該得到補償嗎?
Sam Altman:我們希望在《紐約時報》上進行訓(xùn)練,但這并非當務(wù)之急。實際上,我們并不需要在他們的數(shù)據(jù)上進行訓(xùn)練。這是人們所不理解的 -- 任何一個特定的訓(xùn)練來源都不會對我們產(chǎn)生太大的影響。
我們希望與《紐約時報》等內(nèi)容所有者合作,并與許多其他出版商達成交易 -- 隨著時間的推移,我們還將與更多出版商達成合作 -- 當用戶問‘嘿,ChatGPT,今天達沃斯發(fā)生了什么?’我們希望展示內(nèi)容、鏈接、顯示《紐約時報》、《華爾街日報》或其他任何優(yōu)秀出版物的品牌,并回答‘這是今天發(fā)生的事情,這是實時信息’,然后我們希望為此付費,增加流量。但這只是在用戶查詢時顯示信息,而不是用來訓(xùn)練模型。
現(xiàn)在,我們也可以用它來訓(xùn)練模型,但這不是優(yōu)先事項。我們很樂意不這樣做……我期望開始改變的一件事是,這些模型在訓(xùn)練過程中能夠獲取更少量、更高質(zhì)量的數(shù)據(jù),并更努力地思考和學(xué)習(xí)。你不需要閱讀 2000 本生物教科書來理解高中生物。也許你需要讀一本,也許三本,但 2000 本……肯定幫不了你什么。當我們的模型開始以這種方式工作時,我們將不再需要同樣大量的訓(xùn)練數(shù)據(jù)。
不過,無論如何,我們都希望找到適用于整個世界(包括內(nèi)容所有者)的新經(jīng)濟模型……如果我們要使用你的教科書和教案教別人物理,我們希望能找到一種讓你獲得報酬的方式。如果你能教我們的模型,如果你能幫助提供反饋,那么我很樂意為你找到新的模型,讓你在成功的基礎(chǔ)上獲得報酬。
因此,我們非常需要新的經(jīng)濟模式。當前的對話有點集中在錯誤的層面上。我認為訓(xùn)練這些模型的意義將在未來幾年發(fā)生很大變化。
問題:你曾卷入近幾十年來最廣為人知的董事會丑聞。你從中學(xué)到了什么?
Sam Altman:在某些時候,你不得不笑。這太荒謬了……
我們知道,我們的董事會已經(jīng)變得太小了,我們也知道,我們沒有所需的經(jīng)驗。但在很多方面,去年對我們來說都是瘋狂的一年,以至于我們忽略了這一點。
不過,我認為更重要的一點是,隨著世界越來越接近 AGI,風(fēng)險、壓力和緊張程度都會增加。對我們來說,這只是其中的一個縮影,但可能還不是我們所面臨的最大壓力。我觀察了一段時間,發(fā)現(xiàn)我們每向強大的人工智能邁進一步,每個人的角色都會得到 10 點瘋狂值。這是一件非常有壓力的事情,也應(yīng)該是這樣,因為我們正試圖對非常高的風(fēng)險負責(zé)。
到目前為止,我在整個過程中學(xué)到的最好的東西就是我們團隊的力量。當董事會在解雇我的第二天問我是否考慮回來時,我的第一反應(yīng)是“不”,因為很多事情讓我非常(沮喪)。然后我很快就恢復(fù)了理智,我意識到,我不想看到這些為公司和客戶付出了畢生精力的優(yōu)秀員工建立起來的價值,被毀于一旦。但我也知道……沒有我,公司也會很好。
原文作者:Deborah Yao
文章來源:https://aibusiness.com/nlp/from-davos-sam-altman-on-agi-the-nyt-lawsuit-and-getting-fired
本站提醒:投資有風(fēng)險,入市須謹慎,本內(nèi)容不作為投資理財建議。
Sam Altman 達沃斯圓桌:關(guān)于 AGI、紐約時報訴訟和董事會風(fēng)波
更新時間:2024-01-19 14:25:18 | 作者:佚名
“無論人工智能如何發(fā)展,人類依然將掌握對世界的最終決定權(quán)?!?圖片來源:由無界AI生成 作為人工智能界的風(fēng)云人物,OpenAI首席執(zhí)行官SamAltman于1月19日參加了瑞士達沃斯世界經(jīng)濟論壇上的一個由企業(yè)重量級人物組成的圓桌討論,主題為“動蕩世界中的技術(shù)”。 來源:Youtube 以下是Altman就一系列問題發(fā)表的看法,為方便閱讀已進行部分刪減: ...