GPT 將繼續存在。 它會帶我們去哪裡?

已發表: 2023-02-03

GPT 正在我們面前展開,我們不會錯過任何一個節拍。 當我們探索這項新技術的潛力和局限性時,它會不會辜負炒作?

自去年 11 月下旬推出以來,ChatGPT 因其能夠產生類似人類的反應而俘獲了全世界人們的心。 然而,與任何新技術一樣,炒作與現實之間往往存在差距。 尤其是生成式 AI,是非常自然的炒作機器。

我們理解這種懷疑——大型語言模型非常善於表現得似是而非,即使它們是錯誤的。 但說實話,我們非常樂觀。 在過去的八周里,我們構建了 AI 驅動的功能並將它們交付給 160 個測試版客戶,反饋非常有希望。 以至於本週早些時候,我們的機器學習總監 Fergal Reid 和我在播客上發布了一集特別節目,分享我們對我們構建的內容和學到的內容的見解。

這一次,我們超越了內部通信,甚至超越了客戶服務。 在今天的節目中,我們將深入探討 GPT 的方方面面——從懷疑到它在商業溝通中的作用,從創造性工作的中斷到用戶界面的未來。

以下是一些要點:

  • 不僅僅是技術在進步——我們越來越了解要構建什麼,如何定制和集成它,所有這些動力都在推動行業向前發展。
  • 也許人機界面的未來將由個性化的人工智能機器人提供便利,這些機器人可以理解用戶的意圖並調解他們的互動。
  • 這些模型解鎖了許多新能力,一眼就能騙過人,但它們仍然缺乏通過圖靈測試所需的常識推理。
  • GPT 可能會擾亂客戶服務行業,但如果自動化提高了座席的生產力,它最終可以釋放提升其業務價值的能力。

通過在 Apple 播客、Spotify、YouTube 上關注 Intercom on Product 或在您選擇的播放器中獲取 RSS 提要,確保您不會錯過任何亮點。 以下是該劇集經過輕微編輯的文字記錄。


超越炒作

Des Traynor:嗨,歡迎收看 Intercom 播客。 Fergal 再次加入我的行列,我們將討論 GPT 的所有內容。 Fergal,ChatGPT 推出已經整整八週了。 人們已經在針對它開發有用的產品,並且已經有一波懷疑論者說這是一個玩具,它不成熟,還沒有為任何事情做好準備,這只是典型的新技術反應。 你的頭在哪裡? 懷疑論有根據嗎? 我們是否跨越了一些真正重要的感知懸崖?

Fergal Reid:是的,我認為懷疑主義有一定的合理性。 這些東西幾乎是自然的炒作機器。 查看它並看到它做一些看起來不錯的事情是如此容易。 除非你真的深入研究它,否則它看起來很棒。 然後,當你深入研究它時,你會說,“啊,這是錯誤的,我覺得被誤導了。” 這些機器旨在生成似是而非的東西,如果似是而非,但錯誤對你來說是個問題,它可能會非常令人失望。 所以我理解很多人對這項技術持懷疑態度的默認立場。

“ChatGPT,就像今天在互聯網上一樣,可能只是一個玩具,但這並不意味著我們不能利用底層技術並從中構建非常有價值的業務功能”

然而,我們一直非常看好生成式人工智能,自從我們上次發言以來,我們已經構建了一些功能,我們已經將它們運送到 Beta 版,我們的 Beta 版有 160 多位客戶使用這些功能:總結,一些作曲家的功能更具實驗性,試圖讓人們更快。 然後我們還有一波原型形式的其他功能,這些功能還沒有完全實現——高價值的東西——但我們認為我們看到了這一點。 所以,我們理解懷疑,我們很樂觀,現在我們有了數據——真實的客戶使用情況,真實的客戶告訴我們他們有一份他們想做的特定工作,他們每天都在做,這對那。 對我來說,這讓懷疑論者的立場開始變得有些搖搖欲墜。

Des:事實上,人們實際上每天都在使用這個東西來完成他們的部分工作。

弗加爾:是的。 這是最終的仲裁者。 當人們實際使用它時,很難懷疑它,而不僅僅是作為玩具。 那裡有一條邏輯線。 我們在《大西洋月刊》和類似的地方看到過一些文章,人們說,“嘿,看,這東西更像是玩具,而不是真正有價值的產品。” 而 ChatGPT,就像今天在 Internet 上一樣,可能只是一個玩具,但這並不意味著我們不能利用底層技術並從中構建非常有價值的業務功能。

在過去的幾個月裡,我的團隊可能是幾個這樣做的團隊之一,就像,“哇,這提供了真正的價值,”我認為我們可能是成功的客戶服務領域的大公司之一有一個開發週期,我們實際上已經將它交到數百名客戶手中並從中得到反饋。 他們真的告訴我們,“是的,這真的節省了我的時間; 這讓我的工作變得更快。” 是的,懷疑變得更難維持。 這是一個論點。 我認為你也可以從不同的角度來攻擊這種懷疑:我們已經看到很多推文和文章對這項技術持懷疑態度,因為上一代沒有跨越鴻溝,也沒有帶來變革。 他們持懷疑態度,因為新技術總是被誇大。 但這些都不是好的論據。 這些論點在一段時間內是正確的,然後就會變得非常錯誤。 你可能會因為過於樂觀而失敗,但你也可能因為——

Des:空白和悲觀。

弗加爾:沒錯。 空白和悲觀。

“同時發生的動態如此之多,它們將相互反饋並相互放大”

Des:你看到的相似之處是人們對他們聽說過的每一個新的創業點子都嗤之以鼻。 問題是 90% 的初創公司都沒有成功。 所以在 90% 的時間裡,你是正確的並且看起來非常聰明。 然後你把一個後來成為價值數万億美元的企業搞砸了,每個人都說,“對,結果……”我想是 Nat Friedman 說的,“悲觀者聽起來很聰明,樂觀者變得富有,”或者類似的話. 當你真正重視每個觀點時,它有一些道理:當你錯了時,你錯的程度會推翻你對技術的懷疑程度。

弗加爾:是的,100%。 看,我相信人工智能及其價值。 我認為我們有足夠的證據證明真正的價值。 在過去十年中,我們看到機器學習和人工智能的趨勢總體上越來越大。 我們有了新的能力。 我覺得我的團隊有足夠的證據表明,至少有一些功能已為 GPT-3.5 和六個月前還沒有的其他大型語言模型解鎖。 我相信有一個懸垂; 我們現在可以構建的產品比以前多得多。 所以,是的,我們很樂觀,我們開始看到我們發布測試版的客戶告訴我們,“是的,這行得通,這太棒了。”

我們還沒有完全跨越它的最後一塊。 我們知道,就我們客戶花費 99% 的時間完成的任務的核心價值而言,這具有變革性。 因此,我們提供了摘要功能和其他功能以節省收件箱中的時間。 但是這裡有一些我們還沒有構建的大東西,我們正在內部努力,但我們還沒有在市場上看到它們。 因此,我們認為真正令人興奮的事情還在後頭。

Des:我相信有人會在評論中糾正我的一些轉換層次結構,但我們已經使用實時功能來轉換特定的工作流程,通過轉換,我們的意思是將這樣做的成本降低到 5%它曾經是什麼。 在總結的情況下。 然後,它可能會改變非常常見的工作流程。 然後,它可能正在轉變工作,然後是轉變組織,在最高層,它正在轉變業務。 但很明顯,隨著我們確定越來越多的用例,我們可以在這些用例中提供很多價值,我們正在通過這個編織我們的方式,對我來說,客戶服務世界不可避免的轉變。

“我們在內部接觸了我們的客戶,並且不得不比我們想要的更早結束測試版招募,因為這是我們收到的最大的回應之一”

弗加爾:當然。 有很多方法可以同時改變這種情況。 有太多的動力同時發生,它們會相互反饋和放大。 第一個很明顯:可用的技術越來越好。 那不是停止。 OpenAI 和 Anthropic 等其他參與者一直在構建新模型,它們令人興奮。 那不是停止。 所以,這是一個動態。 還有另一種動力,那就是我們在圍繞這些構建產品方面做得越來越好。 我們越來越擅長採用這些模型並弄清楚他們擅長的事情類型。 還有另一種動力,那就是我們在定制它們、構建正確的提示並將它們集成到我們現有系統中方面做得越來越好。 然後我們客戶的期望越來越高。

我們確實發現,自從 ChatGPT 以來,我們的客戶產生了巨大的興趣。 他們可以看到承諾並相信這裡有一些東西。 有了測試版,我們在內部找到了我們的客戶,並且不得不比我們想要的更早地結束測試版招募,因為這是我們得到的最大的回應之一。 人們想參與其中。 因此,在我看來,所有這些事情加在一起將比其中任何一個單獨放大得多。

Des:你如何分解它很有趣。 技術在改進,企業能力在提高,這只是在當地的情況下採用它。 然後企業使用該技術思考或概念化新產品和機會的能力正在提高。 與客戶對技術的期望相同。 作為一個簡單的例子,我們距離人們期望能夠在文本字段中擴展文本可能只有一年的時間。 你會看到這些東西隨處可見。

Fergal:即使是一年。 顯然,我們很多人都看到了微軟關於將這些功能引入 Word 和其他東西的公告。 如果大型主流辦公生產力工具能夠做到這一點,它將會迅速改變。 它可能真的很快。

人工智能助手的興起

Des:這是我要指責的另一種懷疑論——無論如何,它與我有輕微的共鳴。 我認為 Kevin Cannon 有一條有趣的推文,他說,“未來是由人們使用 GPT 來擴展諸如‘我想要這份工作’之類的東西,變成一封可愛的信,比如‘親愛的先生’或‘女士’,等等,等等,等等……然後是收件人,單擊摘要按鈕,看到那個人剛剛說,“我想要這份工作,這是我的簡歷,”或者其他什麼。 從某種意義上說,你會忍不住看著它們,然後想,這一切到底有什麼意義? 如果正式語言、專業寫作和商務英語成為我們所有人溝通的戲劇方式的毫無意義的渠道,那麼將來,我會向你發送提示,你會回复提示,比如,“我想要工作。” “你不能得到這份工作。”

弗加爾:是的。 難以回答的問題。 這是嚴重的推測。 我給你一些意見。 可能有某些上下文,對嗎? 比方說一份法律文件。 你可以對你的法律團隊中的某個人說,“嘿,我需要一份合同。 它必須做 X、Y 和 Z。” 該請求將變成 10 頁合法材料。 收件人會說,“哦,它會做它說的三件事嗎?” 他們的法律團隊會說,“是的,確實如此。” 這是極端的一端,其中有很大的擴展和壓縮,但在一些奇怪的邊緣情況下,第二頁的第 13 條條款可能會出現在法庭上,等等。 很明顯,這很重要。 我們無法擺脫它。 我們不能只有這四個要點。 我們需要這一切。 當你寫的時候你可能不認為它很重要,但它可能會在以後變得重要。 這感覺就像是一個極端,“不,感覺必須存在”,以應對所有這些邊緣情況。

而另一個極端可能是防御者和接受者不關心那些細節的情況。 兩者都不會關心這些細節,他們只是在觀察一些社交禮節或“這就是你寫商業信函的方式”的形式。 我正在給一家大公司寫信,我最好寫一封商業信函,”也許那些東西會消失。

Des:以同樣的方式,我認為當電子郵件對話轉移到 SMS、iMessage 或 WhatsApp 時,我認為那裡的類比。 想想你不再說的所有廢話。 “希望這對你有好處,”或者其他什麼。 所有的狗屎都沒有了。

Fergal: Twitter 的限制、格式、媒介允許您更簡潔。 我認為這是一個真正的動態。 我們交流的方式和撰寫幫助中心文章的方式可能不是最佳的撰寫方式。 也許我們應該更簡短。 在機器學習團隊中,有另一種思考方式。 世界的未來將由代理人進行中介。 曾幾何時,這對每個人來說都是顯而易見的。 您的網絡瀏覽器有一個用戶代理將其串起來等等。 正如我所說,這是你的代理人在為你瀏覽所有這些鏈接和東西的奇怪互聯網。 它會為你做事,回來告訴你事情。 然後,所有這些東西都集中起來,現在你有了搜索引擎等等。

“如果我們只看到 DALL·E 2 圖像生成,那將是一回事。 但不,我們正在看到音頻合成、圖像合成、文本理解、文本合成和文本壓縮方面的轉變”

科技未來主義和科幻小說等中有一個古老的想法,你可能會有一個代理人了解你、你的意圖、你想要什麼,並且足夠聰明,可以弄清楚什麼應該引起你的注意,什麼不應該引起你的注意到。 所以可能,在未來,這種方式更像是那樣。 如果你想知道一個特定的細節,你身邊的軟件足夠聰明,可以把它放在它的摘要版本中。 但它足夠聰明,知道您也不想知道該細節並將其排除在外。

也許我們會生活在用戶界面發生變化的未來,我對特定業務或任務的用戶界面並不像今天那樣真正受該業務或任務控制。 相反,它是為我量身定制的。 這聽起來很奇特,但我認為它會很快發生。 這些語言模型非常強大,它們開始被用來編寫代碼等等,而且從這裡到我採取行動的距離很近。 我們已經看到了一些原型,人們正在研究能夠很好地理解網站的模型,可以接受英語句子並​​為您瀏覽網站。 然後,我們是否正在走向一個人人都與網站互動的未來? 你還需要一個網站嗎?

Des:這是新的 SEO 嗎? 確保你的 GPT 能理解你?

弗加爾:是的。 也許網站會變成一些看起來更像是公開公開的 API 的東西,這是帶有 UI 和格式的東西,因為 UI 是由代理格式化的。

Des:我們都只是在和 Siri 之類的東西交談。

“也許這就是機器人未來的樣子。 我們都有一個為我們量身定制的機器人來處理接口,你真的不需要太擔心那個中間層”

Fergal:是的,我認為 Google 和 Apple 可以看到這個未來。 我們不知道時間線,但同樣,我一直使用的思考工具是:如果你有一個非常聰明的人,他了解你,曾與你共事,也許是個人助理,你正在與他們打交道,然後你想預訂假期嗎? 他們會問你什麼? 在你在 booking.com 或其他網站上看到的一半內容中,他們不會問你這個問題——他們只是會為你預訂假期,然後可能會回來澄清問題:“哦,你想去住公寓,但那裡沒有空間。 酒店可以嗎?” 但這是一個適應性強的用戶界面。 同樣,我不會過分關注 ChatGPT 和剛剛發布的內容。 你花一兩年時間。 它移動得太快了。 如果你因為當前的限製而持懷疑態度,你會——

Des:你的懷疑不會切中要害。

弗加爾:沒錯。 Transformer 非常強大,人們使用的 Transformer 架構也非常強大。 我們在這裡看到了多種方式的改進。 如果我們只看到 DALL·E 2 圖像生成,那將是一回事。 但不,我們看到了音頻合成、圖像合成、文本理解、文本合成、文本壓縮方面的轉變。 我們看到瞭如此多的平行進步。 它可以編寫代碼。 它可能很快就能在網站上運行。 所以也許這就是機器人未來的樣子。 我們都有一個為我們量身定制的機器人來處理接口,你真的不需要太擔心那個中間層。

Des:我在 Twitter 上看到的一個超級原型場景是有人訓練了一個機器人用他自己的聲音說話,我相信,然後撥打一個號碼並在銀行電話樹中導航,有效地接通代理,請求獲得他們所有的信息外匯交易退款什麼的。 這是一種標準,您只需要提出要求,他們就會去做。 它一直走到最後。 從字面上看,他們只是說了句“走”,然後就走開了。 這顯然是超級做作的,也許是超級封閉的,但它仍然是一個端到端自動執行的非常真實的用例。

Fergal:我認為這是一個非常有趣的領域。 我們談論了很多關於客戶服務將如何改變的問題,而我們的頭腦總是去的地方是當您擁有像 ChatGPT 這樣的機器人時會發生什麼,但它是為您的業務定制的,並且非常擅長回答問題,並且客戶服務問題的成本將會下降。 但它還有另一面。 當用戶擁有可以處理客戶服務交互並且不會放棄或厭倦的機器人時,客戶服務將如何改變? 那裡可能會發生很大的變化。

Des:基本上,新的 B2B 將是 bot-to-bot。

弗加爾:也許吧。 用戶可能需要一段時間才能擁有這種技術,但這是一件值得考慮的有趣事情。

真實性難題

Des:你通常如何看待這個雙面的創造世界,最終,什麼可以被視為欺騙——這看起來像一幅畫,但它不是一幅畫,它是生成的——相對於檢測,人們可以說的想法,“嘿,我真的手寫了那個代碼,那不是生成代碼。” 駕馭這個世界對人類有多重要? 西部世界有一個著名的場景,一個西部機器人工廠,一個人想要——

Fergal:這是對舊事物的翻拍。

Des:哦,是嗎? 給我的消息。 我不知道這是對舊事物的翻拍。 但在西部世界中,有一個場景,一個男人撞到一個女人,和她交談,然後,最後,他說,“我必須問,你是真的嗎?” 她的回答是,“如果你不得不問,為什麼這很重要?” 我認為那裡有些東西。 超過我們的檢測能力是否會被視為真實的定義? 真實性甚至不再是一回事了嗎? 在銀行業的例子中,一個人如何說,“嘿,Fergal,這實際上是你,還是你訓練的機器人?” 特別是如果你已經訓練它如何回答那個問題。

Fergal:那裡有一些大問題。 那里至少有五個問題我可能忘記了。 你可以談談圖靈測試,這是一篇非常有先見之明的論文,關於我們如何能夠判斷一台計算機何時變得足夠智能,然後一個測試是一個功能失調的測試——如果人類法官能夠可靠地辨別這兩者通過文本界面或其他方式,我們可以說它不智能。 當它通過時,我們應該接受它在功能上是智能的。 它被歪曲了很多,但他的論文更像是,“如果達到這一點,它正在做一些非常有趣的事情。” 這是從功能上處理事物的一種方式。

“講一個發生了很多事情的故事,然後問它一個複雜的、重要的問題,它仍然會被絆倒”

Des:我們已經過去了,我會說。 左右。

Fergal:總是有一些關於通過圖靈測試的頭條新聞。 我認為最初的表述類似於熟練的審訊者之類的東西。 我們還沒有到那個地步。 如果有人受過提出正確問題的訓練,這些東西很快就會崩潰。 它沒有人類所擁有的深層世界模型。

德斯:對。 你會怎麼做來問一個自我參照的問題? 你會要求某人在語言上絆倒它嗎?

Fergal:技術在這方面越來越好。 但它更像是設置一個複雜的域。 講一個發生了很多事情的故事,然後問它一個複雜的、重要的問題,它仍然會被絆倒。 它會以一種孩子不會的方式被絆倒。 但我認為正確的思考方式是你正在處理外星智能。 你想稱它為智能,但它的形狀會有所不同。 所以,這將是一堆七歲孩子無法寫的東西——我將能夠編寫計算機程序,但你可能稱之為常識推理的東西還不存在。 也就是說,從哲學上講,這是在談論這個東西是否有生命和感知的東西。 不,顯然不是,大多數人會使用大多數定義。 但這有點轉向人工智能問題的哲學。

回到你原來的觀點,如果你想為這些系統建立驗證碼怎麼辦? 那看起來像什麼? 是的,人們有加水印和檢測文本是否由這些模型生成的方法,但我不知道如果你有一個真正擅長注入適量噪聲的模型,那是否可靠。

我要提醒這個領域的任何人的一件事是,有機器學習系統,就像“我如何使我的機器學習系統具有足夠好的質量,使其在現實生活中達到我 99% 的圖像檢測閾值?” 這是一個標準。 還有另一個標準:與對抗性輸入相比,我如何構建我的機器學習系統才能更好地工作? 那是一個完全不同的球賽。

“至少在一段時間內,任何擁有大型語言模型的大玩家都會試圖阻止你,如果你將它用於這樣的邪惡任務”

Des:防禦性設計。

Fergal:防守設計。 如何抵禦對抗性輸入? 總的來說,這真的很難。 如果你告訴我,“哦,我有一個新奇的機器學習系統,可以在復雜的環境中檢測欺詐或保護我的系統,”我會非常懷疑。 有欺詐檢測系統,但這與試圖攻擊機器學習系統的人不同。

我認為,當你在與機器人交談時,當你在與大型語言模型交談時,當它不希望你與你交談時,檢測整個問題會很困難。 而且,如果我們在未來遇到這樣一種情況,即客戶服務被假裝成用戶的機器人淹沒,那將很難處理。 但我想,至少在一段時間內,如果你將它用於這樣的惡意任務,任何擁有大型語言模型的大玩家都會試圖阻止你。 並且會有一些控制,因為這些高質量的模型很難在任何類型的消費模型硬件上託管和運行。 可以有一些問責制。

迫在眉睫的中斷

Des:如果我們放大一點,我們可能離能夠產生聽起來似是而非的音樂不遠了。 大堂音樂,那種東西。

弗加爾:是的。 穆扎克。

Des:音樂,沒錯。 在某種程度上,有一些通用的公式化歌曲——我認為像 65 首排名第一的歌曲有相同的四個和弦或類似的東西,或者無論如何都是排名靠前的歌曲。 而且,顯然,丹·布朗的小說都遵循一種簡單的格式。 這並不意味著它不好,但是當任何在某種程度上以公式化的形式表達的東西都可以被複製,並且最終你可以獲得一個 0 美元的版本時,社會會在多大程度上發生變化? 《達芬奇密碼》仍然是《達芬奇密碼》,從任何標准定義來看,它都是一本相當不錯的書,但現在您可以以 0 美元或 5 美分或其他任何價格買到它的廉價地下室版本。 然後,你認為它發生在每一種創造力中。 同樣,這並不是說這些技術的輸出具有可比性,但它們可能是價格的 1%。 你認為世界在那種未來會發生怎樣的變化?

“這就是傑文斯悖論——有時,讓某樣東西變得更便宜意味著你最終會做更多的事情。 這些動態真的很難預測”

Fergal:我有很多不同的想法。 你可以看看過去的類比。 你可以看看繪畫,然後攝影出現了,突然間很容易捕捉到風景圖像,但是——

Des:我敢肯定畫家們不喜歡它,對吧?

Fergal:我不太了解歷史,但總的來說,有些現任者在出現混亂時會感到不安。

Des:我認為收音機或盒式磁帶也是如此——現場音樂家就像,“嗯,喲,這是我們的演出。”

弗加爾:是的。 每個電影院過去都有一位鋼琴師來演奏配樂,但現在已經不復存在了。 留聲機和鋼琴調音器、織布機和勒德分子……這樣的例子數不勝數。 而且我確實認為還有其他領域面臨迫在眉睫的破壞,並且將會就什麼是有價值的進行艱難的對話。 同樣,對於客戶支持,您必須保持敏感。 總是有更好的結果和更壞的結果。 人們可能會看到大型語言模型在編寫代碼方面變得越來越好,然後會說,“嘿,作為一名程序員,我投入多年的這項寶貴技能,天哪,它不會再有用了。”

“在一個高度自動化的世界裡,客戶支持代表會更少,還是會更多,因為他們可以為企業帶來的價值被放大了?”

有不同的方式來思考這個問題。 你可以從 AWS 的角度來考慮。 我們在 Intercom 經常使用 Amazon,如果我們必須在沒有 AWS 的情況下完成我們所做的一切,那麼我們將花費更多的程序員時間來完成它。 這是否意味著我們因此僱用了更少的程序員? 好吧,這可能意味著如果沒有這種支持技術,我們將無法開展業務。 這就是傑文斯悖論——有時,讓某樣東西變得更便宜意味著你最終會做更多的事情。 這些動態真的很難預測。 在一個高度自動化的世界中,客戶支持代表的數量會減少,還是會增加,因為他們可以為企業帶來的價值被放大了?

Des:當我們拿走所有真實的東西時,我們實際上看到了它們帶來的價值,你會說,“我想要更多。”

Fergal:你想要更多; 你需要更多。 突然間就像,“哇,如果我們有很多這樣的銷售代表,我們可以為我們的業務釋放什麼價值?” 每個人都可以比現在多做 10 倍。 你永遠不會知道。 我認為這是有時會被遺漏的東西。 人們總是對技術顛覆做出反應,總是說,“哦,你可以爬上價值階梯,找到一份更好的工作。 如果你想去任何地方,你都可以成為一名產品經理。” 這可能是一種方式。 但另一種方法是,只要在你目前所做的事情上提高效率,就可以改變你需要做的事情的數量。

Des:或者更多的企業因此成為可能。

Fergal:更多的業務成為可能。 這是最好的事情。 我認為這一切都將隨著人工智能藝術等事物的發展而展開。 顯然,關於剽竊和侵犯版權存在爭論。 如果有人去用一大堆圖片訓練 DALL·E 2,那算侵權嗎? 如果他們學習了藝術家的風格,然後你要求它創作出像他們一樣的作品,那會怎樣? 那是侵犯版權嗎? 法律體系和社會可能需要解決很多問題。 我認為有時辯論中遺漏的一件事是,即使你決定訓練當前模型是侵犯版權——我們不接受人類這樣做; 人類被允許觀察事物並複制他們的風格——有人仍然會建立模型,在開放的、允許的工作上接受訓練,並且他們會非常擅長生成圖像。 我認為那艘船已經航行到一定程度了。

能開多大?

Des:在這裡拋出一些針,你引用了 AWS 作為一個例子,我們這裡沒有龐大的服務器團隊。 我們沒有裝滿服務器的文件櫃。 你的 AI 團隊是否因為 OpenAI、Anthropic 等的存在而變小了? 如果它們不存在,您會構建一個 AI 版本的服務器團隊嗎?

Fergal:是的,我的意思是,這真是個問題。 有不同的方式來看待它。 人工智能團隊會被打亂嗎? 我們在這方面來回走動。 讓我們看看當前版本的大型語言模型。 最近在玩GPT,做電影推薦。 就像,“嘿,我喜歡看 X 和 Y。有什麼建議嗎?” 而且還不錯。 我敢肯定它不如擁有所有最佳數據的經過良好調整的推薦系統好,但它比隨機挑選電影要好得多。 它會輸出,它會像推理一樣吐出來。 它的推理,就像它所做的一切一樣,是似是而非的,但還不錯。 再說一次,即使技術現在不是很好——我不會急著用它或任何東西來製作電影推薦系統——如果它變得好 10 倍或 100 倍怎麼辦? 如果你給它提供更多的訓練數據或更好的訓練制度會怎麼樣?

“將這種新功能與它擅長的特定事物結合起來有很多機會,它有很多腳手架,很多產品都圍繞著它工作”

Des:只需等待 GPT-4。

Fergal:是的,GPT-6,不管它看起來像什麼,對吧? 無論 100 億美元能為你購買計算和強化、學習人類反饋,如果那是事實的話。 如果發生這種情況怎麼辦? 你還去建立推薦系統嗎? 有人找你做推薦系統,你去做嗎? Sam Altman 就此發表了演講。 想像一下,我們可以讓它達到人類水平。 If you had something that was human-level general intelligence, would you need a machine learning team anymore? Or would you just sit down like, “Hi, how's it going? Today I'm going to teach you how to be a movie recommender.” You've got to give lots of examples, and it's got to be able to consume a data set about movies. But maybe it's just like, “Hey, AI system, write the code to consume the data set about movies.” 我不知道。

“You're getting into big questions, Des. And maybe that's just where all our heads are going at the moment. But you can get into big questions about, like, by the time that's disrupted, what percentage of current human economic activity is disrupted?”

Des: Yeah, totally correct.

Fergal: But that's a very bullish case. Maybe we hit some asymptote before then, and I certainly don't think we're near that point at the moment. I think you still need your machine learning team. And I think we're certainly in this happy Jevons Paradox for a while where a lot of stuff is unlocked, and maybe we're doing slightly different work than we were before – we're certainly doing a lot more prompt engineering – but these systems are not yet good enough to just train-

Des: Yeah. To outsource the whole thing to OpenAI, and they'll solve our problems.

“If you put 100X more resources into model training or dataset creation, what return do you get? Is it 10X, a 100X, a 1000X? I don't know if anyone knows that”

Fergal: Right, yeah. I really hesitate to speculate about when. Just to give you one super concrete limitation. All these models have a prompt size. The amount of context you can pass to it with a prompt is limited. And that limit is baked in pretty low down. And so, a lot of the stuff the team is doing at the moment is around, “Hey, how do we work around that? How do we give them a relevant article?” And we're using more traditional machine learning techniques – traditional as in, invented five years ago. The classic stuff.

There are tons of opportunities with the marriage of this new capability in specific things it's good at with a lot of scaffolding, a lot of product work around that. I think there will be disruption, and it feels like extremely disruptive tech to me, particularly when you project a few years out. But we don't know how big it'll be. And I don't think anyone knows how big it'll be yet. Maybe the folks in OpenAI do. But if you put 100X more resources into model training or dataset creation, what return do you get? Is it 10X, a 100X, a 1000X? I don't know if anyone knows that. There's certainly no consensus on it.

Des: There was that quote from Sam Altman where he was asked something – I think it was some irrelevant question about challenges in San Francisco or something like that – and his answer was, “When you believe that artificial general intelligence is as close as I do, you struggle to think about any other problem.” When I read that, I was like, “Okay, well, he's certainly leaned a certain way.” Now, he could still be thinking in 20 years, but some societal problems are kind of irrelevant against the greater potential wave of what could be happening here.

“There's clearly a pitfall to avoid and an attractive pitfall to fall into”

Fergal: Yeah. Full disclaimer mode now. I think there's a lot of merit to that style of thinking, personally. I remembered there were times in the history of computation when it was like, “Oh, if you've got a million dollars to solve a computing problem and you need to solve it as soon as possible, what you need to do is sit with the million dollars for two years and then buy the fastest computer that the million could buy.

Des: I remember my own career. In 2006 or 2007, mobile websites were all the thing. Pre-iPhone, right? And people were talking about WAP and JMI files or JNI files, and everyone hyped up their mobile strategy. And literally, by the time I finished working out what I thought was the right recommendation for a client, the iPhone had launched. And I was like, “You know what? 別擔心。 Sit on your hands. Apple's going to solve this entire problem.” And sure enough, two months later, “Hey, it turns out all our websites are mobile-ready.” Sometimes, a tech wave can be so big that any temporal thing you do will just be irrelevant against the magnitude of what's going to happen.

Fergal: Yeah, if you believe AGI is close, I guess I can logically see that position. Now, clearly, it seems like there's a terrible mistake to make there where-

Des: Yeah, where we're wrong, and you've probably just been sitting on your hands.

Fergal: You've given yourself a license to ignore terrible, terrible things. So obviously, you've got to wait, and I'm not making any judgment on that. But yeah, there's clearly a pitfall to avoid and an attractive pitfall to fall into. I think it's very hard to bet against increasingly general intelligence. And I don't know timelines and stuff, but I think there are big questions for people to think about. Now, that's definitely way outside customer support or customer service.

Des: No, yeah. Well, look, thank you very much. We'll check in in six weeks to find out that this podcast is yet again out of date. We'll see where we're at again. But for now, thank you very much.

Fergal: Thanks, Des.

CTA-Intercom-on-Product