GPT è qui per restare. Dove ci porterà?

Pubblicato: 2023-02-03

GPT si sta svolgendo davanti a noi e non perdiamo un colpo. Mentre esploriamo il potenziale e i limiti di questa nuova tecnologia, sarà all'altezza dell'hype?

Da quando è stato lanciato alla fine di novembre, ChatGPT ha catturato i cuori e le menti delle persone in tutto il mondo per la sua capacità di generare risposte simili a quelle umane. Tuttavia, come con qualsiasi nuova tecnologia, c'è spesso un divario tra l'hype e la realtà. E l'IA generativa, in particolare, è piuttosto la macchina pubblicitaria naturale.

Comprendiamo lo scetticismo: i modelli linguistici di grandi dimensioni sono ottimi per apparire plausibili, anche quando sono sbagliati. Ma a dire il vero, siamo molto ottimisti. Nelle ultime otto settimane, abbiamo creato funzionalità basate sull'intelligenza artificiale e le abbiamo distribuite a 160 clienti beta e il feedback è stato straordinariamente promettente. Tanto che all'inizio di questa settimana, il nostro direttore dell'apprendimento automatico, Fergal Reid, e io abbiamo pubblicato un episodio speciale sul podcast per condividere le nostre opinioni su ciò che abbiamo costruito e ciò che abbiamo imparato.

Questa volta andiamo oltre l'interfono e anche oltre il servizio clienti. Nell'episodio di oggi, approfondiremo tutto ciò che riguarda GPT, dallo scetticismo al suo ruolo nelle comunicazioni aziendali, dall'interruzione del lavoro creativo al futuro delle interfacce utente.

Ecco alcuni dei punti chiave:

  • Non è solo la tecnologia che sta migliorando: stiamo migliorando nel capire cosa costruire, come personalizzarlo e integrarlo, e tutte queste dinamiche stanno facendo avanzare il settore.
  • Forse il futuro delle interfacce uomo-macchina sarà facilitato da bot personalizzati basati sull'intelligenza artificiale che comprendono le intenzioni degli utenti e mediano le loro interazioni.
  • Questi modelli hanno sbloccato molte nuove funzionalità e ingannano qualcuno a colpo d'occhio, ma mancano ancora del ragionamento di buon senso necessario per superare il test di Turing.
  • GPT può rivoluzionare il settore del servizio clienti, ma se l'automazione aumenta la produttività dell'agente, alla fine può sbloccare funzionalità che ne aumentano il valore per l'azienda.

Assicurati di non perdere nessun momento saliente seguendo Intercom on Product su Apple Podcasts, Spotify, YouTube o recuperando il feed RSS nel tuo lettore preferito. Quella che segue è una trascrizione leggermente modificata dell'episodio.


Oltre l'hype

Des Traynor: Ciao e benvenuto al podcast di Intercom. Mi unisco, ancora una volta, a Fergal, e parleremo di tutto ciò che riguarda GPT. Fergal, sono passate otto intere settimane dal lancio di ChatGPT. Le persone hanno già costruito prodotti utili contro di esso, e abbiamo già avuto un'ondata di scettici che dicevano che questo è un giocattolo, è immaturo, non è mai pronto per niente, che sono solo le classiche reazioni della nuova tecnologia. Dove hai la testa? Lo scetticismo è fondato? Abbiamo attraversato qualche scogliera percettiva che conta davvero?

Fergal Reid: Sì, penso che ci sia una certa legittimità nello scetticismo. Queste cose sono macchine pubblicitarie quasi naturali. È così facile guardarlo e vederlo fare qualcosa che sembra buono. A meno che non ci si approfondisca davvero, sembra meraviglioso. E poi, quando ci approfondisci, dici: "Ah, è sbagliato, mi sento fuorviato". Queste macchine sono progettate per generare cose plausibili e, se plausibili, ma sbagliare è un problema per te, può essere molto deludente. Quindi capisco la posizione predefinita di scetticismo con cui molte persone si avvicinano a questa tecnologia.

"ChatGPT, così com'è oggi su Internet, potrebbe essere un giocattolo, ma ciò non significa che non possiamo prendere la tecnologia sottostante e creare funzionalità di business incredibilmente preziose da quella"

Tuttavia, siamo sempre stati molto fiduciosi sull'IA generativa e, dall'ultima volta che abbiamo parlato, abbiamo creato alcune funzionalità, le abbiamo trasferite alla Beta, abbiamo avuto 160 clienti sulla nostra Beta che utilizzavano queste funzionalità: riepilogo, alcuni caratteristiche del compositore più sperimentali per cercare di rendere le persone più veloci. E poi abbiamo un'ondata di altre funzionalità in forma di prototipo che non sono ancora del tutto lì - cose di grande valore - ma pensiamo di vedere una linea di vista a questo. E così, comprendiamo lo scetticismo, eravamo ottimisti, e ora abbiamo i dati - utilizzo reale dei clienti, clienti reali che ci dicono che c'è un lavoro particolare che vogliono fare, che fanno tutto il giorno tutti i giorni, ed è trasformativo per quello. E questo, per me, rende la posizione dello scetticismo un po' traballante.

Des: Il fatto che le persone stiano effettivamente usando la cosa per fare parte del loro lavoro su base giornaliera.

Fergale: Sì. Questo è l'ultimo arbitro di questo. È molto difficile essere scettici quando le persone lo usano davvero, e non solo come un giocattolo. C'è una linea di logica là fuori. Abbiamo visto alcuni articoli su The Atlantic e posti del genere in cui le persone dicono: "Ehi, guarda, questa cosa è più un giocattolo che un vero prodotto di valore". E ChatGPT, così com'è oggi su Internet, potrebbe essere un giocattolo, ma ciò non significa che non possiamo prendere la tecnologia sottostante e creare funzionalità di business incredibilmente preziose da quella.

Il mio team è stato probabilmente uno dei tanti team a farlo negli ultimi mesi, per dire "Wow, questo sta offrendo un valore reale" e penso che probabilmente siamo una delle aziende più grandi nel servizio clienti che ha avuto successo abbiamo avuto un ciclo di sviluppo in cui l'abbiamo effettivamente messo nelle mani di centinaia di clienti e ne abbiamo ricevuto feedback. E ci hanno davvero detto: “Sì, questo mi sta davvero facendo risparmiare tempo; questo sta velocizzando il mio lavoro.” Sì, lo scetticismo diventa più difficile da sostenere. Questo è un argomento. Penso che si possa anche attaccare lo scetticismo da una posizione diversa: abbiamo visto molti tweet e articoli scettici su questa tecnologia perché la generazione precedente non ha attraversato l'abisso e non è stata trasformativa. E sono scettici perché la nuova tecnologia è sempre sovrastimata. Ma quelli non sono buoni argomenti. Questi sono argomenti che sono giusti per un po' e poi diventano terribilmente sbagliati. Puoi fallire qui essendo eccessivamente ottimista, ma puoi fallire altrettanto essendo-

Des: Vuoto e pessimista.

Fergale: Esattamente. Vuoto e pessimista.

"Ci sono così tante dinamiche che accadono contemporaneamente che si alimentano e si amplificano a vicenda"

Des: Il parallelo che vedi sono le persone che spazzano via ogni nuova idea di startup di cui abbiano mai sentito parlare. E il fatto è che il 90% delle startup non funziona. Quindi il 90% delle volte sei perfetto e sembri davvero intelligente. Poi rifiuti uno che diventa un affare da trilioni di dollari, e tutti dicono: "Giusto, si scopre ..." Penso che sia stato Nat Friedman a dire: "I pessimisti sembrano intelligenti, gli ottimisti diventano ricchi" o qualcosa del genere . E c'è del vero quando dai davvero peso a ogni opinione: il grado in cui ti sbagli quando ti sbagli demolisce il grado in cui hai meno ragione solo essendo scettici dalla tecnologia.

Fergal: Sì, al 100%. Senti, credo nell'intelligenza artificiale e nel suo valore. Penso che abbiamo prove sufficienti del valore reale. Nell'ultimo decennio, stiamo assistendo all'aumento e all'aumento della tendenza dell'apprendimento automatico e dell'intelligenza artificiale in generale. Abbiamo nuove capacità. Sento che il mio team ha prove sufficienti che ci sono almeno alcune funzionalità sbloccate per GPT-3.5 e per altri modelli di linguaggio di grandi dimensioni che non c'erano sei mesi fa. Credo che ci sia una sporgenza; c'è molto più prodotto che potremmo costruire ora che non è stato ancora costruito rispetto a prima. Quindi sì, siamo ottimisti e stiamo iniziando a vedere i clienti a cui abbiamo spedito la beta per dirci: "Sì, funziona, è fantastico".

Non abbiamo ancora superato l'ultimo pezzo. Sappiamo che questo è trasformativo in termini di valore fondamentale per le attività che i nostri clienti dedicano al 99% del loro tempo. Quindi, forniamo la funzione di riepilogo e altre funzionalità per risparmiare tempo nella posta in arrivo. Ma ci sono grandi cose in arrivo qui che non abbiamo ancora costruito, su cui stiamo lavorando internamente, ma non le abbiamo viste là fuori in un mercato. E così, pensiamo che la vera eccitazione di questo stia ancora arrivando.

Des: C'è una gerarchia di trasformazione su cui sono sicuro che qualcuno mi correggerà nei commenti, ma abbiamo già inserito funzionalità live per trasformare flussi di lavoro specifici e, trasformando, intendiamo ridurre il costo per farlo al 5% di quello che era una volta. Nel caso, diciamo, del riepilogo. Quindi, potrebbe trasformare flussi di lavoro molto comuni. Quindi, potrebbe trasformare il lavoro, quindi trasformare l'organizzazione e, in cima, trasformare il business. Ma è abbastanza chiaro mentre identifichiamo sempre più casi d'uso in cui possiamo fornire molto valore che ci stiamo facendo strada attraverso questa, per me, inevitabile trasformazione del mondo del servizio clienti.

"Siamo andati internamente dai nostri clienti e abbiamo dovuto chiudere il reclutamento beta molto prima di quanto avremmo voluto perché è stata una delle risposte più grandi che abbiamo mai ricevuto"

Fergale: Assolutamente. Ci sono tanti modi in cui questo sta cambiando in parallelo. Ci sono così tante dinamiche che accadono allo stesso tempo che si alimentano e si amplificano a vicenda. Il primo è abbastanza ovvio: la tecnologia disponibile sta migliorando. Questo non si ferma. OpenAI e altri giocatori come Anthropic costruiscono continuamente nuovi modelli e sono entusiasmanti. Questo non si ferma. Quindi, questa è una dinamica. E c'è un'altra dinamica, che è che stiamo migliorando nella costruzione di prodotti attorno a quelli. Stiamo migliorando nel prendere quei modelli e capire il tipo di cose in cui sono bravi. E c'è un'altra dinamica, ovvero stiamo migliorando nel personalizzarli, creando i prompt giusti e integrandoli nei nostri sistemi esistenti. E poi le aspettative dei nostri clienti diventano sempre più alte.

Abbiamo davvero scoperto che, da ChatGPT, c'è stata solo questa enorme ondata di interesse da parte dei nostri clienti. Possono vedere la promessa e credere che ci sia qualcosa qui. Con la beta, siamo andati internamente dai nostri clienti e abbiamo dovuto chiudere il reclutamento beta molto prima di quanto volevamo perché è stata una delle risposte più grandi che abbiamo mai ricevuto. La gente voleva esserci. Quindi, tutte queste cose insieme si ingrandiranno molto di più di ognuna di esse da sola, secondo me.

Des: È interessante come lo scomponi. La tecnologia sta migliorando, le capacità delle aziende stanno migliorando e questo è solo adottarla nei casi locali. E poi la capacità delle aziende di pensare o concettualizzare nuovi prodotti e opportunità utilizzando quella tecnologia sta migliorando. Lo stesso vale per le aspettative dei clienti sulla tecnologia. Probabilmente manca solo un anno alle persone che si aspettano di poter espandere il testo all'interno di un campo di testo, come semplice esempio. In un certo senso vedi queste cose spuntare ovunque.

Fergal: Anche se un anno. Ovviamente, molti di noi hanno visto l'annuncio di Microsoft sull'introduzione di queste funzionalità in Word e altro. E cambierà rapidamente se i grandi strumenti di produttività dell'ufficio mainstream lo fanno. Potrebbe essere davvero veloce.

L'ascesa dell'assistente AI

Des: Ecco un diverso tipo di scetticismo a cui accetterò – uno che risuona leggermente con me, comunque. Penso che Kevin Cannon abbia scritto un tweet divertente in cui ha detto: "Il futuro è composto da persone che usano GPT per espandere cose come 'Voglio il lavoro' in una bella lettera come 'Gentile signore' o 'Madame', blah, blah , blah... E poi il destinatario, facendo clic sul pulsante di riepilogo, per vedere che la persona ha appena detto: "Voglio il lavoro, ecco il mio curriculum" o qualsiasi altra cosa. In un certo senso, saresti tentato di guardarli e dire, che diavolo ha senso in tutto questo? Il linguaggio formale, la scrittura professionale e l'inglese commerciale sono diventati un canale inutile per il modo teatrale in cui comunichiamo tutti, quando in futuro ti manderò semplicemente il prompt e tu risponderai con un prompt, come "Voglio il lavoro." "Non puoi avere il lavoro."

Fergale: Sì. Domanda difficile. È seriamente speculativo. Ti darò alcune opinioni. Probabilmente ci sono determinati contesti, giusto? Diciamo un documento legale. Puoi dire a qualcuno del tuo team legale: "Ehi, ho bisogno di un contratto. Deve fare X, Y e Z. " Quella richiesta si trasformerà in 10 pagine di roba legale. Il destinatario dirà: "Oh, fa le tre cose che ha detto che avrebbe fatto?" E il loro team legale sarà: "Sì, lo fa". Questa è un'estremità dell'estremo in cui c'è una grande espansione e compressione, ma in qualche strano caso limite, la clausola numero 13 a pagina due può presentarsi in tribunale, e così via. Quindi chiaramente, questo conta. Non possiamo liberarcene. Non possiamo limitarci a quei quattro punti elenco. Abbiamo bisogno di tutto questo. Potresti non considerarlo materiale quando lo scrivi, ma potrebbe diventarlo in seguito. Sembra un estremo in cui è come "No, sembra che debba esserci", qualcosa per affrontare tutti quei casi limite.

E l'altro estremo è probabilmente una situazione in cui il difensore e il destinatario non si preoccupano di quei dettagli. Entrambi non si preoccuperanno mai di quei dettagli e stanno solo osservando alcune grazie sociali o formalità di “è così che scrivi una lettera commerciale. Sto scrivendo a una grande azienda, è meglio che scriva una lettera d'affari” e forse quella roba se ne andrà.

Des: Allo stesso modo, penso che l'analogia lì per me sarebbe quando le conversazioni e-mail si sono spostate su SMS, iMessage o WhatsApp. Pensa a tutte le stronzate che non dici più. "Spero che questo ti trovi bene" o qualsiasi altra cosa. Tutta quella merda è sparita.

Fergal: I vincoli di Twitter, il formato, il mezzo, ti danno il permesso di essere più conciso. Penso che sia una vera dinamica. Il modo in cui comunichiamo e scriviamo un articolo del Centro assistenza potrebbe non essere il modo ottimale per scriverlo. Forse dovremmo essere più brevi. Nel team di machine learning, c'è un altro modo di pensare a questo. Il futuro del mondo sarà mediato da agenti. E una volta, questo era ovvio per tutti. Il tuo browser web aveva un agente utente che lo stringeva e cose del genere. E come ho detto, è il tuo agente che va e naviga in quella strana Internet con tutti questi collegamenti e cose per te. Farà cose per te, tornerà e ti dirà cose. E poi, tutta quella roba centralizzata e ora hai il motore di ricerca e così via.

“Un conto sarebbe se avessimo visto solo la generazione di immagini DALL·E 2. Ma no, stiamo assistendo a trasformazioni nella sintesi audio, nella sintesi delle immagini, nella comprensione del testo, nella sintesi del testo e nella compressione del testo"

C'è una vecchia idea nel futurismo tecnologico e nella fantascienza e così via, che probabilmente avrai un agente che ti capisce, le tue intenzioni, cosa vuoi, ed è abbastanza intelligente da capire cosa portare alla tua attenzione e cosa no a. Quindi forse, in futuro, il modo in cui andrà sarà più simile. Se vuoi conoscere un dettaglio particolare, il software dalla tua parte è abbastanza intelligente da inserirlo nella versione riassuntiva. Ma è abbastanza intelligente da sapere che non vuoi conoscere anche quel dettaglio e lasciarlo fuori.

Forse vivremo in un futuro in cui le interfacce utente cambiano, in cui la mia interfaccia utente per una particolare attività o attività non è realmente controllata da quell'azienda o da quell'attività come lo è oggi. Invece, è personalizzato per me. Sembra molto stravagante, ma penso che accadrà in fretta. Questi modelli linguistici sono molto potenti, stanno iniziando a essere utilizzati per scrivere codice e così via, e da qui è un salto molto breve per agire da parte mia. Abbiamo visto alcuni prototipi là fuori in cui le persone stanno lavorando su modelli che comprendono un sito Web abbastanza bene da accettare una frase inglese e navigare nel sito Web per te. E poi, ci stiamo dirigendo verso un futuro in cui è così che tutti interagiscono con i siti web? Hai più bisogno di un sito web?

Des: È questo il nuovo SEO? Assicurati che il tuo GPT possa capirti?

Fergale: Sì. Forse i siti Web si trasformano in qualcosa che assomiglia più a un'API esposta pubblicamente, e questo è qualcosa con l'interfaccia utente e la formattazione perché l'interfaccia utente viene formattata dagli agenti.

Des: Stiamo solo parlando con Siri o qualsiasi altra cosa.

“Forse è così che sarà il futuro con i bot. Abbiamo tutti un bot personalizzato per noi che gestisce l'interfacciamento e non devi preoccuparti così tanto di quel livello intermedio"

Fergal: Sì, e penso che Google e Apple possano vedere questo futuro. Non conosciamo la sequenza temporale, ma ancora una volta, lo strumento di pensiero che uso sempre è: e se tu avessi un essere umano molto intelligente che ti capisce, che ha lavorato con te, forse un assistente personale, e ti stai interfacciando con loro, e volevi prenotare una vacanza? Cosa ti chiederebbero a riguardo? E nella metà delle cose che vedi su booking.com o qualsiasi altra cosa, non te lo chiederanno - prenoteranno solo la vacanza per te e forse torneranno con domande chiarificatrici: "Oh, volevi vai a stare in un appartamento, ma lì non c'è posto. Andrà bene un hotel? Ma questa è un'interfaccia utente adattabile. Ancora una volta, non mi concentro troppo su ChatGPT e su ciò che è appena stato spedito. Ti prendi un anno o due fuori. Si sta muovendo troppo velocemente. Se sei scettico a causa delle attuali limitazioni, stai andando-

Des: Il tuo scetticismo mancherà il bersaglio.

Fergale: Esattamente. I trasformatori sono estremamente potenti e le architetture dei trasformatori utilizzate dalle persone sono estremamente potenti. Abbiamo visto migliorare più modalità qui. Una cosa sarebbe se tutto ciò che avessimo visto fosse la generazione di immagini DALL·E 2. Ma no, stiamo assistendo a trasformazioni nella sintesi audio, nella sintesi delle immagini, nella comprensione del testo, nella sintesi del testo, nella compressione del testo. Stiamo assistendo a così tanti progressi paralleli. Può scrivere codice. Probabilmente presto sarà in grado di far funzionare un sito web. Quindi forse è così che sarà il futuro con i robot. Abbiamo tutti un bot personalizzato per noi che gestisce l'interfaccia e non devi preoccuparti così tanto di quel livello intermedio.

Des: Una scena superprototipo che ho visto su Twitter era qualcuno che addestrava un bot a parlare con la propria voce, credo, e a chiamare un numero e navigare in un albero telefonico bancario, mettersi effettivamente in contatto con un agente, richiedere di avere tutti i loro transazioni in valuta estera rimborsate o qualcosa del genere. Qualcosa che è il tipo di standard in cui devi solo chiedere e loro lo fanno. È arrivato fino alla fine. E letteralmente, hanno appena detto: "Vai" e se ne sono andati. Era ovviamente super artificioso, forse super chiuso, ma era comunque un caso d'uso molto reale end-to-end eseguito automaticamente.

Fergal: Penso che sia un'area davvero interessante. Parliamo molto di come cambierà il servizio clienti, e dove la nostra testa va sempre è cosa succederà quando avrai un bot come ChatGPT ma personalizzato per la tua attività e davvero eccezionale nel rispondere alle domande e il costo dei problemi del servizio clienti diminuirà. Ma c'è un altro aspetto. Come cambierà il servizio clienti quando l'utente dispone di un bot in grado di gestire le interazioni del servizio clienti e non si arrende o si stanca? E c'è potenzialmente un grande cambiamento lì.

Des: Fondamentalmente, il nuovo B2B sarà bot-to-bot.

Fergale: Forse. Potrebbe passare un po' di tempo prima che gli utenti abbiano quel tipo di tecnologia, ma è una cosa interessante da considerare.

L'enigma dell'autenticità

Des: Come pensi in generale a questo mondo a doppia faccia della creazione e, in definitiva, a ciò che potrebbe essere visto come un inganno - sembra un dipinto, ma non è un dipinto, è stato generato - rispetto al rilevamento, l'idea che le persone possano dire , "Ehi, ho davvero scritto a mano quel codice, non è un codice generato." Quanto è importante per l'umanità navigare in questo mondo? C'è una scena famosa in Westworld, una fabbrica di robot western, in cui un tizio vuole...

Fergal: È un remake di una cosa vecchia.

Des: Ah, vero? Novità per me. Non sapevo fosse un remake di una cosa vecchia. Ma in Westworld, c'è una scena in cui un ragazzo incontra una donna, ha una conversazione con lei e poi, alla fine, dice: "Devo chiedertelo, sei reale?" La sua risposta è: "Se devi chiedere, perché è importante?" E penso che ci sia qualcosa lì. Il superamento della nostra capacità di rilevamento sarà visto come la definizione di autentico? L'autenticità è ancora una cosa? Nell'esempio bancario, come dirà una persona: "Ehi, Fergal, sei davvero tu o è un robot che hai addestrato?" Soprattutto se l'hai addestrato a rispondere a questa domanda.

Fergal: Ci sono alcune grandi domande lì. Ci sono almeno cinque domande lì dentro di cui probabilmente ho perso le tracce. Potresti parlare del test di Turing, un documento molto preveggente su come saremo in grado di dire quando un computer è diventato adeguatamente intelligente, e quindi un test era un test disfunzionale - se un giudice umano può discernere in modo affidabile tra i due tramite interfaccia di testo o altro, potremmo dire che non è intelligente. E quando lo supera, dovremmo accettare che sia funzionalmente intelligente. È molto travisato, ma il suo articolo era più simile a "Sta facendo qualcosa di veramente interessante se arriva a quel punto". E questo è un modo di affrontare le cose in modo funzionale.

"Racconta una storia in cui c'è molto da fare e poi poni una sorta di domanda complessa e consequenziale su questo, e verrà comunque inciampato"

Des: E l'abbiamo superato, direi. Nei dintorni.

Fergal: Ci sono sempre titoli su qualcosa che supera il test di Turing. Penso che la formulazione originale sia qualcosa come un abile interrogatore o qualcosa del genere. Non siamo ancora a quel punto. Se qualcuno è addestrato a porre le domande giuste, questa roba si romperà rapidamente. Non ha il modello del mondo profondo che ha un essere umano.

Des: Esatto. Come faresti il ​​trucco di fare una domanda autoreferenziale? Chiederesti a qualcuno di inciampare linguisticamente?

Fergal: La tecnologia sta migliorando in questo. Ma è più come creare un dominio complesso. Racconta una storia in cui stanno succedendo molte cose e poi poni una sorta di domanda complessa e consequenziale su questo, e verrà comunque inciampato. Si farà inciampare in un modo che un bambino non farebbe. Ma penso che il modo giusto di pensare a questo sia che hai a che fare con l'intelligenza aliena. Vuoi chiamarla intelligenza, ma avrà una forma diversa. Quindi, ci saranno un sacco di cose che un bambino di sette anni non sarebbe in grado di scrivere - sarò in grado di scrivere un programma per computer, ma quello che potresti chiamare ragionamento basato sul buon senso non esiste ancora. Detto questo, filosoficamente, si tratta di stabilire se questa cosa è viva e percepisce cose. E no, chiaramente no, con la maggior parte delle definizioni che la maggior parte delle persone userebbe. Ma questo è come virare verso la filosofia delle domande sull'intelligenza artificiale.

Per tornare al punto iniziale, cosa succede se si desidera creare CAPTCHA per questi sistemi? Che aspetto ha? Sì, le persone hanno modi di filigranare e rilevare se quel testo è prodotto da questi modelli, ma non so se sarà affidabile se hai un modello che è davvero bravo a iniettare la giusta quantità di rumore.

Una cosa che metterei in guardia chiunque in questo campo è che ci sono sistemi di apprendimento automatico e c'è tipo "come posso fare in modo che il mio sistema di apprendimento automatico abbia una qualità sufficientemente buona da raggiungere la mia soglia di rilevamento delle immagini del 99% nella vita reale?" Questo è uno standard. E c'è tutto questo altro standard: come faccio a costruire il mio sistema di apprendimento automatico per funzionare bene rispetto all'input contraddittorio? È tutta un'altra partita.

"Per un po', almeno, qualsiasi grande giocatore con un modello linguistico di grandi dimensioni cercherà di fermarti se lo stai usando per compiti nefasti come quello"

Des: design difensivo.

Fergal: design difensivo. Come mi difendo da input contraddittori? E in generale, è davvero difficile. Se mi dicessi: "Oh, ho un nuovo fantastico sistema di apprendimento automatico che rileverà le frodi o proteggerà il mio sistema in un ambiente complesso", sarei estremamente scettico. Esistono sistemi di rilevamento delle frodi, ma è diverso da qualcuno che tenta di attaccare il sistema di apprendimento automatico.

Penso che l'intero problema di rilevare quando parli con un bot, quando parli con un modello linguistico di grandi dimensioni quando non lo vuole, sarà difficile. E se in futuro ci troveremo in una situazione in cui il servizio clienti viene invaso da bot che fingono di essere utenti, sarà difficile da gestire. Ma immagino che per un po', almeno, qualsiasi grande giocatore con un modello linguistico di grandi dimensioni proverà a fermarti se lo stai usando per compiti nefandi come quello. E ci sarà un certo controllo lì perché questi modelli di così alta qualità sono difficili da ospitare ed eseguire da soli su qualsiasi tipo di materiale hardware del modello di consumo. Ci può essere una certa responsabilità.

Interruzioni incombenti

Des: Se ingrandiamo un po', probabilmente non siamo troppo lontani dall'essere in grado di generare musica dal suono plausibile. Musica da lobby, quel genere di cose.

Fergale: Sì. Musica.

Des: Muzak, appunto. E in una certa misura, ci sono canzoni stereotipate - penso che qualcosa come 65 canzoni numero uno abbiano gli stessi quattro accordi o qualcosa del genere, o comunque canzoni in cima alle classifiche. E, ovviamente, i romanzi di Dan Brown seguono tutti un formato semplice. Ciò non significa che sia negativo, ma fino a che punto cambia la società quando tutto ciò che è espresso in una certa misura in una natura stereotipata può essere replicato e, alla fine, puoi ottenerne una versione da $ 0? Il Codice Da Vinci è ancora Il Codice Da Vinci, è un buon libro secondo qualsiasi definizione normale, ma ora puoi ottenerne la versione da seminterrato per $ 0 o cinque centesimi o qualsiasi altra cosa. E poi, pensi che accada in ogni tipo di creatività. Ancora una volta, questo non vuol dire che i risultati di queste tecnologie saranno comparabili, ma saranno potenzialmente l'1% del prezzo. Come pensi che cambi il mondo in quel tipo di futuro?

“È il paradosso di Jevons: a volte, fare qualcosa di più economico significa finire per farne molto di più. Queste dinamiche sono davvero difficili da prevedere"

Fergal: Penso in molti modi diversi. Puoi guardare le analogie del passato. Puoi guardare la pittura, e poi è arrivata la fotografia, e all'improvviso è stato facile catturare un'immagine di un paesaggio ma...

Des: Sono sicuro che ai pittori non è piaciuto, vero?

Fergal: Non conosco abbastanza bene la storia, ma in genere c'è qualche titolare che si arrabbia ogni volta che c'è un'interruzione.

Des: Penso che sia stato lo stesso con la radio o le cassette - i musicisti dal vivo dicevano "Beh, yo, questo era il nostro concerto".

Fergale: Sì. Ogni cinema aveva un pianista che suonava la colonna sonora, e questo è andato via. Grammofoni e accordatori di pianoforti, il telaio ei luddisti... Gli esempi sono innumerevoli. E penso che ci siano altre aree che devono affrontare un'interruzione imminente e ci saranno conversazioni difficili su ciò che è prezioso. Allo stesso modo, con l'assistenza clienti, devi essere sensibile. Ci sono sempre risultati migliori e risultati peggiori. Le persone potrebbero guardare i modelli di linguaggio di grandi dimensioni che migliorano nella scrittura del codice e dire: "Ehi, come programmatore, questa preziosa abilità che ho investito anni per entrare, accidenti, non sarà più utile".

"Ci saranno meno rappresentanti dell'assistenza clienti in un mondo con molta automazione o ce ne saranno di più perché il valore che possono apportare a un'azienda è stato amplificato?"

Ci sono diversi modi di pensare a questo. Puoi pensarci in termini di AWS. Utilizziamo molto Amazon in Intercom e probabilmente, se dovessimo fare tutto ciò che abbiamo fatto senza AWS, ci costerebbe più ordini di grandezza del tempo del programmatore per farlo. Ciò significa che di conseguenza assumiamo meno programmatori? Bene, probabilmente significa che non saremmo fattibili come azienda senza quella tecnologia abilitante. È il paradosso di Jevons: a volte, fare qualcosa di più economico significa finire per farne molto di più. Queste dinamiche sono davvero difficili da prevedere. Ci saranno meno rappresentanti dell'assistenza clienti in un mondo con molta automazione o ce ne saranno di più perché il valore che possono apportare a un'azienda è stato amplificato?

Des: Quando prendiamo tutte le cose reali, in realtà vediamo il valore che portano, e tu dici: "Ne voglio di più".

Fergal: Ne vuoi di più; ne hai bisogno di più. All'improvviso è come, "Wow, cosa potremmo sbloccare in termini di valore per la nostra attività se avessimo molte di quelle ripetizioni?" Ognuno potrebbe fare 10 volte di più di quello che fa attualmente. Non si sa mai. Penso che sia qualcosa che a volte viene perso. Le persone rispondono sempre all'interruzione tecnologica e parlano sempre di: “Oh, puoi salire la scala del valore e ottenere un lavoro migliore. Puoi diventare un product manager se è lì che vuoi andare. E questo è potenzialmente un modo. Ma un altro modo è che solo diventare molto più produttivi in ​​​​quello che fai attualmente può trasformare la quantità di ciò che devi fare.

Des: O più attività diventano possibili grazie a questo.

Fergal: Più attività diventano possibili. Questa è la cosa migliore. Penso che tutto questo si svilupperà con cose come l'arte AI. Ovviamente, c'è un dibattito sul plagio e sulla violazione del copyright. Se qualcuno va e addestra DALL·E 2 su un intero gruppo di immagini, è stata una violazione del copyright? E se imparassero lo stile di un artista e poi gli chiedessi di produrre un lavoro come il loro? È una violazione del copyright? E probabilmente ci sono molte cose che i sistemi legali e la società devono capire lì. Una cosa che penso manchi dal dibattito a volte è che anche se decidi che è una violazione del copyright addestrare i modelli attuali - e non lo accettiamo con gli umani; agli umani è permesso guardare le cose e copiare il loro stile: qualcuno costruirà comunque modelli addestrati su un lavoro aperto e consentito, e diventeranno piuttosto bravi a generare immagini. Penso che quella nave abbia navigato fino a un certo punto.

Quanto grande può andare?

Des: Per tirare fuori alcuni aghi qui, hai fatto riferimento ad AWS come un esempio in cui non abbiamo un enorme team di server qui. Non abbiamo schedari pieni di server. Il tuo team di intelligenza artificiale è più piccolo a causa dell'esistenza di OpenAI, Anthropic e tutto il resto? Se non esistessero, costruireste una versione AI del team del server?

Fergal: Sì, voglio dire, è una bella domanda. Ci sono diversi modi di guardarlo. Il team AI viene interrotto? E siamo andati avanti e indietro su questo. Diamo un'occhiata alla versione attuale dei modelli di linguaggio di grandi dimensioni. Stavo giocando con GPT di recente come consigliere di film. È come, "Ehi, mi piace guardare X e Y. Mi suggerisci qualcosa?" E non è male. Sono sicuro che non è buono come un raccomandatore ben sintonizzato che ha tutti i dati migliori, ma sta andando molto meglio che scegliere film a caso. E uscirà, sputerà come se fosse un ragionamento. E il suo ragionamento, come tutto ciò che fa, è plausibile, ma non è male. Quindi, di nuovo, anche se la tecnologia non è eccezionale ora - non mi affretterei a produrre un film consigliato da esso o altro - e se migliorasse 10 o 100 volte? E se gli fornissi molti più dati di allenamento o un regime di allenamento decisamente migliore?

"Ci sono tantissime opportunità con l'unione di questa nuova capacità in cose specifiche in cui è brava con un sacco di impalcature, un sacco di lavoro sul prodotto intorno a questo"

Des: Aspetta GPT-4.

Fergal: Sì, GPT-6, qualunque cosa assomigli, giusto? Qualunque cosa ti comprino 10 miliardi di dollari di calcolo e rinforzo, imparando il feedback umano, se questo è, in effetti, ciò che accade. E se ciò accade? Vai ancora a costruire un sistema di raccomandazione? Qualcuno ti chiede un sistema di raccomandazione, lo fai? Sam Altman ha tenuto discorsi su di esso. Immagina di poterlo portare a livello umano. If you had something that was human-level general intelligence, would you need a machine learning team anymore? Or would you just sit down like, “Hi, how's it going? Today I'm going to teach you how to be a movie recommender.” You've got to give lots of examples, and it's got to be able to consume a data set about movies. But maybe it's just like, “Hey, AI system, write the code to consume the data set about movies.” Non lo so.

“You're getting into big questions, Des. And maybe that's just where all our heads are going at the moment. But you can get into big questions about, like, by the time that's disrupted, what percentage of current human economic activity is disrupted?”

Des: Yeah, totally correct.

Fergal: But that's a very bullish case. Maybe we hit some asymptote before then, and I certainly don't think we're near that point at the moment. I think you still need your machine learning team. And I think we're certainly in this happy Jevons Paradox for a while where a lot of stuff is unlocked, and maybe we're doing slightly different work than we were before – we're certainly doing a lot more prompt engineering – but these systems are not yet good enough to just train-

Des: Yeah. To outsource the whole thing to OpenAI, and they'll solve our problems.

“If you put 100X more resources into model training or dataset creation, what return do you get? Is it 10X, a 100X, a 1000X? I don't know if anyone knows that”

Fergal: Right, yeah. I really hesitate to speculate about when. Just to give you one super concrete limitation. All these models have a prompt size. The amount of context you can pass to it with a prompt is limited. And that limit is baked in pretty low down. And so, a lot of the stuff the team is doing at the moment is around, “Hey, how do we work around that? How do we give them a relevant article?” And we're using more traditional machine learning techniques – traditional as in, invented five years ago. The classic stuff.

There are tons of opportunities with the marriage of this new capability in specific things it's good at with a lot of scaffolding, a lot of product work around that. I think there will be disruption, and it feels like extremely disruptive tech to me, particularly when you project a few years out. But we don't know how big it'll be. And I don't think anyone knows how big it'll be yet. Maybe the folks in OpenAI do. But if you put 100X more resources into model training or dataset creation, what return do you get? Is it 10X, a 100X, a 1000X? I don't know if anyone knows that. There's certainly no consensus on it.

Des: There was that quote from Sam Altman where he was asked something – I think it was some irrelevant question about challenges in San Francisco or something like that – and his answer was, “When you believe that artificial general intelligence is as close as I do, you struggle to think about any other problem.” When I read that, I was like, “Okay, well, he's certainly leaned a certain way.” Now, he could still be thinking in 20 years, but some societal problems are kind of irrelevant against the greater potential wave of what could be happening here.

“There's clearly a pitfall to avoid and an attractive pitfall to fall into”

Fergal: Yeah. Full disclaimer mode now. I think there's a lot of merit to that style of thinking, personally. I remembered there were times in the history of computation when it was like, “Oh, if you've got a million dollars to solve a computing problem and you need to solve it as soon as possible, what you need to do is sit with the million dollars for two years and then buy the fastest computer that the million could buy.

Des: I remember my own career. In 2006 or 2007, mobile websites were all the thing. Pre-iPhone, right? And people were talking about WAP and JMI files or JNI files, and everyone hyped up their mobile strategy. And literally, by the time I finished working out what I thought was the right recommendation for a client, the iPhone had launched. And I was like, “You know what? Don't worry about it. Sit on your hands. Apple's going to solve this entire problem.” And sure enough, two months later, “Hey, it turns out all our websites are mobile-ready.” Sometimes, a tech wave can be so big that any temporal thing you do will just be irrelevant against the magnitude of what's going to happen.

Fergal: Yeah, if you believe AGI is close, I guess I can logically see that position. Now, clearly, it seems like there's a terrible mistake to make there where-

Des: Yeah, where we're wrong, and you've probably just been sitting on your hands.

Fergal: You've given yourself a license to ignore terrible, terrible things. So obviously, you've got to wait, and I'm not making any judgment on that. But yeah, there's clearly a pitfall to avoid and an attractive pitfall to fall into. I think it's very hard to bet against increasingly general intelligence. And I don't know timelines and stuff, but I think there are big questions for people to think about. Now, that's definitely way outside customer support or customer service.

Des: No, yeah. Well, look, thank you very much. We'll check in in six weeks to find out that this podcast is yet again out of date. We'll see where we're at again. But for now, thank you very much.

Fergal: Thanks, Des.

CTA-Intercom-on-Product