GPT zostanie. Dokąd nas zaprowadzi?

Opublikowany: 2023-02-03

GPT rozwija się przed nami, a my nic nie tracimy. Kiedy badamy potencjał i ograniczenia tej nowej technologii, czy sprosta ona szumowi?

Od momentu uruchomienia pod koniec listopada, ChatGPT zdobył serca i umysły ludzi na całym świecie dzięki swojej zdolności do generowania reakcji podobnych do ludzkich. Jednak, jak w przypadku każdej nowej technologii, często istnieje luka między szumem a rzeczywistością. W szczególności generatywna sztuczna inteligencja jest całkiem naturalną maszyną do szumu.

Rozumiemy sceptycyzm — duże modele językowe świetnie wyglądają wiarygodnie, nawet jeśli są błędne. Ale prawdę mówiąc, jesteśmy bardzo optymistyczni. W ciągu ostatnich ośmiu tygodni stworzyliśmy funkcje oparte na sztucznej inteligencji i wysłaliśmy je do 160 klientów w wersji beta, a opinie były w przeważającej mierze obiecujące. Do tego stopnia, że ​​na początku tego tygodnia nasz dyrektor ds. uczenia maszynowego, Fergal Reid, i ja opublikowaliśmy specjalny odcinek podcastu, aby podzielić się naszymi spostrzeżeniami na temat tego, co zbudowaliśmy i czego się nauczyliśmy.

Tym razem wychodzimy poza interkom, a nawet poza obsługę klienta. W dzisiejszym odcinku zagłębimy się we wszystko, co związane jest z GPT — od sceptycyzmu po jego rolę w komunikacji biznesowej, od zakłócania pracy twórczej po przyszłość interfejsów użytkownika.

Oto niektóre z kluczowych wniosków:

  • Nie chodzi tylko o poprawę technologii — coraz lepiej rozumiemy, co należy zbudować, jak to dostosować i zintegrować, a cała ta dynamika napędza branżę do przodu.
  • Być może przyszłość interfejsów człowiek-maszyna będzie ułatwiona dzięki spersonalizowanym botom opartym na sztucznej inteligencji, które rozumieją intencje użytkowników i pośredniczą w ich interakcjach.
  • Modele te odblokowały wiele nowych możliwości i oszukały kogoś na pierwszy rzut oka, ale nadal brakuje im zdrowego rozsądku potrzebnego do zdania testu Turinga.
  • GPT może zakłócić branżę obsługi klienta, ale jeśli automatyzacja zwiększy produktywność agenta, może ostatecznie odblokować możliwości, które zwiększą ich wartość dla firmy.

Upewnij się, że nie przegapisz żadnych najważniejszych wydarzeń, śledząc Intercom w produkcie w Apple Podcasts, Spotify, YouTube lub pobierając kanał RSS w wybranym odtwarzaczu. Poniżej znajduje się lekko zredagowana transkrypcja odcinka.


Poza szumem

Des Traynor: Cześć, witam w podcaście Intercom. Ponownie dołączył do mnie Fergal i będziemy rozmawiać o wszystkim, co dotyczy GPT. Fergal, minęło osiem tygodni od uruchomienia ChatGPT. Już teraz ludzie budują przydatne produkty przeciwko temu i już mieliśmy falę sceptyków, którzy mówili, że to zabawka, jest niedojrzała, nie jest gotowa na nic nigdy, co jest po prostu klasyczną nową technologią. Gdzie jest twoja głowa? Czy sceptycyzm jest uzasadniony? Czy przekroczyliśmy jakiś percepcyjny klif, który naprawdę ma znaczenie?

Fergal Reid: Tak, myślę, że sceptycyzm ma pewne uzasadnienie. Te rzeczy są prawie naturalnymi maszynami do szumu. Tak łatwo jest na to patrzeć i zobaczyć, jak robi coś, co wydaje się dobre. Jeśli naprawdę się w to nie zagłębisz, wygląda cudownie. A potem, kiedy się w to zagłębisz, myślisz: „Ach, to źle, czuję się wprowadzony w błąd”. Te maszyny są zaprojektowane do generowania wiarygodnych rzeczy, a jeśli są wiarygodne, ale źle jest dla ciebie problemem, może to być bardzo rozczarowujące. Rozumiem więc domyślne stanowisko sceptycyzmu, z którym wiele osób podchodzi do tej technologii.

„ChatGPT, tak jak jest dzisiaj w Internecie, może być zabawką, ale to nie znaczy, że nie możemy wykorzystać podstawowej technologii i zbudować na jej podstawie niezwykle cennych funkcji biznesowych”

Jednak zawsze byliśmy bardzo optymistycznie nastawieni do generatywnej sztucznej inteligencji, a od naszej ostatniej rozmowy zbudowaliśmy kilka funkcji, wysłaliśmy je do wersji Beta, mieliśmy 160 kilku klientów korzystających z naszej wersji Beta z następujących funkcji: podsumowanie, niektóre funkcje w kompozytorze bardziej eksperymentalne, aby spróbować przyspieszyć ludzi. A potem mamy falę innych funkcji w formie prototypów, których jeszcze nie ma – rzeczy o dużej wartości biletu – ale myślimy, że widzimy to w zasięgu wzroku. Rozumiemy więc sceptycyzm, byliśmy optymistami, a teraz mamy dane – rzeczywiste wykorzystanie przez klientów, prawdziwi klienci mówiący nam, że jest konkretna praca, którą chcą wykonywać, którą wykonują przez cały dzień każdego dnia i jest to zmiana dla że. I to sprawia, że ​​pozycja sceptycyzmu zaczyna wyglądać na nieco chwiejną.

Des: Fakt, że ludzie faktycznie używają tej rzeczy do wykonywania części swojej codziennej pracy.

Fergal: Tak. To ostateczny arbiter w tej sprawie. Bardzo trudno jest być sceptycznym, gdy ludzie faktycznie go używają, a nie tylko jako zabawki. Tam jest linia logiki. Widzieliśmy kilka artykułów w The Atlantic i podobnych miejscach, w których ludzie mówili: „Hej, spójrz, ta rzecz jest bardziej zabawką niż naprawdę wartościowym produktem”. A ChatGPT, tak jak jest dzisiaj w Internecie, może być zabawką, ale to nie znaczy, że nie możemy wykorzystać podstawowej technologii i zbudować na jej podstawie niezwykle cennych funkcji biznesowych.

Mój zespół był prawdopodobnie jednym z kilku zespołów, które robiły to w ciągu ostatnich kilku miesięcy, mówiąc: „Wow, to przynosi prawdziwą wartość” i myślę, że prawdopodobnie jesteśmy jedną z większych firm zajmujących się obsługą klienta, która z powodzeniem miał cykl rozwojowy, w którym faktycznie oddaliśmy to w ręce setek klientów i otrzymaliśmy od nich opinie. I naprawdę powiedzieli nam: „Tak, to naprawdę oszczędza mi czas; dzięki temu moja praca jest szybsza”. Tak, sceptycyzm staje się trudniejszy do utrzymania. To jeden argument. Myślę, że można również zaatakować sceptycyzm z innej pozycji: widzieliśmy wiele wątków i artykułów na Twitterze sceptycznie nastawionych do tej technologii, ponieważ poprzednia generacja nie przekroczyła przepaści i nie była transformacyjna. I są sceptyczni, ponieważ nowa technologia jest zawsze przereklamowana. Ale to nie są dobre argumenty. Są to argumenty, które są słuszne przez chwilę, a potem stają się strasznie błędne. Tutaj możesz odnieść porażkę, będąc zbytnim optymistą, ale równie dobrze możesz ponieść porażkę, będąc...

Des: Pusty i pesymistyczny.

Fergal: Dokładnie. Puste i pesymistyczne.

„W tym samym czasie dzieje się tak wiele dynamiki, które wzajemnie się uzupełniają i wzmacniają”

Des: Analogią, którą widzisz, są ludzie, którzy odrzucają każdy nowy pomysł na startup, o jakim kiedykolwiek słyszeli. Rzecz w tym, że 90% startupów nie wychodzi. Więc przez 90% czasu jesteś na miejscu i wyglądasz naprawdę elegancko. Potem marnujesz taki, który staje się biznesem wartym biliony dolarów i wszyscy mówią: „No tak, okazuje się…”. Myślę, że to Nat Friedman powiedział: „Pesymiści brzmią mądrze, optymiści się bogacą” czy coś w tym stylu. . I jest w tym trochę prawdy, gdy faktycznie przywiązujesz wagę do każdej opinii: stopień, w jakim się mylisz, gdy się mylisz, niweluje stopień, w jakim masz niewielką rację, po prostu będąc sceptycznym wobec technologii.

Fergal: Tak, na 100%. Słuchaj, wierzę w sztuczną inteligencję i jej wartość. Myślę, że mamy wystarczająco dużo dowodów na prawdziwą wartość. W ciągu ostatniej dekady obserwujemy ogólny wzrost i wzrost trendu uczenia maszynowego i sztucznej inteligencji. Mamy nowe możliwości. Uważam, że mój zespół ma wystarczające dowody na to, że odblokowano przynajmniej niektóre możliwości dla GPT-3.5 i innych dużych modeli językowych, których nie było sześć miesięcy temu. Wierzę, że jest nawis; jest o wiele więcej produktów, które moglibyśmy teraz stworzyć, a których jeszcze nie zbudowano, niż było. Więc tak, jesteśmy optymistami i zaczynamy widzieć klientów, którym wysłaliśmy wersję beta, aby powiedzieć nam: „Tak, to działa, to jest świetne”.

Nie przekroczyliśmy jeszcze ostatniego kawałka. Wiemy, że jest to przełomowe pod względem podstawowej wartości dla zadań, które nasi klienci spędzają na wykonywaniu 99% swojego czasu. Dlatego dostarczamy funkcję podsumowania i inne funkcje, aby zaoszczędzić czas w skrzynce odbiorczej. Ale nadchodzą wielkie rzeczy, których jeszcze nie zbudowaliśmy, nad którymi wewnętrznie pracujemy, ale nie widzieliśmy ich na rynku. Uważamy więc, że prawdziwe emocje wciąż nadchodzą.

Des: Istnieje pewna hierarchia transformacji, co do której na pewno ktoś mnie poprawi w komentarzach, ale udostępniliśmy już aktywne funkcje do przekształcania określonych przepływów pracy, a poprzez transformację mamy na myśli zmniejszenie kosztu wykonania tej czynności do 5% co to było kiedyś. W przypadku, powiedzmy, podsumowania. Następnie może przekształcić bardzo powszechne przepływy pracy. Następnie może to być przekształcenie pracy, następnie przekształcenie organizacji, a na samym szczycie przekształcenie biznesu. Ale jest całkiem jasne, że gdy identyfikujemy coraz więcej przypadków użycia, w których możemy zapewnić dużą wartość, przedzieramy się przez tę, moim zdaniem, nieuniknioną transformację świata obsługi klienta.

„Udaliśmy się do naszych klientów wewnętrznie i musieliśmy zamknąć rekrutację w wersji beta znacznie wcześniej, niż chcieliśmy, ponieważ była to jedna z największych odpowiedzi, jakie kiedykolwiek otrzymaliśmy”

Fergal: Zdecydowanie. Jest tak wiele sposobów, w jakie zmienia się to równolegle. W tym samym czasie dzieje się tak wiele dynamiki, które wzajemnie się uzupełniają i wzmacniają. Pierwsza jest dość oczywista: dostępna technologia jest coraz lepsza. To nie koniec. OpenAI i inni gracze, tacy jak Anthropic, cały czas budują nowe modele i są one ekscytujące. To nie koniec. Więc to jest jedna dynamika. Jest jeszcze jedna dynamika, która polega na tym, że coraz lepiej budujemy produkty wokół nich. Stajemy się coraz lepsi w braniu tych modeli i ustalaniu rodzaju rzeczy, w których są dobrzy. Jest jeszcze jedna dynamika, która polega na tym, że coraz lepiej dostosowujemy je, tworzymy odpowiednie monity i integrujemy je z naszymi istniejącymi systemami. A potem oczekiwania naszych klientów są coraz wyższe.

Naprawdę odkryliśmy, że od czasu ChatGPT nastąpiła ogromna fala zainteresowania ze strony naszych klientów. Widzą obietnicę i wierzą, że coś w tym jest. W przypadku wersji beta weszliśmy do naszych klientów wewnętrznie i musieliśmy zamknąć rekrutację do wersji beta znacznie wcześniej, niż chcieliśmy, ponieważ była to jedna z największych odpowiedzi, jakie kiedykolwiek otrzymaliśmy. Ludzie chcieli na nim być. Tak więc, moim zdaniem, wszystkie te rzeczy razem powiększą znacznie więcej niż każda z nich osobno.

Des: To interesujące, jak to rozkładasz. Technologia się poprawia, możliwości firm poprawiają się, a to tylko adaptacja w lokalnych przypadkach. A następnie poprawia się zdolność firm do myślenia lub konceptualizacji nowych produktów i możliwości przy użyciu tej technologii. To samo z oczekiwaniami klientów wobec technologii. Prawdopodobnie tylko rok dzieli nas od ludzi, którzy będą mogli rozszerzać tekst w polu tekstowym, jako jeden prosty przykład. W pewnym sensie widzisz, jak te rzeczy pojawiają się wszędzie.

Fergal: Jeśli nawet rok. Oczywiście wielu z nas widziało ogłoszenie Microsoftu dotyczące wprowadzenia tych funkcji do Worda i innych. I zmieni się to szybko, jeśli zrobią to duże narzędzia zwiększające produktywność biurową. Może być naprawdę szybko.

Powstanie asystenta AI

Des: Przedstawię inny rodzaj sceptycyzmu – taki, który w każdym razie trochę do mnie przemawia. Myślę, że Kevin Cannon miał zabawny tweet, w którym powiedział: „Przyszłość składa się z ludzi używających GPT do rozwijania rzeczy takich jak „Chcę tę pracę” w piękny list, taki jak „Szanowny Panie” lub „Madame”, bla, bla , bla… A potem odbiorca, klikając przycisk podsumowania, widzi, że osoba właśnie powiedziała: „Chcę tę pracę, oto moje CV” lub cokolwiek innego. W pewnym sensie kusiłoby cię, żeby na nie spojrzeć i pomyśleć: po co, do cholery, to wszystko? Czy język formalny, profesjonalne pisanie i biznesowy angielski stały się bezsensownym sposobem porozumiewania się w teatralny sposób, kiedy w przyszłości po prostu wyślę ci monit, a ty odpowiesz monitem w stylu: „Chcę stanowisko." „Nie możesz mieć tej pracy”.

Fergal: Tak. Trudne pytanie. To poważna spekulacja. Dam ci kilka opinii. Pewnie są jakieś konteksty, prawda? Powiedzmy dokument prawny. Możesz powiedzieć komuś z zespołu prawnego: „Hej, potrzebuję umowy. Musi zrobić X, Y i Z”. Ta prośba zamieni się w 10 stron prawnych rzeczy. Odbiorca będzie jak: „Och, czy robi trzy rzeczy, o których mówi, że zrobi?” A ich zespół prawny powie: „Tak, to prawda”. To jest jeden koniec skrajności, w którym występuje duża ekspansja i kompresja, ale w jakimś dziwnym przypadku klauzula numer 13 na stronie drugiej może pojawić się w sądzie i tak dalej. Tak wyraźnie, że to ma znaczenie. Nie możemy się go pozbyć. Nie możemy mieć tylko tych czterech punktów. Potrzebujemy tego wszystkiego. Możesz nie uważać tego za istotne, kiedy je piszesz, ale później może stać się to istotne. Wydaje się, że to jedna skrajność, w której jest coś w stylu: „Nie, wydaje się, że to musi tam być”, coś, co poradzi sobie ze wszystkimi tymi skrajnymi przypadkami.

A drugą skrajnością jest prawdopodobnie sytuacja, w której obrońca i odbiorca nie dbają o te szczegóły. Obaj nigdy nie będą przejmować się tymi szczegółami i po prostu przestrzegają pewnych towarzyskich łask lub formalności „tak się pisze list biznesowy. Piszę do dużej firmy, lepiej napiszę list biznesowy” i może te rzeczy znikną.

Des: W ten sam sposób myślę, że dla mnie analogią byłoby przeniesienie rozmów e-mailowych do SMS-ów, iMessage lub WhatsApp. Pomyśl o tym całym gównie, którego już nie mówisz. „Mam nadzieję, że to cię dobrze zastanie” czy cokolwiek. Całe to gówno zniknęło.

Fergal: Ograniczenia Twittera, format, medium dają ci pozwolenie na bycie bardziej zwięzłym. Myślę, że to prawdziwa dynamika. Sposób, w jaki się komunikujemy i sposób, w jaki piszemy artykuł w Centrum pomocy, może nie być optymalnym sposobem jego napisania. Może powinniśmy mówić krócej. W zespole uczenia maszynowego istnieje inny sposób myślenia o tym. Przyszłość świata będzie zależała od agentów. A kiedyś było to oczywiste dla każdego. Twoja przeglądarka internetowa miała agenta użytkownika, który ją ciągnie i takie tam. I jak mówię, to twój agent porusza się po tym dziwnym Internecie z tymi wszystkimi linkami i innymi rzeczami dla ciebie. Zrobi dla ciebie różne rzeczy, wróci i powie ci różne rzeczy. A potem wszystkie te rzeczy zostały scentralizowane, a teraz masz wyszukiwarkę i tak dalej.

„Co innego, gdybyśmy widzieli tylko generację obrazu DALL·E 2. Ale nie, obserwujemy przemiany w syntezie dźwięku, syntezie obrazu, rozumieniu tekstu, syntezie tekstu i kompresji tekstu”

W futuryzmie technologicznym, science fiction i tak dalej istnieje stary pomysł, że prawdopodobnie będziesz mieć agenta, który cię rozumie, twoje intencje, czego chcesz i jest wystarczająco inteligentny, aby dowiedzieć się, na co zwrócić twoją uwagę, a na co nie do. Możliwe więc, że w przyszłości sposób, w jaki to pójdzie, będzie bardziej podobny. Jeśli chcesz poznać konkretny szczegół, oprogramowanie po twojej stronie jest wystarczająco inteligentne, aby umieścić to w skróconej wersji. Ale jest wystarczająco inteligentny, aby wiedzieć, że nie chcesz znać tego szczegółu i pominąć go.

Może będziemy żyć w przyszłości, w której interfejsy użytkownika będą się zmieniać, a mój interfejs użytkownika do konkretnej firmy lub zadania nie będzie tak naprawdę kontrolowany przez tę firmę lub to zadanie, tak jak jest dzisiaj. Zamiast tego jest spersonalizowany dla mnie. Brzmi to bardzo fantazyjnie, ale myślę, że stanie się to szybko. Te modele językowe są bardzo potężne, zaczynają być używane do pisania kodu i tak dalej, a stąd już bardzo blisko do podjęcia działań z mojej strony. Widzieliśmy kilka prototypów, w których ludzie pracują nad modelami, które rozumieją witrynę na tyle dobrze, aby przyjąć angielskie zdanie i poruszać się po niej za Ciebie. A potem, czy zmierzamy w przyszłość, w której wszyscy będą wchodzić w interakcje ze stronami internetowymi? Czy potrzebujesz już strony internetowej?

Des: Czy to nowe SEO? Upewnić się, że Twój GPT może Cię zrozumieć?

Fergal: Tak. Może strony internetowe zamieniają się w coś, co wygląda bardziej jak interfejs API, który jest publicznie ujawniany, a to coś z interfejsem użytkownika i formatowaniem, ponieważ interfejs użytkownika jest formatowany przez agentów.

Des: Wszyscy po prostu rozmawiamy z Siri czy czymkolwiek.

„Może tak będzie wyglądać przyszłość z botami. Wszyscy mamy spersonalizowanego bota, który obsługuje interfejs i tak naprawdę nie musisz się tak bardzo martwić o tę warstwę pośrednią”

Fergal: Tak, i myślę, że Google i Apple widzą taką przyszłość. Nie znamy osi czasu, ale powtarzam, narzędziem do myślenia, którego zawsze używam jest: co by było, gdybyś miał bardzo inteligentnego człowieka, który cię rozumiał, który z tobą pracował, może osobistego asystenta, i byłeś z nim w kontakcie, i chciałeś zarezerwować wakacje? O co by cię o to zapytali? A w połowie rzeczy, które widzisz na booking.com czy gdziekolwiek, nie będą cię o to pytać – po prostu zarezerwują dla ciebie wakacje i być może wrócą z wyjaśniającymi pytaniami: „Och, chciałeś idź i zatrzymaj się w mieszkaniu, ale tam nie ma miejsca. Czy wystarczy hotel? Ale to elastyczny interfejs użytkownika. Ponownie, nie skupiam się zbytnio na ChatGPT i tym, co właśnie zostało wysłane. Odpoczniesz rok lub dwa. Porusza się za szybko. Jeśli jesteś sceptyczny z powodu obecnych ograniczeń, zamierzasz...

Des: Twój sceptycyzm nie trafi w sedno.

Fergal: Dokładnie. Transformatory są niezwykle wydajne, a stosowane przez ludzi architektury transformatorów są niezwykle wydajne. Widzieliśmy tutaj poprawę wielu modalności. Co innego, gdybyśmy widzieli tylko generację obrazu DALL·E 2. Ale nie, obserwujemy przemiany w syntezie dźwięku, syntezie obrazu, rozumieniu tekstu, syntezie tekstu, kompresji tekstu. Widzimy tak wiele równoległych postępów. Może pisać kod. Prawdopodobnie wkrótce będzie w stanie działać na stronie internetowej. Więc może tak będzie wyglądać przyszłość z botami. Wszyscy mamy spersonalizowanego bota, który obsługuje interfejs i tak naprawdę nie musisz się tak bardzo martwić o tę warstwę pośrednią.

Des: Jedną z superprototypowych scen, które widziałem na Twitterze, był ktoś, kto wyszkolił bota do mówienia własnym głosem, jak sądzę, dzwonienia pod numer i poruszania się po bankowym drzewie telefonicznym, skutecznego łączenia się z agentem, proszenia o wszystkie zwroty transakcji walutowych czy coś takiego. Coś, co jest rodzajem standardu, w którym wystarczy poprosić, a oni to zrobią. Całość dobiegła końca. I dosłownie, po prostu powiedzieli: „Idź” i odeszli. To było oczywiście super wymyślone, może super zamknięte, ale nadal był to bardzo realny przypadek użycia, wykonywany automatycznie od początku do końca.

Fergal: Myślę, że to naprawdę interesujący obszar. Dużo rozmawiamy o tym, jak zmieni się obsługa klienta, a nasze głowy zawsze kierują się tym, co się stanie, gdy masz bota takiego jak ChatGPT, ale dostosowanego do Twojej firmy i naprawdę świetnego w odpowiadaniu na pytania, a koszty problemów z obsługą klienta spadną. Ale jest jeszcze druga strona. Jak zmieni się obsługa klienta, gdy użytkownik ma bota, który może obsługiwać interakcje z obsługą klienta i nie poddaje się ani nie męczy? I tam jest potencjalnie duża zmiana.

Des: Zasadniczo nowe B2B będzie działać od bota do bota.

Fergal: Może. Może minąć trochę czasu, zanim użytkownicy będą mieli tego rodzaju technologię, ale jest to interesująca rzecz do rozważenia.

Zagadka autentyczności

Des: Co ogólnie myślisz o tym dwustronnym świecie kreacji i ostatecznie o tym, co można uznać za oszustwo – to wygląda jak obraz, ale to nie jest obraz, został wygenerowany – kontra wykrywanie, idea, którą ludzie mogą powiedzieć , „Hej, naprawdę ręcznie napisałem ten kod, to nie jest wygenerowany kod”. Jak ważne jest dla ludzkości poruszanie się po tym świecie? W Westworld jest słynna scena, zachodnia fabryka robotów, gdzie facet chce...

Fergal: To remake starej rzeczy.

Des: Och, tak? Nowości dla mnie. Nie wiedziałem, że to remake starego. Ale w Westworld jest scena, w której facet wpada na kobietę, rozmawia z nią, a na koniec mówi: „Muszę zapytać, czy ty naprawdę?” Jej odpowiedź brzmi: „Jeśli musisz pytać, dlaczego to ma znaczenie?” I myślę, że coś w tym jest. Czy wyprzedzanie naszych możliwości wykrywania będzie postrzegane jako definicja autentyczności? Czy autentyczność już nie istnieje? W przykładzie bankowym, jak ktoś powie: „Hej, Fergal, czy to naprawdę ty, czy to wyszkolony przez ciebie bot?” Zwłaszcza jeśli wyszkoliłeś go, jak odpowiedzieć na to pytanie.

Fergal: Jest tam kilka ważnych pytań. Jest tam co najmniej pięć pytań, o których prawdopodobnie zapomniałem. Można mówić o teście Turinga, bardzo proroczym artykule o tym, jak będziemy w stanie stwierdzić, kiedy komputer stał się odpowiednio inteligentny, a następnie jeden test był testem dysfunkcyjnym – jeśli ludzki sędzia może wiarygodnie rozróżnić te dwa przez interfejs tekstowy lub cokolwiek innego, moglibyśmy powiedzieć, że nie jest inteligentny. A kiedy to przejdzie, powinniśmy zaakceptować, że jest funkcjonalnie inteligentny. Często jest to przeinaczane, ale jego artykuł był bardziej w stylu: „Zrobi coś naprawdę interesującego, jeśli dojdzie do tego punktu”. I to jest jeden ze sposobów podejścia do rzeczy funkcjonalnie.

„Opowiedz historię, w której dużo się dzieje, a następnie zadaj jej złożone, konsekwentne pytanie, a i tak się potknie”

Des: Powiedziałbym, że to już za nami. W tej okolicy.

Fergal: Zawsze pojawiają się nagłówki o czymś, co przeszło test Turinga. Myślę, że oryginalne sformułowanie jest czymś w rodzaju wykwalifikowanego przesłuchującego czy coś w tym rodzaju. Nie jesteśmy jeszcze w tym momencie. Jeśli ktoś jest przeszkolony w zadawaniu właściwych pytań, to szybko się zepsuje. Nie ma głębokiego modelu świata, który ma człowiek.

Des: Jasne. W jaki sposób wykonałbyś sztuczkę polegającą na zadaniu pytania odnoszącego się do samego siebie? Poprosiłbyś kogoś, aby potknął się lingwistycznie?

Fergal: Technologia jest w tym coraz lepsza. Ale to bardziej przypomina konfigurowanie złożonej domeny. Opowiedz historię, w której dużo się dzieje, a następnie zadaj jej złożone, konsekwentne pytanie, a i tak się potknie. Potknie się w sposób, w jaki dziecko by się nie potknęło. Ale myślę, że właściwym sposobem myślenia o tym jest to, że masz do czynienia z obcą inteligencją. Chcesz to nazwać inteligencją, ale to będzie miało inny kształt. Będzie więc mnóstwo rzeczy, których siedmiolatek nie byłby w stanie napisać – ja będę potrafił napisać program komputerowy, ale to, co można nazwać zdrowym rozsądkiem, jeszcze nie istnieje. To powiedziawszy, filozoficznie, to mówi o tym, czy to coś żyje i wyczuwa rzeczy. I nie, zdecydowanie nie, z większością definicji, których większość ludzi by używała. Ale to trochę wkracza w filozofię pytań AI.

Wracając do pierwotnego punktu, co jeśli chcesz zbudować CAPTCHA dla tych systemów? Jak to wygląda? Tak, ludzie mają sposoby na znak wodny i wykrywanie, czy ten tekst jest tworzony przez te modele, ale nie wiem, czy będzie to niezawodne, jeśli masz model, który jest naprawdę dobry we wprowadzaniu odpowiedniej ilości szumu.

Jedną rzeczą, którą chciałbym ostrzec każdego w tej dziedzinie, jest to, że istnieją systemy uczenia maszynowego i jest coś w rodzaju: „Jak sprawić, by mój system uczenia maszynowego miał wystarczająco dobrą jakość, aby osiągnął mój próg wykrywania obrazu 99% w prawdziwym życiu?” To jeden standard. Jest jeszcze inny standard: jak zbudować system uczenia maszynowego, aby działał dobrze w porównaniu z danymi wejściowymi przeciwnika? To zupełnie inna gra w piłkę.

„Przynajmniej przez jakiś czas każdy duży gracz z dużym modelem języka będzie próbował cię powstrzymać, jeśli używasz go do takich nikczemnych zadań”

Des: Projekt obronny.

Fergal: projekt obronny. Jak bronić się przed wrogimi danymi wejściowymi? I ogólnie jest to bardzo trudne. Gdybyś powiedział mi: „Och, mam nowy, wymyślny system uczenia maszynowego, który wykrywa oszustwa lub chroni mój system w złożonym środowisku”, byłbym bardzo sceptyczny. Istnieją systemy wykrywania oszustw, ale różni się to od kogoś, kto próbuje zaatakować system uczenia maszynowego.

Myślę, że cała ta kwestia wykrywania, kiedy rozmawiasz z botem, kiedy rozmawiasz z dużym modelem językowym, kiedy on tego nie chce, będzie trudna. A jeśli w przyszłości znajdziemy się w sytuacji, w której obsługa klienta zostanie zalana przez boty udające użytkowników, trudno będzie sobie z tym poradzić. Ale wyobrażam sobie, że przynajmniej przez jakiś czas każdy duży gracz z dużym modelem języka będzie próbował cię powstrzymać, jeśli używasz go do takich nikczemnych zadań. I będzie tam pewna kontrola, ponieważ te modele o tak wysokiej jakości są trudne do hostowania i uruchamiania na jakimkolwiek sprzęcie konsumenckim. Może być jakaś odpowiedzialność.

Zbliżające się zakłócenia

Des: Jeśli trochę powiększymy, prawdopodobnie nie będziemy zbyt daleko od możliwości generowania wiarygodnie brzmiącej muzyki. Muzyka w lobby, tego typu rzeczy.

Fergal: Tak. Muzak.

Des: Muzak, dokładnie. I do pewnego stopnia, istnieją ogólne, schematyczne piosenki – myślę, że około 65 piosenek numer jeden ma te same cztery akordy lub coś w tym stylu, a w każdym razie utwory z najwyższych list przebojów. I oczywiście wszystkie powieści Dana Browna mają prosty format. To nie znaczy, że jest to złe, ale do jakiego stopnia zmienia się społeczeństwo, kiedy wszystko, co jest wyrażone do pewnego stopnia w formie formalnej, może być replikowane, a ostatecznie można uzyskać wersję za 0 USD? Kod Leonarda da Vinci to nadal Kod Leonarda da Vinci, jest to całkiem niezła książka według każdej normalnej definicji, ale teraz możesz kupić jej okazyjną wersję w piwnicy za 0 dolarów, pięć centów lub cokolwiek innego. A potem myślisz o tym, że dzieje się to w każdym rodzaju kreatywności. Ponownie, nie oznacza to, że wyniki tych technologii będą porównywalne, ale potencjalnie będą stanowić 1% ceny. Jak myślisz, jak zmieni się świat w takiej przyszłości?

„To paradoks Jevonsa – czasem zrobienie czegoś taniej oznacza, że ​​robisz tego o wiele więcej. Te dynamiki są naprawdę trudne do przewidzenia”

Fergal: Myślę na wiele różnych sposobów. Możesz spojrzeć na analogie z przeszłości. Możesz patrzeć na malarstwo, a potem pojawiła się fotografia i nagle łatwo było uchwycić pejzaż, ale...

Des: Jestem pewien, że malarzom się to nie podobało, prawda?

Fergal: Nie znam wystarczająco dobrze historii, ale generalnie jest jakiś urzędnik, który jest zdenerwowany, gdy dochodzi do zakłóceń.

Des: Myślę, że tak samo było z radiem lub kasetami magnetofonowymi – muzycy na żywo mówili: „Cóż, yo, to był nasz koncert”.

Fergal: Tak. Kiedyś w każdym kinie był pianista, który grał ścieżkę dźwiękową, i to zniknęło. Stroiciele gramofonów i fortepianów, krosna i luddyści… Przykładów na to jest niezliczona ilość. I myślę, że są inne obszary stojące w obliczu nieuchronnych zakłóceń i będą trudne rozmowy o tym, co jest cenne. Podobnie w przypadku obsługi klienta musisz być wrażliwy. Zawsze są lepsze i gorsze wyniki. Ludzie mogą patrzeć, jak duże modele językowe stają się coraz lepsze w pisaniu kodu i myśleć: „Hej, jako programista, ta cenna umiejętność, w którą zainwestowałem lata, nie będzie już przydatna”.

„Czy w świecie o dużej automatyzacji będzie mniej przedstawicieli ds. obsługi klienta, czy też będzie ich więcej, ponieważ wartość, jaką mogą wnieść do firmy, została powiększona?”

Można o tym myśleć na różne sposoby. Możesz myśleć o tym w kategoriach AWS. Często korzystamy z Amazona w firmie Intercom i prawdopodobnie gdybyśmy musieli robić wszystko, co robiliśmy bez AWS, kosztowałoby nas to więcej czasu programisty. Czy to oznacza, że ​​w rezultacie zatrudniamy mniej programistów? Cóż, prawdopodobnie oznacza to, że nie bylibyśmy wykonalni jako firma bez tej technologii. To paradoks Jevonsa – czasami zrobienie czegoś taniej oznacza, że ​​robisz tego o wiele więcej. Te dynamiki są naprawdę trudne do przewidzenia. Czy w świecie o dużej automatyzacji będzie mniej przedstawicieli obsługi klienta, czy też będzie ich więcej, ponieważ wartość, jaką mogą wnieść do firmy, została powiększona?

Des: Kiedy bierzemy wszystkie prawdziwe rzeczy, faktycznie widzimy wartość, jaką wnoszą, a ty mówisz: „Chcę tego więcej”.

Fergal: Chcesz tego więcej; potrzebujesz tego więcej. Nagle pojawia się: „Wow, co moglibyśmy odblokować pod względem wartości dla naszej firmy, gdybyśmy mieli dużo tych powtórzeń?” Każdy z nich mógłby zrobić 10 razy więcej niż obecnie. Nigdy nie wiesz. Myślę, że to jest coś, czego czasami brakuje. Ludzie zawsze reagują na zakłócenia technologiczne i zawsze mówią: „Och, możesz wspiąć się po drabinie wartości i znaleźć lepszą pracę. Możesz zostać menedżerem produktu, jeśli tylko chcesz”. A to potencjalnie jeden ze sposobów. Ale innym sposobem jest to, że samo zwiększenie produktywności w tym, co obecnie robisz, może zmienić ilość tego, co musisz zrobić.

Des: Albo dzięki temu możliwe staje się więcej biznesów.

Fergal: Więcej biznesów staje się możliwych. To jest najlepsze. Myślę, że wszystko to rozwinie się dzięki takim rzeczom, jak sztuczna inteligencja. Oczywiście toczy się debata na temat plagiatu i naruszenia praw autorskich. Jeśli ktoś idzie i trenuje DALL·E 2 na całej masie zdjęć, czy to było naruszenie praw autorskich? A co, jeśli nauczyli się stylu artysty, a potem poprosiłeś go o wykonanie pracy takiej jak ich? Czy to naruszenie praw autorskich? I prawdopodobnie jest wiele rzeczy, które systemy prawne i społeczeństwo muszą tam rozgryźć. Wydaje mi się, że czasami w debacie brakuje jednej rzeczy: nawet jeśli zdecydujesz, że trenowanie obecnych modeli jest naruszeniem praw autorskich – a my nie akceptujemy tego w przypadku ludzi; ludzie mogą patrzeć na rzeczy i kopiować ich styl – ktoś nadal będzie budował modele wyszkolone w otwartej, dozwolonej pracy i całkiem nieźle sobie poradzą z generowaniem obrazów. Myślę, że ten statek odpłynął do pewnego stopnia.

Jak duży może być?

Des: Aby rzucić tutaj kilka igieł, odniosłeś się do AWS jako jednego z przykładów, w których nie mamy tutaj ogromnego zespołu serwerów. Nie mamy szafek na akta pełnych serwerów. Czy Twój zespół AI jest mniejszy z powodu istnienia OpenAI, Anthropic i tak dalej? Gdyby nie istniały, czy budowałbyś wersję AI zespołu serwerów?

Fergal: Tak, to znaczy, to piekielne pytanie. Istnieją różne sposoby patrzenia na to. Czy zespół AI jest zakłócany? I przeszliśmy w tę iz powrotem w tej sprawie. Przyjrzyjmy się bieżącej wersji dużych modeli językowych. Ostatnio bawiłem się GPT jako polecający film. To jest jak: „Hej, lubię oglądać X i Y. Zaproponuj mi coś?” I nie jest źle. Jestem pewien, że nie jest tak dobry, jak dobrze dostrojony rekomendator, który ma wszystkie najlepsze dane, ale radzi sobie o wiele lepiej niż losowe wybieranie filmów. I to wyjdzie, wypluje, jakby to było rozumowanie. A jego rozumowanie, jak wszystko, co robi, jest wiarygodne, ale nie jest złe. Więc znowu, nawet jeśli technologia nie jest teraz świetna – nie spieszyłbym się, by stworzyć z niej rekomendację filmową czy coś – co jeśli stanie się 10 lub 100 razy lepsza? Co jeśli podasz mu o wiele więcej danych treningowych lub o wiele lepszy reżim treningowy?

„Istnieje mnóstwo możliwości dzięki połączeniu tej nowej zdolności z konkretnymi rzeczami, w których jest dobra, z dużą ilością rusztowań, wiele produktów wokół tego”

Des: Poczekaj tylko na GPT-4.

Fergal: Tak, GPT-6, jakkolwiek to wygląda, prawda? Niezależnie od tego, co kupisz za 10 miliardów dolarów na obliczenia i wzmocnienie, uczenie się opinii ludzi, jeśli tak faktycznie się dzieje. A co jeśli tak się stanie? Czy nadal idziesz i budujesz system rekomendacji? Ktoś prosi Cię o system rekomendacji, czy to robisz? Sam Altman wygłosił na ten temat wykłady. Wyobraź sobie, że moglibyśmy to osiągnąć na poziomie ludzkim. If you had something that was human-level general intelligence, would you need a machine learning team anymore? Or would you just sit down like, “Hi, how's it going? Today I'm going to teach you how to be a movie recommender.” You've got to give lots of examples, and it's got to be able to consume a data set about movies. But maybe it's just like, “Hey, AI system, write the code to consume the data set about movies.” Nie wiem.

“You're getting into big questions, Des. And maybe that's just where all our heads are going at the moment. But you can get into big questions about, like, by the time that's disrupted, what percentage of current human economic activity is disrupted?”

Des: Yeah, totally correct.

Fergal: But that's a very bullish case. Maybe we hit some asymptote before then, and I certainly don't think we're near that point at the moment. I think you still need your machine learning team. And I think we're certainly in this happy Jevons Paradox for a while where a lot of stuff is unlocked, and maybe we're doing slightly different work than we were before – we're certainly doing a lot more prompt engineering – but these systems are not yet good enough to just train-

Des: Yeah. To outsource the whole thing to OpenAI, and they'll solve our problems.

“If you put 100X more resources into model training or dataset creation, what return do you get? Is it 10X, a 100X, a 1000X? I don't know if anyone knows that”

Fergal: Right, yeah. I really hesitate to speculate about when. Just to give you one super concrete limitation. All these models have a prompt size. The amount of context you can pass to it with a prompt is limited. And that limit is baked in pretty low down. And so, a lot of the stuff the team is doing at the moment is around, “Hey, how do we work around that? How do we give them a relevant article?” And we're using more traditional machine learning techniques – traditional as in, invented five years ago. The classic stuff.

There are tons of opportunities with the marriage of this new capability in specific things it's good at with a lot of scaffolding, a lot of product work around that. I think there will be disruption, and it feels like extremely disruptive tech to me, particularly when you project a few years out. But we don't know how big it'll be. And I don't think anyone knows how big it'll be yet. Maybe the folks in OpenAI do. But if you put 100X more resources into model training or dataset creation, what return do you get? Is it 10X, a 100X, a 1000X? I don't know if anyone knows that. There's certainly no consensus on it.

Des: There was that quote from Sam Altman where he was asked something – I think it was some irrelevant question about challenges in San Francisco or something like that – and his answer was, “When you believe that artificial general intelligence is as close as I do, you struggle to think about any other problem.” When I read that, I was like, “Okay, well, he's certainly leaned a certain way.” Now, he could still be thinking in 20 years, but some societal problems are kind of irrelevant against the greater potential wave of what could be happening here.

“There's clearly a pitfall to avoid and an attractive pitfall to fall into”

Fergal: Yeah. Full disclaimer mode now. I think there's a lot of merit to that style of thinking, personally. I remembered there were times in the history of computation when it was like, “Oh, if you've got a million dollars to solve a computing problem and you need to solve it as soon as possible, what you need to do is sit with the million dollars for two years and then buy the fastest computer that the million could buy.

Des: I remember my own career. In 2006 or 2007, mobile websites were all the thing. Pre-iPhone, right? And people were talking about WAP and JMI files or JNI files, and everyone hyped up their mobile strategy. And literally, by the time I finished working out what I thought was the right recommendation for a client, the iPhone had launched. And I was like, “You know what? Don't worry about it. Sit on your hands. Apple's going to solve this entire problem.” And sure enough, two months later, “Hey, it turns out all our websites are mobile-ready.” Sometimes, a tech wave can be so big that any temporal thing you do will just be irrelevant against the magnitude of what's going to happen.

Fergal: Yeah, if you believe AGI is close, I guess I can logically see that position. Now, clearly, it seems like there's a terrible mistake to make there where-

Des: Yeah, where we're wrong, and you've probably just been sitting on your hands.

Fergal: You've given yourself a license to ignore terrible, terrible things. So obviously, you've got to wait, and I'm not making any judgment on that. But yeah, there's clearly a pitfall to avoid and an attractive pitfall to fall into. I think it's very hard to bet against increasingly general intelligence. And I don't know timelines and stuff, but I think there are big questions for people to think about. Now, that's definitely way outside customer support or customer service.

Des: No, yeah. Well, look, thank you very much. We'll check in in six weeks to find out that this podcast is yet again out of date. We'll see where we're at again. But for now, thank you very much.

Fergal: Thanks, Des.

CTA-Intercom-on-Product