Üründe İnterkom: ChatGPT her şeyi nasıl değiştirdi?

Yayınlanan: 2022-12-10

Belki derin sinir ağlarına ve doğal dil işlemeye gerçekten ilgi duyuyorsunuz, belki de sadece bir teknoloji meraklısısınız – muhtemelen OpenAI'nin yepyeni sohbet robotu ChatGPT'ye rastlamış olabilirsiniz. Aldatmaca artıyor, ancak soru hala geçerli: bu gerçekten oyunun kurallarını değiştirecek mi, yoksa söylemek için çok mu erken?


Yakın tarihli bir bölümde, Makine Öğrenimi Direktörümüz Fergal Reid, sinir ağı teknolojisindeki en son gelişmelere biraz ışık tuttu. DALL-E, GPT-3 ve AI'yı çevreleyen abartılı konuşmanın tam da bu olup olmadığı veya onda bir şey olup olmadığı hakkında sohbet ettik. Bize işlerin ölçeklenmeye başladığını söyledi. Ve aynen böyle, yine iş başındayız.

OpenAI'nin prototip yapay zeka sohbet robotu ChatGPT geçen hafta piyasaya sürüldü ve internetin koridorlarında dolaşıyor, inatçı tekno-pozitivistlerden sürekli teknoloji şüphecilerine kadar hayret verici tepkilere ilham veriyor. Bot, metin üreten bir yapay zeka olan GPT-3.5 tarafından destekleniyor ve OpenAI'ye göre, "takip sorularını yanıtlamayı, hatalarını kabul etmeyi, yanlış öncüllere meydan okumayı mümkün kılan" bir diyalog biçiminde metin üretebiliyor. uygunsuz istekleri reddedin.”

Gerçek dünyadaki kullanımlar için uygulandığını görmek için henüz erken olsa da, şüphesiz çok umut verici. Aslında, Fergal Reid'e göre, geçen yıl içinde yeteneklerde gördüğümüz değişiklik, bu alanın "internet kadar büyük" olabileceğini gösteriyor. İşte bu nedenle, yapay zeka dünyasındaki bu son gelişmeler, bunların ne anlama geldiği ve bunları müşteri desteği gibi gerçek hayat senaryolarında uygulama zamanının gelip gelmediği hakkında size özel bir bölüm sunmaya karar verdik.

İşte sohbetten en sevdiğimiz çıkarımlardan bazıları:

  • Ölçeği zorlayarak ve bu modelleri giderek daha fazla veriyle eğiterek, bu botlar denetimli öğrenme olmadan soyut kavramları öğrenmek gibi niteliksel değişiklikler sergilemeye başladı.
  • Şu anda ChatGPT, cevabı doğrulamanın kolay olduğu problemlerde veya doğru cevap diye bir şeyin olmadığı yaratıcı bağlamlarda en iyi performansı gösteriyor.
  • Bu modellerden önemli ölçüde daha iyi muhakeme yetenekleri görsek de halüsinasyonlarla ilgili sorunları var - bir şey bilmiyorlarsa uyduruyorlar.
  • Bu modelleri “adım adım düşünelim” istemiyle yönlendirirseniz, doğruluk oranları yükselir ve anında yanıt vermesinden daha iyi girdiler alırsınız.
  • Teknoloji arayüzlerimiz giderek daha fazla konuşmaya dayalı hale geliyor ve doğal dil anlayışının kalitesinin bunların kilidini açacak kadar iyi olduğunu yeni yeni görmeye başlıyoruz.
  • Temsilci büyütme gibi destek alanında bu teknolojinin pek çok heyecan verici uygulaması var, ancak konuşlandırılmadan önce yapılması gereken işler var.

Tartışmamızdan hoşlanıyorsanız, podcast'imizin diğer bölümlerine göz atın. iTunes, Spotify, YouTube'da takip edebilir veya seçtiğiniz oynatıcıda RSS akışını yakalayabilirsiniz. Aşağıda, bölümün hafifçe düzenlenmiş bir kopyası var.


ChatGPT'nin büyük başlangıcı

Des Traynor: Selam, Fergal.

Fergal Reid: Merhaba arkadaşlar. Nasıl gidiyor? Beni geri aldığın için teşekkürler.

Des Traynor: Güzel. Geri dönmen güzel. Yapay zeka ile olan şeyler hakkında konuşmak için sizi sadece beş hafta kadar önce podcast'e çıkardık. Ve daha fazla şey olduğu için tekrar geri döndün.

Fergal Reid: Yoğun bir beş hafta oldu.

Des Traynor: Yoğun bir beş hafta ve yoğun bir yedi gün oldu. Yedi gün önce 30 Kasım Çarşamba günüydü ve ChatGPT adlı bir şeyin açık beta sürümüne davet içeren bir e-posta aldım. Ne oldu?

"Viral oldu, çılgına döndü ve herkes gerçekten heyecanlandı"

Fergal Reid: Ne oldu? Bu ilginç bir soru. OpenAI, en son makine öğrenme sistemi olan AI sistemini yayınladı ve bunu herkese açık bir şekilde yayınladılar ve bu ChatGPT idi. Ve şu anki teklifleri olan GPT-3, GPT-3.5'e oldukça benziyor, ancak farklı bir şekilde paketlenmişti, içine bir kredi kartı koymanıza gerek yoktu ve sanırım herkes şunu gördü: "Vay, çok büyük bir olay oldu. son zamanlarda burada yetenek değişikliği. Viral oldu, çılgına döndü ve herkes gerçekten heyecanlandı. Ve aşağı yukarı aynı zamanlarda, davinci-003 gibi en son GPT-3.5 modellerini piyasaya sürdüler, bu pek çok aynı şeyi yapıyor ve "Hey, ben büyük bir dil modeliyim ve bunu senin için yapamam.” Ama yetenek açısından benzer.

Des Traynor: Herkesi temellendirmek için bazı hızlı tanımlar yapalım. OpenAI, açıkça AI ve ML üzerinde çok fazla çalışma yapan kurumdur. GPT dediniz: bu ne anlama geliyor?

Fergal Reid: Aslında hatırlamıyorum. Genel amaçlı transformatör veya bunun gibi bir şey [Önceden Eğitilmiş Üretken Transformatör].

Des Traynor: Ama bu ismin bir anlamı var mı?

Fergal Reid: Evet, bence anahtar parça trafo. Uzun bir süredir insanlar, "Hey, metin ve doğal dil işleme görevleriyle ilgilenen sinir ağlarını eğitmenin en iyi yolu nedir?" sorusunu çözmeye çalışıyorlardı. Ve uzun bir zamandı, metninizin kısa vadeli yapısını cümlenizin uzun vadeli yapısıyla ve sıralama modelleriyle birleştiren bu LSTM'ler [uzun kısa süreli bellek] vardı ve herkes bunlar üzerinde çalışıyordu. .

"Gittikçe daha fazla eğitim verisi aktardıkça, yapabilecekleri açısından niteliksel değişiklikler sergiliyor gibi görünüyorlar. Yani, 'Hey, bu biraz anlıyor gibi görünüyor' gibi”

Ve sonra, Google oldukça büyük bir tezle oldukça devrim niteliğinde bir makale yayınladı, "Dikkat Tek İhtiyacınız Olan": "Hey, bu geleneksel dizi modelleri yerine, işte bunu yapmanın yeni bir yolu, yeni bir model" diyorlar. trafo modeli veya trafo mimarisi. Belirli bir kelimeye baktığınızda, model cümlenin o kelimeyle bağlantılı olarak bakmanız gereken diğer kısımlarını da öğrenecektir. Her şeyi sıralı modellerden biraz daha verimli bir şekilde öğrenebilir ve onu daha hızlı, daha verimli bir şekilde eğitebilir ve daha fazla ölçeklendirebilirsiniz.

Böylece herkes her türlü dizi verisi için transformatör kullanmaya başladı. Ve sonra, OpenAI'nin gerçekten katkıda bulunduğu bir şey, bu trafo mimarilerini alıp ölçeği gerçekten yükseltebileceğiniz fikriydi. Çok daha fazla eğitim verisi ekleyebilir ve bunlara çok daha fazla işlem yapabilirsiniz. Ve belki de çok şaşırtıcı bir şekilde ve bence gerçekten kilit nokta bu, gittikçe daha fazla eğitim verisi zorladıkça, yapabilecekleri açısından niteliksel değişiklikler sergiliyor gibi görünüyorlar. Yani, "Hey, bu onu biraz anlıyor gibi görünüyor." Ya da çok soyut bir kavram olan “bunu daha mutlu et” ya da “bunu daha üzücü yap” diyebilirim. Bunu nereden öğrendi? Ona üzüntü veya mutluluğun tanımını kodladığınız bu denetimli öğrenmeyi vermedik. Bu soyut kavramları ve bu soyutlamaları eğitim verilerinden öğrenmeye yeni başladı.

Temel olarak, OpenAI ve diğerleri bu ölçeklendirme parçasını gittikçe daha fazla zorluyor. Başka şeyler de var. GPT-3.5 ile, onu biraz farklı eğiterek daha fazla hizalamaya çalışıyorlar. Ama temel olarak, buradaki en büyük şey, çok fazla ölçek, çok sayıda eğitim verisi ve aslında bir tür basit modeldir. 20 yıl önce insanların “Pekala, bir bilgisayar bunu asla yapmaz; bana asla bir şarkı yazamayacak” ve şimdi “Nasıl bir şarkı istersin?” "Sesi daha mutlu yap." Yani, evet, bu olağanüstü bir zaman çünkü yalnızca insan zekasının alanı olduğunu düşündüğümüz pek çok şey, sadece tonlarca eğitim verisine ve büyük bir modele ihtiyaç duyuyor.

ChatGPT yaratıcı olabilir mi?

Des: Ve sonra, geçen çarşambadan beri olan şey, Twitter'ın - ve ardından yedi gün sonra, genel internetin veya medyanın - bunu yakalamasıydı. Bunun mümkün olduğunu hayal bile edemediğim açısından açıkçası olağanüstü kullanımların her türünü gördüm. "Erkek arkadaşından ayrıldığı için kızdığı Taylor Swift şarkısı tarzında bir DVD kopyalamak için bana talimatlar yaz" ya da buna benzer bir şey gördüm. Ama aslında bir şansı var. Ve sonra, "Intercom'u iOS'a nasıl kurarsınız" gibi başkalarını gördüm ve bu da nispeten doğru oluyor. Ve aradaki her şey. Ve gördüğüm çılgınca şey, bunlardan herhangi biri için, "Şimdi, bunu bana 1940'ların gangster tarzında ver ve Almanca söyle" ve "Şimdi Almancayı İspanyolcaya çevir" diyebilirsin. , ama aynı zamanda daha fazla öfke ekleyin ”ya da her neyse. Ve tüm bunları neredeyse sıfır saniyelik bir gecikmeyle hemen yapıyor ve her durumda ne işe yaradığını görebilirsiniz.

Kullandığım kişisel bir örnek, çocuğunuza yatmadan önce bir hikaye anlatmaya çalıştığınızda açılarınız tükenebilir. O kadar çok farklı yol var ki, örneğin üç ejderha bir ormana girip kaybolabilir. Ancak, GPT-3 aslında bana 10 hikaye daha verdiği için harika. Fark ettiğim şey, yapay zekanın hikayesiyle en uzun süre, hatta yıllar önce bile, insanların "Belirli şeyler için harika, ancak yaratıcılığın üstesinden gelmesinin hiçbir yolu yok" demesiydi. Aslında burada ters dünyadaymışız gibi hissettirdiğini söylemek doğru olur mu?

Fergal: Evet. Demek istediğim, insanlar AI hakkında konuşurken, her zaman, "Yapacağı ilk şeyler, bu ezberci, manuel görevler." Ve sonra insanların gidip bu son derece yaratıcı şeyleri yapmak için bu kadar zamanı olacak.

Des: Bir ormana git ve-

Fergal: Hep sanat yap güzel şiir. Ve sonra, “Oh, vay. Bu manuel görevler, gerçekten zor bir görüş ve çözülmesi gereken şeyleri işlemeyi gerektirir. Ama yanlış cevabın olmadığı ve yanlış yapmanın cezasının olmadığı yaratıcılık... Evet, şiir tam olarak mükemmel değil, ama sorun değil ve işlenmiş DALL·E 2 görüntüsü tam olarak aklınızdaki gibi olmayabilir. ama yine de güzel bir görüntü ve 10'dan 1'i seçebilirsiniz, o şey işe yarar.

"Bu şey, bu tür sezgisel parçada çok iyi gibi görünüyor ve sezgisel parçamızı kandırmakta çok iyi. Yani bir bakışta baktığınızda doğru görünüyor”

Des: Ve bunun ne için gittiğini de görebilirsin. Bence insanların anlamadığı bir şey, muhtemelen kafandakini sana geri vermek, çünkü zaten onu göreceksin. "Makineye Karşı Öfke Şarkısı tarzında bir banka hesabı açmam için bana talimat ver" dediğimde, "Evet, hesabı açmak için savaşacağız ve herkesi öfkelendireceğiz." gece." Ve ne yaptığını görebiliyorum. Orada bir doğruluk ölçeği bile uygulamıyorum, sadece "Ah, denedin" gibiyim ve bunun için ona kredi veriyorsun.

Fergal: Evet, bence bu muhtemelen doğru. Olgusal olmayan bilgiler açısından ramak kala olayları değerlendirmede ne ölçüde iyiyiz? Belki de bunda o kadar iyi değiliz. Belki de çok umursamıyoruz. Demek istediğim, bu gerçekçilik konusuna girmemiz gerekecek, ama buna gerçek bir soru sorsanız bile… Diyelim ki buna bir müşteri destek sorusu soruyorsunuz. Geçenlerde birine iki faktörlü kimlik doğrulama hakkında sordum, "Intercom iki faktörlü kimlik doğrulamanızı nasıl sıfırlarsınız?" Ve aldığım cevap, "Vay canına, bu harika bir cevap" gibiydi. Ve ona bakıyorum ve "bekle, 2FA'nı bu şekilde sıfırlamıyorsun." Ve güzel bir URL, yardım merkezi makalemize atıfta bulunuyor ve bu da uydurma.

“Bence biz de dahil olmak üzere aklını başından alan çoğu insan, ilk bakışta akla yatkın olduğu fikriyle aklını başından alıyor”

İnsanlar insanlar ve insan beyni hakkında konuşuyorlar ve kalıpları tanımada gerçekten iyi olan bu sezgisel kısmımız var ve sonra daha yavaş ve daha kesin olan mantıksal, analitik, muhakeme kısmımız var. Bu şey, bu tür sezgisel parçada çok iyi gibi görünüyor ve sezgisel parçamızı kandırmakta çok iyi. Dolayısıyla, bir bakışta baktığınızda doğru görünüyor ve daha yavaş sistemik muhakemenizi gerçekten uygulayana kadar, bunu görmek zor olabilir. Ve bence bu sezgisel parça, spekülasyon, muhtemelen yaratıcı çabaları, sanatı, resimleri ve soneleri yargılamak için daha çok güvendiğimiz şey. En azından başlangıçta. Ve bu yüzden, ilk bakışta akla yatkın görünen şeyler üretmekte çok iyidir, ama sonra belki, gerçekten düşünmek için zaman ayırdığınızda, siz-

Des: Sorunları görün. Ve ilk bakışta inandırıcı olmak gerçekten önemli çünkü bence biz de dahil olmak üzere aklını başından alan çoğu insan, ilk bakışta akla yatkın olma fikriyle aklını başından alıyor. Gerçek dünyada çok fazla uygulanabilirliği olmamasına rağmen, bunun için çok fazla kredi veriyorsunuz. O tabloyu asla bir müzeye asamayacaksın ve o soneyi asla okumayacaksın ve o roman için asla bir ödül kazanamayacaksın.

İçerik pazarlamacıları gibi pek çok insanın "Bu benim işimi sonsuza dek değiştirecek" gibi şeyler söylediğini görüyorum. Ben de, “Evet, ama belki de düşündüğün şekilde değil. İşinizin sadece istemleri yazıp sekmeye basmak olduğunu düşünüyorsanız, işiniz olmayabilir." Benzer şekilde, Twitter'da yöneticilerin "Ah, bu performans inceleme sezonunu çok daha kolay hale getirecek" dediğini görüyorum. Bütün bu durumlarda, ben--

Fergal: Bunda bir terslik var.

"Bu teknolojinin insanlığa yaptığı gerçekten büyük katkı, ortadan kaldırabileceğimiz iş miktarı hakkında dürüst bir konuşma olabilir"

Des: Kesinlikle. Burada hepiniz sessizliği biraz yüksek sesle söylüyorsunuz, eğer işiniz aslında sahte BS yazmanızı içeriyorsa, bu-

Fergal: En başta neden yapıyorsun?

Des: Ne yapıyorsun? Aynen öyle. İçerik pazarlaması söz konusu olduğunda, yalnızca belirli kelimeler için sıralama yapmanızın nedenler olabileceğini anlıyorum, ancak bunu gerçekten yazma sanatıyla karıştırmayın.

Fergal: Yani, bu iyi bir şey olabilir. Saçma sapan işler, kişinin bu performans değerlendirmeleri gibi değeri olmadığını düşündüğü şeyler GPT'ye devredilebilir. Ve sonra, bir süre sonra, herkes ne olduğunun farkına varır ve diğer taraftaki kişi "Onu analiz etmesi için GPT'ye vereceğim" der. Ve belki o zaman gerçekten değerli olan çekirdeğin ne olduğu ve iş yükünü nasıl ortadan kaldıracağımız hakkında dürüst bir konuşma yapabiliriz.

Des: Neden tüm bu performatif zırvalıkları yapıyoruz?

Fergal: Evet, bu teknolojinin insanlığa yaptığı gerçekten büyük katkının ortadan kaldırabileceğimiz iş miktarı hakkında dürüst bir konuşma olması mümkün. Ve bu harika olabilir. Bu büyük ölçüde dönüşebilir.

Chatbot halüsinasyonlarıyla ilgili sorun

Des: Gerçek uygulamalardan bahsetmişken, aklımda olan bir şey, en azından doğrudan benim deneyimim ve hatta 2FA kullanım durumu hakkında söyledikleriniz bile, bugün onu kesin bir kesinlik olan birçok alanda doğrudan konuşlandıramazsınız. doğru cevap, özellikle yanlış cevap verme riski oldukça yüksekse. Yani bu şeyin tıbbi kayıtları tüketmesini ve teşhisleri tükürmesini istemezsiniz çünkü teşhisin gerçekten iyi yazılacağını, meslekten olmayan biri için kulağa gerçekten inandırıcı geleceğini ve muhtemelen doğruluk olasılığının düşük olacağını garanti edebilirim. Doğruluk olasılığını bilmiyoruz, ancak girdilere göre değişiklik gösterecektir.

Fergal: Biri bana gelip “Hey Fergal, ekibinin bunu tıbbi teşhis için kullanmaya başlamasını istiyoruz. Harika olurdu." Bu son derece korkutucu olurdu.

"Bir şey var ki, bu teknoloji kesinlikle bir çok insanın halüsinasyon dediği şeyle ilgili problemlere sahip, yani bir şey bilmiyorsa, onu uyduruyor."

Des: Ancak, yasal bir davada bir sonucu teşhis etmek için kullanabileceğiniz, belki daha az ciddi, ancak eşit derecede yanlış olan başka kullanım durumları da var. Yine, kulağa iyi geleceğinden eminim ve onu doğru standart bir dille saracaktır, ancak nihayetinde ne dediğini gerçekten anlamayacaktır. Verimlilik alanında rekabet etmek ve kazanmak için modern bir e-posta istemcisinin nasıl oluşturulacağı konusunda bana fikirler vermesini istedim. Ve gerçekten iyi okuyor, ancak ancak onu çizdiğinizde aslında orada hiçbir şey olmadığını fark ediyorsunuz. Özellikle keskin görüşler olmadan kulağa hoş gelen kelimelerden sonra kulağa hoş gelen kelimeler. Bu, bana göre, bunu daha uygulanabilir hale getirmenin yollarını merak etmeme neden oluyor.

Fergal: Buna girmeden önce, burada dalga geçmenin yararlı olduğunu düşündüğüm iki şey var. Bir şey şu ki, bu teknolojinin kesinlikle birçok insanın halüsinasyon dediği şeyle ilgili sorunları var, burada bir şey bilmiyorsa, onu uyduruyor. Bu tehlikeli ve %1 halüsinasyon olasılığının anlaşmayı bozduğu pek çok alan var. Ve bu olasılık sıfır olsaydı hepimiz çok sevinirdik. Ancak aynı zamanda, doğruluk bir yıl önceki son teknolojiye ve üç yıl önceki duruma göre arttı. Size çoğu zaman doğru cevabı vermekte kesinlikle daha iyidir. "Anlama" konusunda çok daha iyi. "Oh, sadece örüntü tanıma yapıyor, hiçbir şey anlamıyor" demek için mücadele ediyorum ya da en azından, "Anlamakla ne demek istiyorsun?"

Kesinlikle, hala bir şeyler uyduracak olsa da ve bu büyük bir sorun olsa da, doğru cevaba sahip olduğunda size doğru cevabı vermede giderek daha iyi hale geldiği bir yörüngedeyiz. Peki, bu eğri neye benziyor? Şu anda paketlerini açmak zor, ancak doğru şeyi yaparken çok daha iyi olan ve bazen felaketle sonuçlanacak derecede yanlış olan şeyi yapan çok daha iyi modeller elde ediyoruz. Bu iki şeye de dikkat etmeliyiz. Evet, bunu şu anda pek çok üretim ortamında uygulamak çok zor, en azından biraz bulutlanma veya bazı uygunluklar olmadan, ama aynı zamanda çok daha iyi hale geliyor. Ona Vikipedi'de gerçekten iyi kapsanan bir şey sorarsanız, daha iyi hale geliyor.

Bunun nihai bir örneği bilgisayar programlamadır. Ondan görmediği bir programlama meydan okumasını isteyebilirsiniz ve ondan bütün bir modül veya sistem oluşturmasını isterseniz, bir tür mücadele eder, bir tür kırılma noktanız olur. Ama ondan bir fonksiyon yazmasını, hatta yeni, uydurma, örnek dışı bir fonksiyon yazmasını isterseniz, size yanlış cevap verebilir, ancak size faydalı bir şey verme şansı çok artmıştır.

Des: Daha önce söylüyordunuz, temelde programlama görüşmemizin ilk aşamasını geçiyor, bir tür dizi tabanlı soru. Sadece çiviler.

"Herkes köpeğin gramerinin çok iyi olmadığından bahsetmeye başlıyor ve bu çok önemli ama köpeğin konuştuğu gerçeğini de gözden kaçırmayın."

Fergal: Evet. Aynen öyle. Intercom'a gelen mühendisler için problem çözme programlama yarışmamız var. Birkaç yıl önce onları kendim oturtmak zorunda kaldım ve bunun internette bulunmadığından emin olmak için çok çalışıyoruz. Ve eğer öyleyse, dener, yineler ve değiştiririz. Ve biz o kadar hızlı değiliz, bu yüzden orada olmadığını garanti edemem. Ancak bu şey, onu çivileyen bir çözüm üretti ve bu, "beyaz tahtada yarım saat kıdemli bir mühendis" gibi bir sorun. Ve bunu tek atışta, tek seferde alır.

Des: Sıfır saniye.

Fergal: Sıfır saniye. Ve bu çok etkileyici. Ve dünyanın geri kalanının yarısı gibi, ben de ChatGPT veya GPT-3.5 ile oynuyorum ve ona pek çok başka programlama yarışması sorusu veya programlama sorusu verdim, bunların örnek dışı olduğundan oldukça eminim. , ve çok iyi bir iş çıkarıyor. Ve bu, doğrulukta niteliksel bir değişikliktir. Kodunuzu kontrol etmeli ve yanlış olmadığından emin olmalısınız, ancak bu çok ilginç ve heyecan verici.

En azından ilkel iç gözlem yeteneklerine sahip olduğu fikri de çok heyecan verici. Bir hata yazarsa, “Hey, bir hata var. Tamir edebilir misin?" Ve bazen, size bunun güzel bir açıklamasını verir. Ve tüm bu modeller, belirteç tahmini yapmak için eğitilmiştir; sonraki birkaç kelimeyi tahmin edin. En azından geleneksel olarak, çünkü sanırım geçen yıl biraz değişti, ancak eğitimin büyük kısmı sadece bir sonraki belirteci, bir sonraki kelimeyi tahmin etmeye yönelik. Ve burada harika bir şey oluyor - bunu geniş ölçekte yaparak, bir anlayış düzeyine ulaşırsınız.

Bunun gerçek olan halüsinasyon hakkındaki daha geniş tartışmada kaybolmasını istemiyorum ve insanlar geçen hafta buna yeterince dikkat etmemiş olabilir. Ama bir mecaz var ve bunu kimin ortaya attığını hatırlamıyorum, konuşan bir köpek ve birisi size gidip yeni konuşan köpekleriyle tanışmanızı istediğini söylüyor ve siz, “Köpekler konuşamaz. ” Ama köpeğe gidersiniz ve köpek sizinle sohbet eder. Herkes köpeğin gramerinin çok iyi olmadığı hakkında konuşmaya başlar ve bu çok önemlidir, ancak köpeğin konuştuğu gerçeğini gözden kaçırmayın. Benim için halüsinasyon olayı şu. Bu büyük bir değişiklik gibi hissettiriyor - belki üretime geçiremeyeceğimiz bir değişiklik değil ama bir yıl, iki yıl veya üç yıl sonra kim bilir nerede olacak.

"Bu, sürücüsüz araba olayı gibi, değil mi? Herhangi bir noktada kontrolü ele almaya hazır olmalısınız”

Des: Evet, halüsinasyon olayı benim için onu işe yaramaz hale getirmiyor. Ve kötümser olalım ve diyelim ki bir hastanın beş paragraflık tarifi verildiğinde size hemen %70 oranında doğru teşhis verebilir. Ve bu teşhis sorularının çoğunda, bunun doğru olup olmadığını doğrulayabilen bazı hızlı testler vardır, örneğin, "Kulağa X'iniz varmış gibi geliyor, işte X için hızlı test" ve bunun doğru mu yanlış mı olduğu ortaya çıkıyor - bu hala büyük bir üretkenlik değişikliği. Bir şeyin hala kusurlu olduğunu varsayarsak ancak %70 doğruluktan yararlanmaya çalışırsak, muhtemelen hala yapabileceği ve çok değerli olacak şeyler vardır.

Fergal: Bu konuda iki düşüncem var. İlk düşünce, birinin bunu incelemesi gerekeceğidir, çünkü bu şeyin net negatif olması muhtemeldir, döngüde insan, doktor ve yapay zeka bulunan yeni sistemin, yorgun, fazla çalıştığı için yıkıcı bir hata olasılığı daha yüksektir. doktor bazen üzerine düşeni yapmıyor ama önlerinde çekici ama yanlış bir sistem var. Bu kendi kendine giden araba olayı gibi, değil mi? Her an kontrolü ele almaya hazır olmalısınız. Bu rejimde, insanla birlikte sistemin bir bütün olarak aslında sadece şundan daha kötü olduğu alanlar olabilir:

Des: İnsanlar aslında aşırı güvenebilir.

Fergal: İnsanlar aşırı güvenebilir. Buna ne diyorlar? Sapmanın normalleştirilmesi. İnsanlar bunu nükleer reaktör felaketleri ve benzeri şeyler bağlamında inceliyor. Ne yanlış gitti? "Ah, bu kısayola alıştık ve kısayol her zaman geçerli değildi," vb. Söyleyeceğim tek şey buydu. Ama sonra, tıbbi şeyleri düşündüğümüzde karşı nokta, dünyanın bir kısmının bir doktora erişiminin olmamasıdır. Yani bu sınırı nereye çizeceğimi bilmiyorum. Çizilmesi zor bir sınır. Sonunda, yörüngede, bu şeyler muhtemelen daha iyi ve daha iyi olacak ve sonunda, bir bütün olarak, sistem insanların şu anda sahip olduklarından daha iyi performans gösterecek kadar iyi olacak.

Chatbot'ları adım adım eğitin

Des: Kod ürettiğinde "Hey, bu harika" diyebileceğinizi söylüyordunuz. Bir süredir Twitter'da popüler olduğunu gördüğüm başka bir örnek, "Bana satır satır düşüncelerinden bahset" ya da her neyse. Sanki ona bir şeyler hakkında nasıl düşünmesi gerektiğini söylüyorsunuz ya da ona yeni bilgiler veriyorsunuz ve sonra onu fikrini yeniden gözden geçirmeye zorlamıyorsunuz. Orada neler Oluyor?

Fergal: Bence orada büyüleyici bir şeyler oluyor ve burada en ileri seviyeden konuşmamız gerekiyor. Bu spekülasyon ve ben bir izleyiciyim – bu işi yapmıyorum. Google'ın kısa bir süre önce büyük dil modellerinin nasıl kendi kendini geliştirebileceğine dair bir makale yayınladığını düşünüyorum, bu yüzden orada açmaya değer büyüleyici bir şey olduğunu düşünüyorum.

İlk şey, belki yaklaşık bir yıl önce, insanlar bu modellerin işleri çok fazla yanlış yapmasına karşın, onlara klasik "haydi adım adım düşünelim" diyerek onları yönlendirebileceğinizi keşfetti. Bir modeliniz olur ve ona "Alice ve Bob'un üç çikolatası var ve Havva'ya üç tane veriyorlar" gibi basit bir matematik sorusu sorabilirsiniz. "Kaç tane kaldı?" Bu şeyler temel matematikle mücadele ediyor, bu yüzden genellikle böyle şeyleri yanlış anlıyor. Ancak, “Adım adım düşünelim” gibi bir şey söyleyebilirsiniz ve bu, onu yol boyunca adım adım muhakemesini çıkarmaya zorlar. Ve bunu yaptığınızda doğruluk oranları arttı, bu da mantıklı. Metni tamamlamak için eğitilmiştir. Ve böylece, adım adım, her adım tasarlanır…

Des: Sanki başarısızlık olasılığını çarpmıyorsunuz. Çünkü o zaman, her adımı %90 doğru olma olasılığıyla çalıştırıyorsanız ve beş adımda birdenbire, olasılık yalnızca %50 doğru oluyor.

Fergal: Belki. Demek istediğim, içeride tam olarak neler olup bittiğine dair spekülasyon yapmak zor, ama muhtemelen buna benzer bir şey. Ancak son zamanlarda çok ilginç bir makale vardı, "Hey, 'adım adım düşünelim' diyerek doğruluğu artırabileceğimizi biliyoruz." Ve bunu sezgisel olarak elde etmekten daha iyi çıktılar elde etmek için kullanabiliriz. anında cevap ver. Bunu, yeni bir eğitim veri seti oluşturmak ve doğruluğunu artırmak için modeli yeniden eğitmek için kullanabilirsiniz. Bu benim için büyüleyici çünkü bu şeyler en azından bir dereceye kadar kendi kendini geliştirebilir.

“Burada, dil modellerinin ve NLP'nin biraz daha AlphaGo dünyasına benzemeye başladığı çok ilginç bir dünya var. Bence çok heyecan verici bir dönem ve burada sınırların ne olduğunu söylemek çok zor”

Geçenlerde bir Microsoft etkinliğinde, Copilot'u veya bu modellerden birini, belki de davinci'yi gösterdikleri bir demo gördüm, belirtmediler, bir Python istemiyle bir şeyler yaparken, ona doğal bir dil sorunu verdiler, biraz bizim Intercom programlama sorunumuz gibi , ve ardından sistemden kodu sentezlemesini ve kodu bir Python istemine koymasını istedi ve yanlış anladığında, sistem kodu çalıştırmaya çalıştı ve yanlış olduğunu gördü, bu yüzden onu alana kadar tekrar tekrar denedi Sağ. Burada dil modellerinin ve NLP'nin biraz daha AlphaGo dünyasına benzemeye başladığı çok ilginç bir dünya var. Bence çok heyecan verici bir zaman ve burada sınırların ne olduğunu söylemek çok zor.

Sanırım, uzun bir süre dilbilim veya başka bir şeydeki insanların "Yapay zekada, bunları büyük bir şema üzerinde asla yanıtlayamayacağız" veya buna benzer bir şey söyleyeceği pek çok şey var. “Traktör yoldan aşağı indi ve tarlaya döndü. Lütfen o şakada ne olduğunu açıklayın.” Tarihsel olarak bilgisayarlar bu konuda kötüydü. "Sihirli traktör yoldan aşağı indi ve bir tarlaya dönüştü." Bunun gibi hafif bir değiştirici anlamı değiştirir. Ve bazı alanlarda bu konuda gerçekten iyi hale geliyor. Ona temel anlamsal sorular sorabilir veya spekülasyon yapmasını isteyebilirsiniz. Yaklaşık iki veya üç yıl öncesine kadar, ne zaman yeni bir makine öğrenimi sistemi görsem, başlangıçta her zaman büyülü ve harika görünüyordu ve ne zaman onun içine girip arka kapağın altına girseniz, "Oh, bu sadece lojistik bir gerileme" diyordunuz. ” Bunu anladığımda, çok daha az etkileyiciydi. Ve burada bunu yapmak için mücadele ediyorum. Belki de bu, modelin karmaşıklığını anlamanın çok zor olmasındandır. Ancak bu şeyler, sahip olduğumuzdan niteliksel olarak farklı yetenekler gibi geliyor.

AI botları Google'a karşı

Des: Derinlemesine inceleyeceğimiz desteğe girmeden önce, bunun internet için Google kadar büyük bir an olduğunu söyleyen yorumlar gördüm. Ayrıca soğuk su alımını da gördüm, yani "aldanmayın, rastgele şarkı sözleri oluşturmak en iyi ihtimalle bir hiledir." Ve bir tekno-pozitivist ya da her neyse, olup olmamanıza bağlı olarak belli ki bir iştah yelpazesi var. Google olayına ne diyorsunuz? Bu potansiyel olarak Google kadar büyük mü? Bu Google için bir tehdit mi? Google'ın nasıl tepki verebileceğine dair düşünceleriniz?

Fergal: Yani, burada süper spekülatif olacağım, tam bir fütürizm ve benzeri şeylere gireceğim. Yapay zeka ve makine öğrenimi konusunda çok iyimserim. Geçen yıl boyunca gördüğümüz yetenek değişikliğinin ve kesinlikle bir veya iki yıl ilerisini tahmin ederseniz, internet kadar büyük olduğunu hissediyorum. Potansiyel. Ve bu şeyleri nasıl ürünleştireceğimizi bulmamız gerekecek. Bir bilgi tabanından yanıt vermeleri için onları nasıl kısıtlayacağınız konusunda bir ton iş yapılması gerekecek. Ancak edindiğimiz ve muhtemelen elde edeceğimiz yeni yeteneklerin toplamı bana göre internet kadar büyük. Yanılıyor olabilirim, ama ben burada...

Des: Bu büyüklük sırası. Yani, Google'dan daha büyük.

"Bence bu bir Sputnik anı - insanlar buna bakıp Vay canına, buraya bir şey geliyor" diyecekler.

Fergal: Evet, sanırım. Sadece geçen hafta çıkan ChatGPT değil. Ancak toplam ilerleme, muhakeme, temel muhakeme ve yanlış olabilen, ancak bazen oldukça zorlayıcı olan muhakemede önemli ölçüde daha iyi yetenekler görüyormuşuz gibi geliyor. Bana beş yıl önce programlama meydan okumalarındaki başarısını anlatsaydın buna inanmazdım. Bence burada büyük bir şey var. Kilidi açılabilecek çok fazla üretkenlik var ve bunun nerede duracağını söylemek çok zor. Ayrıca burada geri bildirim döngüleri olduğunu düşünüyorum. Bunun bir Sputnik anı olduğunu hissediyorum. ChatGPT ile "Hey, teknoloji o kadar da iyi değil" veya "aşırı şişiyor" diyebilirsiniz, ancak içeri girip bir şeyle oynayabilmenin düşük sürtünme yeteneğini hafife almayın. Bunu herkes yapabilir. Ve bence bu bir Sputnik anı - insanlar buna bakıp "Vay canına, buraya bir şey geliyor" diyecek.

Des: Burada Sputnik referansı var, üzgünüm.

Fergal: Bu, aman Tanrım, ellilerdeydi. Ruslar bu uyduyu dünyanın yörüngesine yerleştiren ve radyo sinyalleri yayınlayan uzaya yerleştirdiler. Ve dünyanın her yerindeki insanlar aniden radyolarını açıp Sputnik'ten gelen bu sinyali alabilirler. Ve bu genellikle batıda anlatılan anlatıdır. İnsanlar aniden uyandı ve "Vay canına, burada farkında olmadığımız bir yetenek değişikliği var" dediler. Ve sonra, sözde, bu uzay yarışına, Apollon'a ve tüm bu şeylere neden oldu. Bu yüzden, belki de tepkinin hala devam ettiğini hissediyorum, ancak buna gerçekten dikkat etmeyen ve birdenbire heyecanlanan pek çok insan görüyorum. Belki yutturmaca ölür. Tam ortasındayız, bu yüzden tahmin etmek zor. Ama bu değilse, yakında başka bir şey olacak.

ChatGPT müşteri desteğini destekleyebilir mi?

Des: Peki ya müşteri desteği? Intercom bir müşteri destek platformudur ve GPTChat, GPT-3.5 veya bu teknolojilerden herhangi birinin desteği daha iyi, daha hızlı, daha ucuz, daha başarılı veya daha uçtan uca yapma potansiyeli, her zaman sahip olduğumuz bir şeydir. Bunu bir destek bakış açısıyla düşündüğünü biliyorum. Daha önce, yanlış bir cevabın çok, çok kötü olduğu ortamlar olduğundan ve aslında oldukça katlanılabilir olduğu ortamlar olduğundan bahsetmiştik. 25.000 müşterimiz var. Bazıları, muhtemelen bir tane almaya gücü yetmeyen bankalardır. Other people would happily afford one because it means they can support all their customers faster. What do you think about this technology as it applies to support?

“We made a conscious design decision very early on that it would never say anything that hadn't been explicitly curated by the team”

Fergal: Yeah. We try and pay a lot of attention to changes in developments in this space. We were looking at GPT-3 pretty early, and our initial thoughts were that the accuracy was not quite there yet. The hallucination problem is a big problem to just nakedly say, “Hey, it has consumed the Intercom help center. Let's ask questions about resetting my two-factor authentication.” It just failed. We've been looking at the GPT-3.5 family and some other models recently. We have resolution bots in production. It's not using language models that are as large – they're maybe medium language models, embeddings, and so on. And it gets very good accuracy at the sort of thing it does. We made a conscious design decision very early on that it would never say anything that hadn't been explicitly curated by the team. I think that worked well for a lot of businesses because it might deliver the wrong answer sometimes – we try carefully to control that – but it's always going to deliver you a relevant answer or an answer that's not going to mislead you.

Des: Yeah, and specifically, the way in which it gets it wrong is it might give you a wrong correct answer. The thing it gives you will be something that somebody in your company has said: “This is a correct, cohesive piece of text.” It just might not be the right one for the question.

Fergal: And we encourage our customers to always write the answer in such a way that, “Oh, to reset your account, do the following thing.” So if it is delivered wrongly, at least the end user is not disoriented.

Des: Yes, they don't go and do it for no reason.

Fergal: They can go like, “Oh, this is a stupid bot. It gave me the wrong answer,” as opposed to, “I am misled, and I'm now going to waste a bunch of time…” So initially, with GPT-3, we were like, “Oh, it's really cool but difficult to see the end-to-end usage of this.” It's been a couple of years, and I'm not aware of anyone who has deployed GPT-3 in a total end-to-end way to answer the customer's questions.

Des: End-to-end meaning no agent in the mix. Because the risk there is that there'll be an unknown unknown. If someone goes to your business and asks a question that you didn't see because GPT dealt with it, gave it the wrong answer, and the customer goes off and does the wrong thing, no one actually knows what's happened except for the bot. And the bot doesn't even know it's wrong because it doesn't know if it's spoofing or not. So you end up in a potentially dangerous world.

Fergal: Exactly, and we've quite carefully designed the resolution bot to avoid getting into those situations. We calibrate it, we check that, when it says something helped the customer, it did help the customer, and we have ways of checking that between explicit and implicit customer feedback. But it's conservatively designed.

“The probability of giving the wrong answer and totally making stuff up is too high, at least to use it for end users in a naked way”

At some point, these open domain question-answering things or something you could build on the top of GPT-3.5 will get good enough that, for a certain portion of our customers, that equation changes where it's like, “Hey, I'm not answering medically critical things,” and the inaccuracy rate has fallen. It was 90% accurate; now it's 99% accurate; now it's 99.9%. How commonly it gives you the wrong answer will eventually fall below the critical threshold where it's like, “Hey, just being able to take this out of the box is worth it. I don't have to go and curate these answers.” So that will probably come. When will that come, is it here today, or has it come in the last few weeks with davinci-003 and ChatGPT is obviously something we've been assessing.

And it's certainly a work in progress because you always have to go and play with the prompts. When you interface with ChatGPT or GPT-3, we could take an end user's question and ramp it in something that says, “Hey, you're a very conservative customer support agent. If you don't know something or you're not completely sure, you always say, 'I don't know,'” and you reason with it step by step, and you're super conservative, and maybe we can wrap it to get the benefit of the deeper natural language understanding, which these models have, and the deeper ability to synthesize and rewrite text, which can be beautiful. It can be really nice. Maybe we can get those benefits and constrain the hallucinations and the errors enough.

Des: Is that another version of walking through this line by line?

Fergal: Yeah.

Des: Is that whole field what people call prompt engineering?

Fergal: Prompt engineering. We're joking that the machine learning team at Intercom is going to be a prompt engineering team, and we're joking about that as we play with it. But there are people who really sweat the prompts and have gotten really good at prompt engineering. It's a real thing, and it makes it difficult to say, “Oh, this new tech is definitely not good enough,” because what will the best prompts be in six months? That said, we don't think it's here yet. All the prompt engineering we've done on davinci in the last week can get it to be more conservative, but not enough. The probability of giving the wrong answer and totally making stuff up is too high, at least to use it for end users in a naked way.

Support agent augmentation

Des: We talked earlier about the doctor augmentation question. Is there a version of it where you can do it from the agent augmentation question?

Fergal: Well, at Intercom, we've been thinking about this area very deeply for an extended period, and in the last few months, we have had internal discussions about the future of the customer support inbox and generative models – models that generate stuff as opposed to just classify things – and we believe that their time is coming for support augmentation, and I think that seeing ChatGPT explode recently and all the excitement about it is evidence of that. It's evidence that these things are getting good. And there are a lot of things you can do in the inbox or in a context like the inbox to constrain and sand off the rougher edges of these things.

An example might be to curate the responses it's allowed to give and use the generative model to predict what should happen, but only actually allow the suggestion to present to the teammate, like a macro or a conversation response, and hopefully provide a beautiful interface to make it easy for them. Alternatively, to have it go and search for a new knowledge base, and there are techniques you can use to try and constrain it to that. And then, maybe show, “This is the answer that our bot wrote from your knowledge base,” and side by side with that, “Here is the original source article,” so that the customer support rep can look at them side by side-

Des: And see if it adds up.

Fergal: Yeah, and see if it adds up.

“They have to go and find the article themselves, then they have to read it and check the answer, and then they have to copy paste it and reformat it. So maybe there's a productivity boost”

Des: So there's an angle where the AI explains its epistemological basis for how it concludes this. And in that world, if you're a support rep, you don't even need to know if it's actually right – you just need to know if the logic stacks up. Obviously, it'd be better if you knew if it was right, as well. But if it says, “Hey, I read how to reset a 2FA article linked here. I suggest that this is how you reset 2FA,” you're probably, “That's the right article to read.”

Fergal: The problem is that when they get it wrong, they're so good at seeming right that they'll-

Des: Invent the idea of the article.

Fergal: Yeah, yeah, totally. And so, you might need to go beyond that. You might need to have the untrusted part of the interface, which is maybe the composer, and it pre-fills something, and there's also a trusted part of the interface beside that, maybe just above it, that shows the original source article, the relevant paragraph. And so, you can look at both.

Obviously, we study customer support flow very carefully and closely, and we absolutely have some support agents where it's like, “Okay, I got the question,” and they have to go and find an article themselves. Some expert ones know it, they're instantly there, and they know exactly where to go. Maybe they've got a macro that does it, but then maybe someone who's newer in the company and they're still being trained in, or maybe it's only part of their job, they have to go and find the article themselves, then they have to read it and check the answer, and then they have to copy paste it and reformat it. So maybe there's a productivity boost. Maybe you can make someone twice as efficient or something.

Des: All that agent behavior will also inform the system. If you put it live and agents are forever going “Wrong, right, wrong, right,” all that feeds back in, and then it gets better. Or, if they're rewriting the answer to be more accurate, I assume we can learn from that. And then, very quickly, the system converges on all the right answers.

“There are a lot of trade-offs. It's very easy to say we want a system that will learn in production. But then it's like okay, who has to maintain that? Who has to debug that?”

Fergal: We could certainly build a system that does all of those things. GPT-3.5 won't nakedly do it. If you decide to build on it as a building block, not even an assessment, is that the right system to build on? Its capability is very good, but it's not the only generative model in town. But whatever we build on, and we're getting really into the roadmap, we would potentially build a learning loop. With most of our tech at the moment where we do that, we absolutely gather feedback. There are some parts of the resolution bot like predictive answers, where it predicts things to end users, where it actually does use what the users say, like, “that helps” as a training signal, and potentially we can end up building that.

There are a lot of trade-offs. It's very easy to say, “We want a system that will learn in production. But then it's like, “Okay, who has to maintain that? Who has to debug that?” Sometimes it's easier to get it to a stable stage and then lock it. So, it depends. We did metrics and analytics whenever we upgrade. We're getting into the details of our models and how we check the accuracy and calibrate them, and stuff.

Des: I know our inbox has this feature where, based on what you've said before, if I jump in the inbox, before I've said anything to try and start a conversation, it'll say, “Hey, I'm Des, co-founder of Intercom, thrilled to be chatting with you.” Whatever my most common thing is, that's automatically pre-written for me.

Fergal: Yep. Smart replies.

Des: Am I right in saying that it's just the mini version in some sense of what we're describing here? Because we were really just going for salutations and maybe ends and maybe handoffs, and the common boilerplate of a support conversation should be there for you. And that, alone, is a productivity boost. But the idea that we could get one degree sharper, and somewhere in the middle of all that boilerplate is, “Here's the meat of the answer,” is where you're talking about going, right?

“We believe its time is coming, and we're trying to figure out the best ways to make people more efficient and to leverage it in a production setting that actually works for people”

Fergal: Yeah, totally. And again, to separate things out – there's just the change in the world, an increased capability, GPT-3.5, and then there's the stuff that we're working on as we grind away on this problem and try to deliver things that will make it better for our customers. I think the capabilities have really improved, but we're still figuring out if we can use this. Is there a shortcut to where we want to go? Maybe we can use these capabilities as building blocks, there are loads of ways to potentially use them as building blocks. But in terms of the direction we were going on already anyway, there are a lot of things agents do such as greetings where it's very obvious. We don't ever want to annoy people. We don't ever want to have an agent read through a bunch of text and then be like, “Oh, that's useless. Why did you do that?” It reduces their trust in the system. It slows them down. We want to help them out.

Akıllı cevaplar için selamlarla başladık. Yapılması gereken bariz bir şeydi. Ne zaman bir selamlama isteyeceğinizi çok kolay bir şekilde söyleyebiliriz – yeni bir sohbete girdiniz ve daha önce hiç kimse son kullanıcıya bir şey söylemedi. Bu çok açık. Bu alçakta asılı bir meyve parçasıydı. İnsanlar kullanıcı arayüzünü gerçekten beğendi. Kolay ve sürtünmesi düşük. Şimdi, orada sadece tek bir öneride bulunabiliyoruz ve sistemin bunu söylemesinin çok zor olduğu zamanlar oluyor. Şu anda bu makro akışımız var ve insanlar makroları çok kullanıyor. Makrolardan hangisini seçmek zorundalar. Bu makroları proaktif olarak insanlara önermeli miyiz? Belki besteciyi önceden doldurmak istemiyoruz, belki sadece bağlamsal olan bazı makro önerileri göstermek istiyoruz. Tekrarlayan birçok akış var. İnsanların geçtiği ortak adımları anlamaya çalışarak akış bulma gibi şeyler üzerinde çalışıyoruz.

Sanırım asıl mesaj, bu tür üretken teknolojinin can sıkıcı olmayacak, size yanlış şeyler yaşatmayacak ve sizi yanıltmayacak ve kesinlikle üzerinizde daha fazla iş veya strese yol açmayacak şekilde şekillendirilmesi ve iyi hale getirilmesi gerektiğine inanıyoruz. onsuz sahip olacağından daha fazla. Zamanının geldiğine inanıyoruz ve insanları daha verimli hale getirmenin ve gerçekten insanlar için çalışan bir üretim ortamında bundan yararlanmanın en iyi yollarını bulmaya çalışıyoruz.

Desteğin ötesinde AI-ML

Des: Destekten bahsediyoruz. İlk günlerde bunun değerini başka hangi sektörlerin göreceğini düşünüyorsunuz? Destek, bu tür bir teknoloji için hedef açısından zengin bir ortam gibi geliyor, ancak başkaları da var mı?

Fergal: Açıkçası, destek konusunda iyimseriz. Yazılan o kadar çok şey var ki. Hesabımı sıfırlamak veya buna benzer bir şey gibi, "Ah, temsilci bunun aşağıdaki türden bir sorun olduğunu oldukça erken fark ediyor" gibi. O bölgede çok fazla yapı var. Gerçek müşteri sorunu yapısının, doğal dille başa çıkmada ve onu yeniden şekillendirmede çok iyi olan teknolojiyle buluşmasının bir kombinasyonu var. Bestecinin içindekileri daha resmi hale getirmek için basabileceğiniz bir düğme veya daha özür dilemek için bir düğme görebiliriz, değil mi? Şu anda çok ama çok heyecan verici bir alan olduğunu düşünüyoruz. Tamamen spekülatif olarak her şeye girmek istemiyorum. Ancak bundan önce bile, makine öğrenimi ekibi tamamen bu alandaydı. Desteğe büyük inananlarız.

Dış destek, görevde bir yapının olduğu her şey ve bir cevabın doğru mu yanlış mı olduğunu ayırt edebilen bir onaylayıcı insan. Bu garip bir sezgi gibi görünecek, ancak bilgisayar biliminde veya kriptografide, bir cevabın doğru olduğunu doğrulamanın kolay olduğu, ancak gidip o cevabı bulmanın zor olduğu belirli türde problemlere dikkat ediyoruz. Karmaşıklık sınıfları, tüm bu tür şeyler. Ama evet, insanlar bunun gibi problemlerle ilgileniyor. Burada da benzer bir sezgi olduğunu düşünmeden edemiyorum. Bir insanın bir cevabın doğru olup olmadığını doğrulamasının oldukça kolay olduğu bir meydan okumanız var, ancak onlar için gidip buna bakmak ve onu bulmak zahmetli. Ya da belki ekip cevabın yeterince doğru olup olmadığını umursamıyor çünkü “Bana X, Y hakkında bir şiir yaz” gibi doğru diye bir şey yok.

Des: Yanıtı doğrulamanın çok ucuz, ancak oluşturmanın çok pahalı olduğu ya da geçerli bir yanıtın olmadığı sorun sınıfı.

Fergal: Ayrıca altı ay veya bir yıl sonra cevap farklı olabilir. Bir yıl içinde, cevap daha çok "Bir bilgisayarın cevabın doğru olup olmadığını kontrol edebileceği her an" gibi bir şey olabilir. Ya da etki alanı yeterince basit olduğunda, makine öğrenimi sistemi size kesinlikle doğru yanıtı verecektir veya büyük olasılıkla size doğru yanıtı verecektir. Bu gelişen bir şey. Şu anda sınır koymanın zor olduğunu düşünüyorum.

“Ocak ayında ne gönderiyoruz?”

Örneğin bilgisayar programlama gibi diğer alanlar. Terminalinde oturan kişinin kodu yine de gözden geçirmesi gerekiyor ve bunu yapabiliyorlar ve kodunuzun bir yerinde ince bir hata olabilir. Bazen kodu kendiniz yazmak, ince bir hatayı belirlemekten daha kolaydır. Ancak çoğu zaman, bir bilgisayar programcısının iş akışına bakarsanız, “Ah, bunu nasıl yapacağımı biliyorum ama bu kütüphaneyi tam olarak nasıl kullanacağımı hatırlamıyorum. Bunun için Google'a gidiyorum. Stack overflow'a gideceğim." Fikir şu ki, Stack Over'da üç numaralı cevabı gördüğünüzde, "Ah evet, bu doğru. İstediğim bu." Bunun gibi programcının zamanının çoğunu alan koca bir iş akışı var ve o Yardımcı Pilot ortaya çıkıyor ve bunun etrafında bir son koşu var. Ve sonra sığacak şekilde kodu yeniden biçimlendirin. Bu son derece güçlü.

"Müşteri desteği için Copilot nedir?" hakkında konuşmaya başladık. Prototiplerimiz var ve oynayabileceğiniz çok şey var. Belki de sorunun tamamını yanıtlamazsınız, sadece iki veya üç kelimelik yanıtı verirsiniz, yazar ve sonra değiştirirsiniz ve siz de "Bunu daha resmi yap, şunu daha uzun yap, daha uzun yap" dersiniz. o kadar kısa." Orada yapabileceğimiz çok şey varmış gibi geliyor.

Des: Ocak ayında ne gönderiyoruz?

Fergal: Konuşmanın bu kısmını sansürlemek zorunda kalacak. Bir şey göndereceğiz.

Des: Evet, eminim. Peki. Bu harika oldu. Sanırım iki hafta sonra tüm dünya yeniden değiştiğinde kontrol edeceğiz. Ama değilse, birkaç ay olabilir. Çok teşekkürler.

Fergal: Bu internete düştüğünde, eminim güncelliğini yitirecek ve aptalca görünecek. Ama bu işin doğası bu.

De: Kesinlikle. Bu yüzden üzerinde çalışıyorsun.

Fergal: O yüzden çalışıyoruz. Bu heyecan verici.

Çözünürlük-Bot-Reklam