GPT llegó para quedarse. ¿Adónde nos llevará?

Publicado: 2023-02-03

GPT se está desarrollando ante nosotros, y no estamos perdiendo el ritmo. A medida que exploramos el potencial y las limitaciones de esta nueva tecnología, ¿estará a la altura de las expectativas?

Desde su lanzamiento a fines de noviembre, ChatGPT ha capturado los corazones y las mentes de personas de todo el mundo por su capacidad para generar respuestas similares a las humanas. Sin embargo, como con cualquier nueva tecnología, a menudo hay una brecha entre la exageración y la realidad. Y la IA generativa, en particular, es una máquina de publicidad bastante natural.

Entendemos el escepticismo: los modelos de lenguaje extenso son excelentes para parecer plausibles, incluso cuando están equivocados. Pero la verdad sea dicha, somos muy optimistas. En las últimas ocho semanas, creamos funciones impulsadas por IA y las enviamos a 160 clientes beta, y los comentarios han sido abrumadoramente prometedores. Tanto es así que a principios de esta semana, nuestro Director de Machine Learning, Fergal Reid, y yo lanzamos un episodio especial en el podcast para compartir nuestras ideas sobre lo que hemos construido y lo que hemos aprendido.

Esta vez, vamos más allá de Intercom, e incluso más allá del servicio al cliente. En el episodio de hoy, profundizamos en todo lo relacionado con GPT, desde el escepticismo hasta su papel en las comunicaciones comerciales, desde la interrupción del trabajo creativo hasta el futuro de las interfaces de usuario.

Estos son algunos de los puntos clave:

  • No es solo la tecnología lo que está mejorando: estamos mejorando en la comprensión de qué construir, cómo personalizarlo e integrarlo, y todas estas dinámicas están impulsando la industria hacia adelante.
  • Quizás el futuro de las interfaces hombre-máquina se verá facilitado por bots personalizados impulsados ​​por IA que comprendan las intenciones de los usuarios y medien sus interacciones.
  • Estos modelos han desbloqueado muchas capacidades nuevas y engañan a alguien de un vistazo, pero aún carecen del razonamiento de sentido común necesario para pasar la prueba de Turing.
  • GPT puede alterar la industria del servicio al cliente, pero si la automatización aumenta la productividad del agente, en última instancia, puede desbloquear capacidades que mejoran su valor para el negocio.

Asegúrese de no perderse ningún momento destacado siguiendo a Intercom on Product en Apple Podcasts, Spotify, YouTube o accediendo a la fuente RSS en el reproductor de su elección. Lo que sigue es una transcripción ligeramente editada del episodio.


Más allá del bombo

Des Traynor: Hola y bienvenido al podcast de Intercom. Me acompaña, nuevamente, Fergal, y vamos a hablar sobre todo lo relacionado con GPT. Fergal, han pasado ocho semanas completas desde que se lanzó ChatGPT. Ya, la gente ha estado construyendo productos útiles en su contra, y ya hemos tenido una ola de escépticos que dicen que esto es un juguete, que es inmaduro, que no está listo para nada nunca, que son solo reacciones clásicas de nuevas tecnologías. ¿Dónde está tu cabeza? ¿Está fundado el escepticismo? ¿Hemos cruzado algún precipicio perceptivo que realmente importa?

Fergal Reid: Sí, creo que hay cierta legitimidad en el escepticismo. Estas cosas son máquinas de exageración casi naturales. Es tan fácil mirarlo y ver que hace algo que parece bueno. A menos que realmente profundices en él, se ve maravilloso. Y luego, cuando profundizas en ello, dices: "Ah, está mal, me siento engañado". Estas máquinas están diseñadas para generar cosas plausibles, y si es plausible, pero el error es un problema para ti, puede ser muy decepcionante. Así que entiendo la posición predeterminada de escepticismo con la que mucha gente acude a esta tecnología.

"ChatGPT, tal como está en Internet hoy en día, puede ser un juguete, pero eso no significa que no podamos tomar la tecnología subyacente y crear características comerciales increíblemente valiosas a partir de eso".

Sin embargo, siempre hemos sido muy optimistas con respecto a la IA generativa y, desde la última vez que hablamos, hemos desarrollado algunas funciones, las hemos enviado a Beta, hemos tenido más de 160 clientes en nuestra Beta que usan estas funciones: resumen, algunos las características del compositor son más experimentales para tratar de hacer que las personas sean más rápidas. Y luego tenemos una ola de otras características en forma de prototipo que aún no están allí, cosas de gran valor, pero creemos que vemos una línea de visión para eso. Entonces, entendemos el escepticismo, éramos optimistas y ahora tenemos datos: uso real de los clientes, clientes reales que nos dicen que hay un trabajo en particular que quieren hacer, que hacen todo el día todos los días, y es transformador para eso. Y eso, para mí, hace que la posición de escepticismo empiece a parecer un poco inestable.

Des: El hecho de que la gente realmente esté usando la cosa para hacer partes de su trabajo a diario.

Fergal: Si. Ese es el árbitro final de esto. Es muy difícil ser escéptico cuando la gente realmente lo usa, y no solo como un juguete. Hay una línea de lógica por ahí. Hemos visto algunos artículos en The Atlantic y lugares como ese donde la gente dice: "Oye, mira, esto es más un juguete que un producto realmente valioso". Y ChatGPT, tal como está en Internet hoy en día, puede ser un juguete, pero eso no significa que no podamos tomar la tecnología subyacente y crear características comerciales increíblemente valiosas a partir de eso.

Mi equipo probablemente ha sido uno de varios equipos que han hecho eso en los últimos meses, para decir: "Guau, esto está entregando un valor real", y creo que somos probablemente una de las empresas más grandes en servicio al cliente que ha tenido éxito. Tuvimos un ciclo de desarrollo en el que lo pusimos en manos de cientos de clientes y recibimos sus comentarios. Y realmente nos han dicho, “Sí, esto realmente me está ahorrando tiempo; esto está haciendo mi trabajo más rápido”. Sí, el escepticismo se vuelve más difícil de sostener. Ese es un argumento. Creo que también puedes atacar el escepticismo desde una posición diferente: hemos visto muchos hilos de tweets y artículos escépticos sobre esta tecnología porque la generación anterior no cruzó el abismo y no fue transformadora. Y son escépticos porque la nueva tecnología siempre está sobrevalorada. Pero esos no son buenos argumentos. Esos son argumentos que son correctos por un tiempo y luego se vuelven terriblemente erróneos. Puedes fallar aquí siendo demasiado optimista, pero puedes fallar tanto siendo-

Des: Vacío y pesimista.

Fergal: Exacto. En blanco y pesimista.

“Hay tantas dinámicas sucediendo al mismo tiempo que se van a retroalimentar y magnificar entre sí”

Des: El paralelo que ves es gente que desecha cada idea nueva de la que han oído hablar. Y es que el 90% de las startups no funcionan. Entonces, el 90% del tiempo, estás en el clavo y te ves muy inteligente. Luego descartas uno que se convierte en un negocio de un billón de dólares y todo el mundo dice: "Bien, resulta...". Creo que fue Nat Friedman quien dijo: "Los pesimistas suenan inteligentes, los optimistas se hacen ricos", o algo así. . Y hay algo de verdad en ello cuando realmente pones peso detrás de cada opinión: el grado en el que te equivocas cuando te equivocas arrasa el grado en el que tienes un poco de razón solo por ser un escéptico tecnológico.

Fergal: Sí, 100%. Mira, creo en la IA y su valor. Creo que tenemos suficiente evidencia del valor real. Durante la última década, estamos viendo la tendencia del aprendizaje automático y la IA en general aumentar y aumentar. Tenemos nuevas capacidades. Siento que mi equipo tiene suficiente evidencia de que hay al menos algunas capacidades desbloqueadas para GPT-3.5 y para otros modelos de lenguaje grandes que no estaban allí hace seis meses. Creo que hay un voladizo; hay muchos más productos que podríamos construir ahora que aún no se han construido de los que había. Así que sí, somos optimistas y estamos empezando a ver clientes a quienes enviamos la versión beta para decirnos: "Sí, esto funciona, esto es genial".

Todavía no hemos cruzado la última pieza. Sabemos que esto es transformador en términos de valor central para las tareas que nuestros clientes dedican el 99 % de su tiempo. Por lo tanto, enviamos la función de resumen y otras funciones para ahorrar tiempo en la bandeja de entrada. Pero hay grandes cosas que vienen aquí que aún no hemos construido, en las que estamos trabajando internamente, pero no las hemos visto en el mercado. Y entonces, creemos que la verdadera emoción de esto todavía está por llegar.

Des: Hay cierta jerarquía de transformación que estoy seguro de que alguien me corregirá en los comentarios, pero ya pusimos funciones en vivo para transformar flujos de trabajo específicos y, al transformar, pretendemos reducir el costo de hacer esto al 5 % de lo que una vez fue. En el caso de, digamos, resumen. Entonces, podría estar transformando flujos de trabajo muy comunes. Luego, podría estar transformando el trabajo, luego transformando la organización y, en la parte superior, está transformando el negocio. Pero está bastante claro a medida que identificamos más y más casos de uso en los que podemos ofrecer mucho valor, que nos estamos abriendo camino a través de esta, para mí, inevitable transformación del mundo del servicio al cliente.

“Fuimos internamente a nuestros clientes y tuvimos que cerrar el reclutamiento beta mucho antes de lo que queríamos porque fue una de las mayores respuestas que hemos tenido”

Fergal: Absolutamente. Hay tantas maneras en que esto está cambiando en paralelo. Hay tantas dinámicas sucediendo al mismo tiempo que se van a retroalimentar y magnificar entre sí. El primero es bastante obvio: la tecnología disponible está mejorando. Eso no se detiene. OpenAI y otros jugadores como Anthropic están construyendo nuevos modelos todo el tiempo, y son emocionantes. Eso no se detiene. Entonces, esa es una dinámica. Y hay otra dinámica, que es que estamos mejorando en la creación de productos en torno a eso. Estamos mejorando al tomar esos modelos y descubrir el tipo de cosas en las que son buenos. Y hay otra dinámica, que es que estamos mejorando en personalizarlos, crear los mensajes correctos e integrarlos en nuestros sistemas existentes. Y luego las expectativas de nuestros clientes son cada vez más altas.

Realmente descubrimos que, desde ChatGPT, ha habido una gran ola de interés por parte de nuestros clientes. Pueden ver la promesa y creer que hay algo aquí. Con la versión beta, nos dirigimos internamente a nuestros clientes y tuvimos que cerrar el reclutamiento beta mucho antes de lo que queríamos porque fue una de las mayores respuestas que hemos recibido. La gente quería estar en eso. Entonces, todas estas cosas juntas van a magnificar mucho más que cualquiera de ellas por sí sola, en mi opinión.

Des: Es interesante cómo descompones eso. La tecnología está mejorando, las capacidades de las empresas están mejorando y eso es solo adoptarlo en casos locales. Y luego está mejorando la capacidad de las empresas para pensar o conceptualizar nuevos productos y oportunidades utilizando esa tecnología. Lo mismo ocurre con las expectativas de los clientes sobre la tecnología. Probablemente estemos a solo un año de que las personas esperen poder expandir el texto dentro de un campo de texto, como un ejemplo simple. Estás viendo estas cosas surgir en todas partes.

Fergal: Si hasta un año. Obviamente, muchos de nosotros hemos visto el anuncio de Microsoft sobre la incorporación de estas características a Word y demás. Y va a cambiar rápidamente si las principales herramientas de productividad de la oficina lo hacen. Podría ser muy rápido.

El auge del asistente de IA

Des: Aquí hay un tipo diferente de escepticismo contra el que atacaré, uno que resuena un poco conmigo, de todos modos. Creo que Kevin Cannon tuvo un tuit divertido en el que dijo: "El futuro está compuesto por personas que usan GPT para expandir cosas como 'Quiero el trabajo' en una carta encantadora como 'Estimado señor' o 'Señora', bla, bla. , blah... Y luego el destinatario, haciendo clic en el botón de resumen, para ver que la persona simplemente dijo: "Quiero el trabajo, aquí está mi currículum", o lo que sea. En cierto sentido, estarías tentado a mirarlos y pensar, ¿cuál es el punto de todo esto? ¿Se ha convertido el lenguaje formal, la escritura profesional y el inglés de negocios en un conducto sin sentido para la forma teatral en que todos nos comunicamos, cuando en el futuro, solo le enviaré el mensaje y usted responderá con un mensaje como, "Quiero que el trabajo." “No puedes tener el trabajo”.

Fergal: Si. Pregunta difícil. Es seriamente especulativo. Te daré algunas opiniones. Probablemente hay ciertos contextos, ¿verdad? Digamos un documento legal. Puede decirle a alguien de su equipo legal: “Oye, necesito un contrato. Tiene que hacer X, Y y Z”. Esa solicitud se convertirá en 10 páginas de asuntos legales. El destinatario dirá: "Oh, ¿hace las tres cosas que dijo que haría?" Y su equipo legal dirá: "Sí, lo hace". Este es un extremo del extremo donde hay una gran expansión y compresión, pero en algún caso extremo extraño, la cláusula número 13 en la página dos puede aparecer en la corte, y así sucesivamente. Así que claramente, eso importa. No podemos deshacernos de él. No podemos tener solo esos cuatro puntos. Necesitamos todo eso. Puede que no lo considere material cuando lo está escribiendo, pero puede volverse material más adelante. Eso se siente como un extremo donde es como, "No, parece que eso tiene que estar ahí", algo para lidiar con todos esos casos extremos.

Y el otro extremo es probablemente una situación en la que el defensor y el destinatario no se preocupan por esos detalles. Ambos nunca se van a preocupar por esos detalles, y solo están observando algunas gracias sociales o formalidades de “así es como se escribe una carta comercial. Estoy escribiendo para una gran empresa, mejor escribo una carta de negocios”, y tal vez esas cosas desaparezcan.

Des: De la misma manera, creo que la analogía para mí sería cuando las conversaciones por correo electrónico se trasladaran a SMS, iMessage o WhatsApp. Piensa en toda la mierda que ya no estás diciendo. "Espero que esto te encuentre bien", o lo que sea. Toda esa mierda se ha ido.

Fergal: Las limitaciones de Twitter, el formato, el medio, te dan permiso para ser más breve. Creo que es una verdadera dinámica. La forma en que nos comunicamos y la forma en que escribimos un artículo del centro de ayuda puede no ser la forma óptima de escribirlo. Tal vez deberíamos ser más breves. En el equipo de aprendizaje automático, hay otra forma de pensar sobre esto. El futuro del mundo va a ser intermediado por agentes. Y una vez, esto era obvio para todos. Su navegador web tenía un agente de usuario encadenándolo y esas cosas. Y como digo, es tu agente yendo y navegando por ese Internet extraño con todos estos enlaces y cosas para ti. Hará cosas por ti, volverá y te dirá cosas. Y luego, todas esas cosas centralizadas y ahora tienes un motor de búsqueda y demás.

“Sería una cosa si todo lo que hubiéramos visto fuera la generación de imágenes DALL·E 2. Pero no, estamos viendo transformaciones en la síntesis de audio, la síntesis de imágenes, la comprensión de texto, la síntesis de texto y la compresión de texto”.

Existe una vieja idea en el futurismo tecnológico y la ciencia ficción, etc., que probablemente tendrá un agente que lo entienda, su intención, lo que quiere, y que sea lo suficientemente inteligente como para descubrir qué llamar su atención y qué no. a. Entonces, posiblemente, en el futuro, la forma en que esto se desarrolle sea más así. Si desea conocer un detalle en particular, el software de su lado es lo suficientemente inteligente como para incluirlo en la versión resumida. Pero es lo suficientemente inteligente como para saber que no quieres saber ese detalle también y dejarlo fuera.

Tal vez viviremos en un futuro donde las interfaces de usuario cambien, donde mi interfaz de usuario para un negocio o tarea en particular no esté realmente controlada por ese negocio o esa tarea como lo es hoy. En cambio, es personalizado para mí. Eso suena muy elegante, pero creo que va a suceder rápido. Estos modelos de lenguaje son muy poderosos, están comenzando a usarse para escribir código, etc. Hemos visto algunos prototipos en los que la gente está trabajando en modelos que entienden un sitio web lo suficientemente bien como para captar una oración en inglés y navegar por el sitio web por usted. Y luego, ¿nos dirigimos hacia un futuro en el que todos interactúen con los sitios web? ¿Necesitas un sitio web más?

Des: ¿Es este el nuevo SEO? ¿Asegurarte de que tu GPT pueda entenderte?

Fergal: Si. Tal vez los sitios web se conviertan en algo que se parece más a una API que se expone públicamente, y eso es algo con la interfaz de usuario y el formato porque los agentes formatean la interfaz de usuario.

Des: Todos estamos hablando con Siri o lo que sea.

“Tal vez así sea el futuro con bots. Todos tenemos un bot personalizado para nosotros que maneja la interfaz y realmente no necesitas preocuparte tanto por esa capa intermedia”.

Fergal: Sí, y creo que Google y Apple pueden ver este futuro. No sabemos la línea de tiempo, pero nuevamente, la herramienta de pensamiento que siempre uso es: ¿qué pasaría si tuvieras un humano muy inteligente que te entendiera, que hubiera trabajado contigo, tal vez un asistente personal, y estuvieras interactuando con ellos, y ¿Querías reservar unas vacaciones? ¿Qué te preguntarían al respecto? Y en la mitad de las cosas que ves en booking.com o lo que sea, no te van a preguntar eso, solo van a reservar las vacaciones por ti y tal vez regresen con preguntas aclaratorias: "Oh, querías ve y quédate en un apartamento, pero no hay espacio allí. ¿Servirá un hotel? Pero esa es una interfaz de usuario adaptable. Una vez más, no me concentro demasiado en ChatGPT y lo que acaba de enviarse. Te tomas un año o dos fuera. Se está moviendo demasiado rápido. Si es escéptico debido a las limitaciones actuales, va a...

Des: Tu escepticismo no dará en el blanco.

Fergal: Exacto. Los transformadores son extremadamente poderosos, y las arquitecturas de transformadores que usa la gente son extremadamente poderosas. Hemos visto mejorar múltiples modalidades aquí. Sería una cosa si todo lo que hubiéramos visto fuera la generación de imágenes DALL·E 2. Pero no, estamos viendo transformaciones en síntesis de audio, síntesis de imágenes, comprensión de texto, síntesis de texto, compresión de texto. Estamos viendo tantos avances paralelos. Puede escribir código. Probablemente va a ser capaz de trabajar en un sitio web muy pronto. Entonces, tal vez así sea el futuro con los bots. Todos tenemos un bot personalizado para nosotros que maneja la interfaz y realmente no necesita preocuparse tanto por esa capa intermedia.

Des: una escena de superprototipo que vi en Twitter fue alguien que entrenó a un bot para hablar con su propia voz, creo, y para llamar a un número y navegar por un árbol telefónico bancario, comunicarse efectivamente con un agente, solicitar tener todos sus transacciones de divisas reembolsadas o algo así. Algo que es el tipo de estándar en el que solo necesitas preguntar y lo hacen. Llegó hasta el final. Y literalmente, solo dijeron: "Ve", y se alejaron. Eso obviamente fue súper artificial, tal vez súper cerrado, pero aún así fue un caso de uso muy real de extremo a extremo ejecutado automáticamente.

Fergal: Creo que es un área realmente interesante. Hablamos mucho sobre cómo cambiará el servicio al cliente, y siempre pensamos en lo que sucederá cuando tenga un bot como ChatGPT pero personalizado para su negocio y realmente excelente para responder preguntas y el costo de los problemas de servicio al cliente se reducirá. Pero hay otro lado. ¿Cómo cambiará el servicio al cliente cuando el usuario tenga un bot que pueda manejar las interacciones del servicio al cliente y no se dé por vencido ni se canse? Y potencialmente hay un gran cambio allí.

Des: Básicamente, el nuevo B2B será de bot a bot.

Fergal: Tal vez. Puede pasar un tiempo antes de que los usuarios tengan ese tipo de tecnología, pero es algo interesante a considerar.

El enigma de la autenticidad

Des: ¿Cómo piensas en general sobre este mundo de creación de doble cara y, en última instancia, lo que podría verse como un engaño? Esto parece una pintura, pero no es una pintura, fue generada, versus detección, la idea de que la gente puede decir , "Oye, realmente escribí a mano ese código, ese no es un código generado". ¿Qué tan importante es para la humanidad navegar en este mundo? Hay una escena famosa en Westworld, una fábrica de robots del oeste, donde un tipo quiere...

Fergal: Es una nueva versión de algo antiguo.

Des: Ah, ¿lo es? Noticias para mi. No sabía que era un remake de algo antiguo. Pero en Westworld, hay una escena en la que un chico se topa con una mujer, tiene una conversación con ella y luego, al final, dice: "Tengo que preguntar, ¿eres real?" Su respuesta es: "Si tienes que preguntar, ¿por qué importa?" Y creo que hay algo ahí. ¿Superar nuestra capacidad de detección se verá como la definición de auténtico? ¿La autenticidad es incluso una cosa más? En el ejemplo de la banca, ¿cómo dirá una persona: "Oye, Fergal, eres tú o es un bot que has entrenado?" Especialmente si lo has entrenado para responder a esa pregunta.

Fergal: Hay algunas preguntas importantes ahí. Hay al menos cinco preguntas allí de las que probablemente perdí la pista. Podría hablar sobre la prueba de Turing, un artículo muy profético sobre cómo vamos a poder saber cuándo una computadora se ha vuelto adecuadamente inteligente, y luego una prueba fue una prueba disfuncional, si un juez humano puede discernir de manera confiable entre las dos. vía interfaz de texto o lo que sea, podríamos decir que no es inteligente. Y cuando pasa eso, debemos aceptar que es funcionalmente inteligente. Se tergiversa mucho, pero su artículo decía más: "Está haciendo algo realmente interesante si llega a ese punto". Y esa es una forma de abordar las cosas funcionalmente.

“Cuenta una historia en la que están sucediendo muchas cosas y luego hazle una especie de pregunta compleja y consecuente sobre eso, y seguirá tropezándose”

Des: Y ya hemos pasado eso, diría yo. Aproximadamente.

Fergal: Siempre hay titulares sobre algo que pasa la prueba de Turing. Creo que la formulación original es algo así como un interrogador hábil o algo así. Todavía no estamos en ese punto. Si alguien está capacitado para hacer las preguntas correctas, esto se estropeará rápidamente. No tiene el modelo de mundo profundo que tiene un humano.

Des: Correcto. ¿Cómo harías el truco de hacer una pregunta autorreferencial? ¿Le pedirías a alguien que lo haga tropezar lingüísticamente?

Fergal: La tecnología está mejorando en eso. Pero es más como configurar un dominio complejo. Cuente una historia en la que están sucediendo muchas cosas y luego hágale una especie de pregunta compleja y consecuente sobre eso, y aún así se tropezará. Se tropezará de una manera que un niño no lo haría. Pero creo que la forma correcta de pensar en esto es que estás tratando con inteligencia alienígena. Quiere llamarlo inteligencia, pero tendrá una forma diferente. Entonces, habrá un montón de cosas que un niño de siete años no podría escribir. Podré escribir un programa de computadora, pero lo que podría llamarse razonamiento de sentido común aún no existe. Dicho esto, filosóficamente, eso está hablando de si esta cosa está viva y siente cosas. Y no, claramente no, con la mayoría de las definiciones que la mayoría de la gente usaría. Pero eso es como desviarse hacia la filosofía de las preguntas de IA.

Para volver a su punto original, ¿qué sucede si desea crear CAPTCHA para estos sistemas? ¿Cómo se ve eso? Sí, las personas tienen formas de marcar con agua y detectar si esos modelos producen ese texto, pero no sé si eso será confiable si tiene un modelo que es realmente bueno para inyectar la cantidad correcta de ruido.

Una cosa que le advertiría a cualquiera en este campo es que hay sistemas de aprendizaje automático y hay algo como, "¿cómo hago para que mi sistema de aprendizaje automático tenga una calidad lo suficientemente buena como para alcanzar mi umbral de detección de imágenes del 99 % en la vida real?" Ese es un estándar. Y existe este otro estándar: ¿cómo construyo mi sistema de aprendizaje automático para que funcione bien en comparación con la entrada del adversario? Ese es un juego de pelota completamente diferente.

“Por un tiempo, al menos, cualquier gran jugador con un gran modelo de lenguaje intentará detenerte si lo estás usando para tareas nefastas como esa”.

Des: Diseño defensivo.

Fergal: Diseño defensivo. ¿Cómo me defiendo de la entrada del adversario? Y en general, eso es muy difícil. Si me dijera: "Oh, tengo un nuevo y elegante sistema de aprendizaje automático que detectará el fraude o protegerá mi sistema en un entorno complejo", sería extremadamente escéptico. Existen sistemas de detección de fraude, pero eso es diferente de alguien que intenta atacar el sistema de aprendizaje automático.

Creo que todo este problema de detectar cuando estás hablando con un bot, cuando estás hablando con un modelo de lenguaje grande cuando no quiere que lo hagas, será difícil. Y si terminamos en una situación en el futuro en la que el servicio de atención al cliente se ve inundado por bots que fingen ser usuarios, será complicado lidiar con eso. Pero me imagino que por un tiempo, al menos, cualquier gran jugador con un gran modelo de lenguaje intentará detenerte si lo estás usando para tareas nefastas como esa. Y habrá cierto control allí porque estos modelos de tan alta calidad son difíciles de alojar y ejecutar en cualquier tipo de material de hardware de modelo de consumo. Puede haber algo de responsabilidad.

Interrupciones inminentes

Des: Si nos acercamos un poco, probablemente no estemos muy lejos de poder generar música con un sonido plausible. Música de lobby, ese tipo de cosas.

Fergal: Si. Hilo musical.

Des: Muzak, exactamente. Y hasta cierto punto, hay canciones formuladas en general: creo que algo así como 65 canciones número uno tienen los mismos cuatro acordes o algo así, o canciones de primer nivel de todos modos. Y, obviamente, todas las novelas de Dan Brown siguen un formato simple. Eso no significa que sea malo, pero ¿hasta qué punto cambia la sociedad cuando cualquier cosa que se exprese hasta cierto punto en una naturaleza formulada se puede replicar y, en última instancia, se puede obtener una versión de $0? El Código Da Vinci sigue siendo El Código Da Vinci, es un libro bastante bueno según cualquier definición normal, pero ahora puede obtener la versión barata del sótano por $ 0 o cinco centavos o lo que sea. Y luego, piensas que sucede en todo tipo de creatividad. Una vez más, esto no quiere decir que los resultados de estas tecnologías serán comparables, pero serán potencialmente el 1% del precio. ¿Cómo crees que cambia el mundo en ese tipo de futuro?

“Es la paradoja de Jevons: a veces, hacer algo más barato significa que terminas haciendo mucho más. Esas dinámicas son realmente difíciles de predecir”

Fergal: Pienso de muchas maneras diferentes. Puedes mirar analogías del pasado. Puedes mirar la pintura, y luego apareció la fotografía, y de repente fue fácil capturar una imagen de paisaje pero...

Des: Seguro que a los pintores no les gustó, ¿verdad?

Fergal: No conozco la historia lo suficientemente bien, pero en general, hay algunos titulares que se molestan cada vez que hay una interrupción.

Des: Creo que era lo mismo con la radio o las cintas de casete: los músicos en vivo decían: "Bueno, este era nuestro concierto".

Fergal: Si. Cada cine tenía un pianista que tocaba la banda sonora, y eso se fue. Los afinadores de gramófonos y pianos, el telar y los luditas… Hay innumerables ejemplos de ello. Y creo que hay otras áreas que enfrentan una interrupción inminente, y habrá conversaciones difíciles sobre lo que es valioso. Del mismo modo, con la atención al cliente, debe ser sensible. Siempre hay mejores resultados y peores resultados. Las personas pueden ver modelos de lenguajes grandes que mejoran en la escritura de código y decir: "Oye, como programador, esta valiosa habilidad en la que he invertido años, Dios mío, ya no será útil".

“¿Habrá menos representantes de atención al cliente en un mundo con mucha automatización, o habrá más porque el valor que pueden aportar a una empresa se ha magnificado?”

Hay diferentes maneras de pensar en esto. Puede pensar en ello en términos de AWS. Usamos mucho Amazon en Intercom, y probablemente, si tuviéramos que hacer todo lo que hicimos sin AWS, nos costaría más órdenes de magnitud de tiempo de programador hacerlo. ¿Significa eso que, como resultado, contratamos menos programadores? Bueno, probablemente signifique que no seríamos viables como empresa sin esa tecnología habilitadora. Es la paradoja de Jevons: a veces, hacer algo más barato significa que terminas haciendo mucho más. Esas dinámicas son realmente difíciles de predecir. ¿Habrá menos representantes de atención al cliente en un mundo con mucha automatización, o habrá más porque se ha magnificado el valor que pueden aportar a una empresa?

Des: Cuando tomamos todas las cosas reales, en realidad vemos el valor que aportan, y dices: "Quiero más de eso".

Fergal: Quieres más de eso; necesitas más de eso. De repente es como, "Vaya, ¿qué podríamos desbloquear en términos de valor para nuestro negocio si tuviéramos muchos de esos representantes?" Cada uno podría hacer 10 veces más de lo que hace actualmente. Nunca sabes. Creo que eso es algo que se pierde a veces. La gente siempre responde a la disrupción tecnológica y siempre habla de: “Oh, puedes subir la escalera de valor y conseguir un mejor trabajo. Puedes convertirte en gerente de producto si es allí donde quieres ir”. Y esa es potencialmente una forma. Pero otra forma es que simplemente volverse mucho más productivo en lo que hace actualmente puede transformar la cantidad de lo que necesita hacer.

Des: O más negocios se vuelven posibles gracias a eso.

Fergal: Se hacen posibles más negocios. Eso es lo mejor. Creo que todo esto se desarrollará con cosas como AI art. Obviamente, hay un debate sobre el plagio y la infracción de derechos de autor. Si alguien va y entrena a DALL·E 2 con un montón de imágenes, ¿fue una infracción de derechos de autor? ¿Y si aprendieran el estilo de un artista y luego le pidieras que produjera un trabajo como el de ellos? ¿Es eso una infracción de derechos de autor? Y probablemente hay muchas cosas que los sistemas legales y la sociedad necesitan resolver. Una cosa que creo que a veces falta en el debate es que incluso si decide que es una infracción de derechos de autor entrenar los modelos actuales, y no lo aceptamos con humanos; a los humanos se les permite mirar las cosas y copiar su estilo: alguien aún construirá modelos entrenados en trabajo abierto y permisible, y se volverá bastante bueno generando imágenes. Creo que ese barco ha navegado hasta cierto punto.

¿Qué tan grande puede ir?

Des: Para tirar algunas agujas aquí, hizo referencia a AWS como un ejemplo en el que no tenemos un equipo de servidores masivo aquí. No tenemos archivadores llenos de servidores. ¿Tu equipo de IA es más pequeño debido a la existencia de OpenAI, Anthropic y todo eso? Si no existieran, ¿estaría construyendo una versión de IA del equipo del servidor?

Fergal: Sí, quiero decir, esa es una gran pregunta. Hay diferentes formas de verlo. ¿Se está interrumpiendo el equipo de IA? Y hemos ido y venido en esto. Veamos la versión actual de modelos de lenguaje grande. Estuve jugando con GPT recientemente como recomendador de películas. Es como, "Oye, me gusta ver X e Y. ¿Me sugieres algo?" Y no está mal. Estoy seguro de que no es tan bueno como un recomendador bien afinado que tiene los mejores datos, pero funciona mucho mejor que elegir películas al azar. Y saldrá, escupirá como si estuviera razonando. Y su razonamiento, como todo lo que hace, es plausible, pero no está mal. Entonces, de nuevo, incluso si la tecnología no es excelente ahora, no me apresuraría a producir un recomendador de películas ni nada por el estilo, ¿qué pasa si mejora 10 o 100 veces? ¿Qué pasa si le das muchos más datos de entrenamiento o un régimen de entrenamiento mucho mejor?

“Hay toneladas de oportunidades con el matrimonio de esta nueva capacidad en cosas específicas en las que es bueno con mucho andamiaje, mucho trabajo de producto en torno a eso”

Des: Solo espera a GPT-4.

Fergal: Sí, GPT-6, como sea, ¿verdad? Cualesquiera que sean los 10 mil millones de dólares que compre en computación y refuerzo, aprendiendo la retroalimentación humana, si eso es, de hecho, lo que sucede. ¿Y si eso sucede? ¿Sigues yendo y construyendo un sistema de recomendación? Alguien te pide un sistema de recomendación, ¿haces eso? Sam Altman ha dado charlas al respecto. Imagina que pudiéramos hacer que esto sea a nivel humano. If you had something that was human-level general intelligence, would you need a machine learning team anymore? Or would you just sit down like, “Hi, how's it going? Today I'm going to teach you how to be a movie recommender.” You've got to give lots of examples, and it's got to be able to consume a data set about movies. But maybe it's just like, “Hey, AI system, write the code to consume the data set about movies.” No sé.

“You're getting into big questions, Des. And maybe that's just where all our heads are going at the moment. But you can get into big questions about, like, by the time that's disrupted, what percentage of current human economic activity is disrupted?”

Des: Yeah, totally correct.

Fergal: But that's a very bullish case. Maybe we hit some asymptote before then, and I certainly don't think we're near that point at the moment. I think you still need your machine learning team. And I think we're certainly in this happy Jevons Paradox for a while where a lot of stuff is unlocked, and maybe we're doing slightly different work than we were before – we're certainly doing a lot more prompt engineering – but these systems are not yet good enough to just train-

Des: Yeah. To outsource the whole thing to OpenAI, and they'll solve our problems.

“If you put 100X more resources into model training or dataset creation, what return do you get? Is it 10X, a 100X, a 1000X? I don't know if anyone knows that”

Fergal: Right, yeah. I really hesitate to speculate about when. Just to give you one super concrete limitation. All these models have a prompt size. The amount of context you can pass to it with a prompt is limited. And that limit is baked in pretty low down. And so, a lot of the stuff the team is doing at the moment is around, “Hey, how do we work around that? How do we give them a relevant article?” And we're using more traditional machine learning techniques – traditional as in, invented five years ago. The classic stuff.

There are tons of opportunities with the marriage of this new capability in specific things it's good at with a lot of scaffolding, a lot of product work around that. I think there will be disruption, and it feels like extremely disruptive tech to me, particularly when you project a few years out. But we don't know how big it'll be. And I don't think anyone knows how big it'll be yet. Maybe the folks in OpenAI do. But if you put 100X more resources into model training or dataset creation, what return do you get? Is it 10X, a 100X, a 1000X? I don't know if anyone knows that. There's certainly no consensus on it.

Des: There was that quote from Sam Altman where he was asked something – I think it was some irrelevant question about challenges in San Francisco or something like that – and his answer was, “When you believe that artificial general intelligence is as close as I do, you struggle to think about any other problem.” When I read that, I was like, “Okay, well, he's certainly leaned a certain way.” Now, he could still be thinking in 20 years, but some societal problems are kind of irrelevant against the greater potential wave of what could be happening here.

“There's clearly a pitfall to avoid and an attractive pitfall to fall into”

Fergal: Yeah. Full disclaimer mode now. I think there's a lot of merit to that style of thinking, personally. I remembered there were times in the history of computation when it was like, “Oh, if you've got a million dollars to solve a computing problem and you need to solve it as soon as possible, what you need to do is sit with the million dollars for two years and then buy the fastest computer that the million could buy.

Des: I remember my own career. In 2006 or 2007, mobile websites were all the thing. Pre-iPhone, right? And people were talking about WAP and JMI files or JNI files, and everyone hyped up their mobile strategy. And literally, by the time I finished working out what I thought was the right recommendation for a client, the iPhone had launched. And I was like, “You know what? No te preocupes por eso. Sit on your hands. Apple's going to solve this entire problem.” And sure enough, two months later, “Hey, it turns out all our websites are mobile-ready.” Sometimes, a tech wave can be so big that any temporal thing you do will just be irrelevant against the magnitude of what's going to happen.

Fergal: Yeah, if you believe AGI is close, I guess I can logically see that position. Now, clearly, it seems like there's a terrible mistake to make there where-

Des: Yeah, where we're wrong, and you've probably just been sitting on your hands.

Fergal: You've given yourself a license to ignore terrible, terrible things. So obviously, you've got to wait, and I'm not making any judgment on that. But yeah, there's clearly a pitfall to avoid and an attractive pitfall to fall into. I think it's very hard to bet against increasingly general intelligence. And I don't know timelines and stuff, but I think there are big questions for people to think about. Now, that's definitely way outside customer support or customer service.

Des: No, yeah. Well, look, thank you very much. We'll check in in six weeks to find out that this podcast is yet again out of date. We'll see where we're at again. But for now, thank you very much.

Fergal: Thanks, Des.

CTA-Intercom-on-Product