L'IA dans la boîte à outils du concepteur : Façonner l'avenir avec ChatGPT
Publié: 2023-02-08Alors que GPT place la barre plus haut et que les grands modèles de langage deviennent plus sophistiqués, quels nouveaux horizons vont émerger pour le design thinking ? Et comment vont-ils bouleverser le rôle traditionnel des concepteurs de produits ?
Le lancement de ChatGPT a déclenché un tourbillon d'opinions et de discussions, avec toutes sortes de personnes s'engageant dans des échanges houleux sur ce que tout cela signifie pour nous. Maintenant, nous sommes les premiers à admettre que les prédictions et les prévisions spéculatives peuvent être une course folle, mais une chose est sûre : ces modèles provoquent déjà un changement sismique dans la façon dont nous pensons et construisons nos produits.
Si vous avez écouté Inside Intercom la semaine dernière, vous savez que nous avons rapidement sauté dans le train GPT, conçu de nouvelles fonctionnalités alimentées par l'IA et les avons expédiées à 160 clients bêta (n'hésitez pas à consulter la première partie et la partie deux de la conversation si vous ne l'avez pas déjà fait). Aujourd'hui, pour le dernier épisode de nos chats GPT, nous sommes rejoints par certaines des personnes qui ont effectivement effectué un travail de conception appliquée avec ChatGPT et de grands modèles de langage pour créer de vrais produits qui résolvent de vrais problèmes pour les clients.
Dans cet épisode, vous entendrez les nôtres :
- Emmet Connolly, vice-président de la conception de produits
- Molly Mahar, Staff Product Designer dans l'équipe Machine Learning
- Gustavs Cirulis, concepteur principal principal de produits
Ils parleront de grands modèles de langage (LLM) comme ChatGPT, et comment ils façonneront le rôle d'un concepteur de produit dans les années à venir. Nous ne pouvons pas savoir ce que l'avenir nous réserve, mais si vous nous demandez, le mieux que vous puissiez faire est de vous y pencher.
Voici quelques-uns des principaux plats à emporter :
- GPT est vraiment bon pour résumer le contenu, comprendre la langue et éditer du texte. Mais un problème majeur est que parfois ses réponses semblent plausibles, mais sont factuellement incorrectes.
- Au fur et à mesure que la technologie évolue, les organisations de support passeront de réactives à proactives en formant l'IA et en veillant à ce que le support soit effectué d'une manière conversationnelle qui semble naturelle pour les humains.
- De nouveaux modèles de conception pourraient émerger pour gérer l'incertitude et les attentes, comme l'intégration de scores de confiance dans les fonctionnalités.
- Au fil du temps, les entreprises pourront utiliser des modèles open source et créer des couches supérieures avec des connaissances spécialisées en utilisant des données propriétaires de leur secteur ou de leur entreprise.
- À l'avenir, l'interaction avec l'IA peut impliquer des interfaces conversationnelles, des interfaces graphiques pour l'augmentation du flux de travail et même des interfaces neuronales.
- Le rôle d'un concepteur sera de créer une interface d'IA qui fonctionne comme un collègue intelligent et non menaçant qui peut augmenter votre flux de travail et faciliter votre journée.
Assurez-vous de ne manquer aucun temps fort en suivant Inside Intercom sur Apple Podcasts, Spotify, YouTube ou en saisissant le flux RSS dans le lecteur de votre choix. Ce qui suit est une transcription légèrement modifiée de l'épisode.
Premières rencontres
Emmet Connolly : Salut, tout le monde. Bienvenue sur le podcast Inside Intercom. Je suis très heureux d'être rejoint aujourd'hui par Molly et Gustavs de l'équipe de conception de produits Intercom. Depuis le lancement de ChatGPT il y a quelques semaines, il y a eu beaucoup de discussions animées, beaucoup de spéculations aléatoires inutiles et beaucoup de quart-arrière sur ce que tout cela signifie. La plupart, je dirais, proviennent de personnes qui n'ont pas du tout travaillé directement avec la technologie, c'est pourquoi je suis très heureux de parler à Molly et Gustavs aujourd'hui. Parce que Molly et Gustavs font partie de la très petite minorité du monde entier qui ont réellement effectué un véritable travail de conception de produits appliqués avec ChatGPT et les technologies associées. Je veux dire, l'utiliser pour s'intégrer aux produits et résoudre de vrais problèmes de produits pour les clients avec de vrais produits fonctionnant à grande échelle. Alors, Molly et Gustavs, bienvenue dans l'émission. Peut-être voudriez-vous vous présenter très brièvement. Molly, tu veux y aller ?
Molly Mahar : Bien sûr, bien sûr. Je suis Molly Mahar. Je suis un concepteur de personnel ici à Intercom. Je suis assez nouveau. Je suis intégré à l'équipe Machine Learning, avec une équipe d'ingénieurs, et nous faisons beaucoup de prototypage.
Gustavs Cirulis : Hé, je m'appelle Gustavs. Je suis un concepteur de produits principal et je suis ici depuis un peu plus longtemps que Molly. J'ai été un peu partout, mais pour le moment, je travaille dans l'équipe de croissance.
"Cela m'a rappelé l'économie comportementale à l'université et l'effet Dunning-Kruger, où vous êtes incompétent mais trop confiant"
Emmet : Aujourd'hui, nous allons parler d'IA et de grands modèles de langage comme ChatGPT. Plus précisément, sur ce qu'ils signifient pour le design et les designers. Nous parlerons un peu des nouvelles opportunités qui s'offrent aux concepteurs, en particulier avec cette nouvelle technologie, de ce que cela a été pour vous ou de ce qui a été différent dans le travail avec l'IA par rapport aux produits traditionnels, et certains des défis que vous avez rencontrés lorsque vous 'ai commencé à concevoir ces fonctionnalités alimentées par l'IA. Nous pourrions même nous lancer dans des prédictions malavisées à un moment donné. Mais commençons par les bases. Molly, quelle a été votre première réaction lorsque ChatGPT est arrivé sur la scène et a fait sensation il y a quelques semaines à peine ? Vous avez travaillé avec des systèmes d'IA et de ML pendant un certain temps avant cela.
Molly : Eh bien, d'abord, j'ai été bombardée par un certain nombre de captures d'écran sur Slack et j'ai commencé à les voir venir de personnes de toute l'entreprise et sur Twitter et tout. Je l'ai essayé et je me suis dit : « C'est très cool. C'est aussi très intelligent. Les grands modèles de langage (LLM) existent depuis un certain temps, mais maintenant ils ont mis une interface utilisateur sur leur API. Et donc, plus de gens partout dans le monde sont capables de les utiliser sans avoir à être développeur ou quoi que ce soit, ce qui, je pense, est assez génial et montre à quel point les gens étaient excités à leur sujet. J'ai commencé à jouer avec, et c'est vraiment puissant.
Vous pouvez lui poser beaucoup de questions, vous pouvez faire un suivi. C'est vraiment incroyable. Cela ressemble un peu à une conversation. Ensuite, nous avons commencé, en équipe, à creuser dedans pour essayer de le tester. Et je sentais que je commençais à voir le battage médiatique. Cela m'a rappelé l'économie comportementale à l'université et l'effet Dunning-Kruger, où vous êtes incompétent mais trop confiant. Et c'était parfois comme ça. Ce ChatGPT est tellement meilleur que moi pour faire des conneries. J'en suis étonné. Et donc, je suis passé par une vague de sentiments à ce sujet. Je me demande s'il serait utile de donner un aperçu rapide des LLM.
«Les LLM existent depuis un certain temps, s'améliorant et de plus en plus vite. Ce qui est étonnant avec ChatGPT, c'est qu'en tant que personne, je peux réellement l'utiliser »
Emmet : Je pense que oui. Je pense que pour beaucoup de gens, il y a cette association avec ChatGPT comme l'IA dont tout le monde parle. Alors, pourriez-vous expliquer en termes simples ce qu'est ChatGPT et comment cela se rapporte à d'autres termes comme les grands modèles de langage dont les gens ont peut-être entendu parler ?
Molly : Ouais, je ferai de mon mieux. Ainsi, les grands modèles linguistiques, les LLM, pour faire court, sont des modèles formés sur un énorme corpus de textes publics de partout - livres, Internet, sources multimodales, je pense, parfois. Des milliards et des milliards et des milliards de données à l'intérieur. Et ils sont souvent formés avec des commentaires humains en cours de route. Je pense que cela explique pourquoi vous pouvez avoir cette conversation avec ChatGPT - vous pouvez lui faire part de vos commentaires, et il y répondra réellement et modifiera ses réponses. Les LLM existent depuis un certain temps, de mieux en mieux et de plus en plus vite. La chose étonnante à propos de ChatGPT est que, en tant que personne, je peux réellement l'utiliser. Et deuxièmement, c'est en fait vraiment, vraiment bon. ChatGPT est le frontal, fondamentalement, et je simplifie un peu cela, mais c'est le frontal pour une grande API de modèle de langage qu'OpenAI a en arrière-plan. Et ils en ont un certain nombre.
Il existe de nombreuses autres entreprises qui ont également de grands modèles linguistiques. Google travaille sur LaMDA, et il y a d'autres sociétés. Et donc, nous pourrions dire ChatGPT ici aujourd'hui, mais nous faisons référence à cette technologie en général. Nous travaillons en fait avec les API derrière, pas avec ChatGPT, qui n'est disponible que via l'interface utilisateur pour le moment.
"Avant, c'était juste une sorte de" Hé, fais-moi ce poème sur n'importe quoi ". Maintenant, vous pouvez avoir une conversation dans les deux sens. C'est ainsi que les humains interagissent les uns avec les autres »
Emmet : Ouais. Et je pense que l'une des choses intéressantes à propos de ChatGPT est que, à certains égards, ce n'est pas si nouveau d'un point de vue technique. ChatGPT est une application créée à l'aide de GPT-3.5 créée par une société appelée OpenAI. Mais GPT-3.5 existe depuis un certain temps - plusieurs mois, n'est-ce pas, Molly ? Donc, je suis curieux. Gustavs, quelle a été votre réaction ? Pourquoi pensez-vous qu'il y a une réaction différente à ce que nous voyons avec ChatGPT par rapport à la technologie sous-jacente, qui était disponible depuis un certain temps ?
Gustavs : Je pense que la grande différence est que la présentation est comme une conversation où vous pouvez poser des questions de suivi et approfondir. Avant, c'était juste une sorte de "Hé, fais-moi ce poème sur n'importe quoi." Maintenant, vous pouvez avoir une conversation dans les deux sens. C'est ainsi que les humains interagissent les uns avec les autres. Donc, c'est beaucoup plus familier que de lui donner une invite unique. Quand je jouais avec ChatGPT quand il venait juste de sortir, c'était comme de la magie. C'était vraiment difficile de croire que cela existe. Et j'ai continué à jouer avec, à parler de différents sujets, et j'avais l'impression d'avoir un tuteur personnel à la demande qui sait tout sur tout. Il parlait de toutes sortes de choses sur la technologie, l'histoire, la psychologie et même la comédie. Il s'avère que c'est vraiment bon pour proposer une comédie stand-up si vous lui donnez une bonne invite. C'était vraiment amusant de faire ça aussi.
Un cas d'hallucinations
Emmet : Vous avez tous les deux passé plusieurs semaines à travailler dessus maintenant. Nous avons tous eu cette réaction initiale très impressionnante, mais après avoir passé quelques semaines à essayer de l'appliquer à de vrais problèmes de clients, peut-être à lutter pour l'appliquer directement d'une manière ou d'une autre, cela résiste-t-il au battage médiatique, Gustavs ?
Gustavs : Ouais. Dès que ChatGPT est sorti, nous avons été vraiment impressionnés et avons réalisé que nous devions mieux comprendre ce que cela signifie pour notre entreprise. Il semblait que cela pourrait avoir un impact vraiment significatif sur l'ensemble du secteur du service client. Nous avons donc formé un petit groupe de travail et exploré ce en quoi ChatGPT est bon, ce en quoi il est mauvais et ce que cela pourrait signifier pour notre entreprise. Après avoir fait cet exercice, mes propres peurs et inquiétudes et le battage médiatique ont un peu diminué. Il semble que la technologie ne soit pas encore là pour prendre nos tâches et tout automatiser.
"Le modèle veut vous plaire, donc il veut vous donner une réponse qu'il pense que vous voulez"
Il s'avère que c'est vraiment bon pour certaines choses, mais pas pour tout. C'est bon, par exemple, pour résumer le contenu ou comprendre le langage et l'édition et l'écriture créative. Mais il a un défaut majeur d'hallucinations, où il invente simplement des choses qui semblent très réelles mais qui sont factuellement incorrectes, ce qui est évidemment un gros problème pour une solution de service client. Vous ne voulez pas donner des réponses plausibles, mais factuellement incorrectes. Mais il y a beaucoup de choses intéressantes auxquelles vous pouvez l'appliquer. Et je pense que le gros point à retenir est que cette technologie évolue très rapidement. Et ce n'est vraiment qu'une question de temps avant qu'il puisse donner des réponses factuellement correctes. Et une fois que cela arrive, ça va être vraiment perturbateur.
Emmet : Donc, ce que vous dites, c'est qu'il donnera une réponse quoi qu'il arrive. Et dans certains cas, cela se traduit par ce que vous appelez des hallucinations. Molly, cela semble être une grande limitation pour quiconque essaie de l'utiliser pour de vrai. Que sont les hallucinations et pourquoi se produisent-elles en premier lieu ?
Molly : Ouais, c'est un énorme problème, comme l'a dit Gustavs. Le modèle veut vous plaire, donc il veut vous donner une réponse qu'il pense que vous voulez. Parfois, il dispose d'une source fiable pour ces informations, et parfois, il s'agit simplement d'inventer des choses. C'est comme un enfant. "Pourquoi fais-tu ça?" "Eh bien, je pensais que c'était ce que tu voulais." L'hallucination peut provenir de nombreuses sources différentes. Si vous lui posez une question sur Intercom, il ne sait pas forcément quelque chose de nouveau. Et donc, il pourrait prendre des éléments de ce qu'il sait qui sont exacts, des connaissances générales d'ailleurs, interpoler cela et, d'une certaine manière, essayer d'utiliser le bon sens, ce qu'il n'a bien sûr pas. Il n'a pas vraiment de capacité de raisonnement. Il utilise des probabilités comme "Eh bien, cela pourrait probablement fonctionner de cette façon, donc je peux inventer une réponse à propos de quelque chose à propos de l'API d'Intercom", ou quelque chose comme ça. Et comme l'a dit Gustavs, c'est super plausible. Cela semble très confiant.
Et comme vous l'avez mentionné, différentes entreprises se concentrent sur différentes choses. Certaines entreprises se concentrent un peu plus sur la façon de minimiser les hallucinations. Alors que ChatGPT, je pense, se concentre souvent beaucoup sur les garde-fous et l'éthique et sur la clarté de ce à quoi il refuse de répondre.
Emmet : Pensez-vous que nous verrons une prolifération de nombreux modèles différents et que vous pourrez choisir celui qui convient le mieux au type de compromis entre être absolument correct et hallucinations que vous voulez, ou est-ce un problème qui peut disparaître à mesure que les modèles deviennent plus matures ?
"ChatGPT a illustré quelque chose d'intéressant, à savoir que l'interface utilisateur et l'UX de tout cela sont très importants"
Molly : Je ne suis pas sûre qu'il va disparaître. Mais oui, il existe déjà pas mal de modèles. Il existe des modèles open source et il est possible de faire ce que nous appelons des ajustements au-dessus d'un modèle. GPT signifie transformateur pré-formé génératif, donc il génère des choses. Il est pré-entraîné sur un grand corpus et des transformateurs. Différentes entreprises vont se concentrer sur différentes choses. Il existe des modèles open source, et Intercom, en tant qu'utilisateur potentiel de ces modèles, pourrait être en mesure d'affiner pour obtenir une connaissance plus spécialisée de notre industrie ou de notre entreprise. La technologie s'améliorera également dans l'utilisation et le besoin de moins de données pour avoir un excellent modèle. Et ainsi, les modèles deviendront de plus en plus petits et de plus en plus petits. Et potentiellement, à ce stade, il pourrait être beaucoup plus raisonnable pour une petite entreprise de créer un modèle sur ses données et de le faire être assez spécialisé, assez bien informé et très fiable.
Emmet : Passons à la vitesse supérieure et parlons plus spécifiquement du design. De toute évidence, GPT et l'IA, en général, ont été avant tout une histoire de technologie, mais je pense que ChatGPT a illustré quelque chose d'intéressant, à savoir que l'interface utilisateur et l'UX de tout cela sont très importants. Il semble y avoir une évolution vers les interfaces utilisateur conversationnelles, potentiellement, par exemple. Pensez-vous que c'est vrai? Quel est le rôle du design dans l'élaboration de ce que nous faisons avec cette technologie d'ici, Molly ?
Molly : Je veux dire, Intercom est très bien positionné. Notre entreprise est axée sur la conversation et le service client, et les gens sont vraiment enthousiastes à l'idée d'avoir des conversations avec cette technologie. Mais ce que nous avons découvert récemment, c'est que, du moins pour le moment, il y a tellement de puissance disponible dans la technologie qui n'est en fait pas directement conversationnelle, mais qui concerne la conversation et le langage.
Comme nous l'avons mentionné, il est excellent pour la synthèse, et il existe une tonne de flux de travail où la synthèse peut vraiment aider les agents du service client. Nous avons récemment lancé une version bêta pour certains clients, et le résumé est l'une des choses que les gens trouvent vraiment, vraiment, vraiment précieuses. Nous avons également ajouté des outils de texte génératif pour permettre aux commerciaux d'apporter des modifications à leurs messages s'ils souhaitent reformuler des choses, les rendre plus conviviaux, les rendre un peu plus formels ou obtenir de l'aide pour clarifier des choses. Cela fait partie de la conversation, mais il ne s'agit pas directement d'avoir une conversation avec ChatGPT. Nous le trouvons également utile pour aider à générer des éléments tels que les articles du centre d'aide, qui faisaient également partie de cette version bêta. Une grande partie de la puissance de cela réside dans certaines des applications les plus cachées qui ne sont pas si évidentes pour les profanes, mais qui prennent beaucoup de temps pour les représentants. Et nous pouvons fournir beaucoup de valeur avec cela.
«Vous recherchez cette intersection entre les choses pour lesquelles la technologie est bonne et les choses où le risque est relativement faible. Et nous en verrons beaucoup dans les mois à venir »
Gustavs : Ouais. Il existe de nombreuses façons d'utiliser cette technologie et, grâce à cela, d'éviter certains des problèmes que nous avons vus, en particulier avec les hallucinations, où il s'agit d'inventer des choses qui ne sont pas correctes. Mais c'est vraiment bon pour d'autres choses. C'est bon pour reformuler le contenu existant, et il est logique de commencer avec cela car cela peut offrir une valeur claire. L'objectif final serait d'être complètement automatisé et de donner des réponses. C'est juste que la technologie n'est pas encore assez bonne pour cela. Mais je pense qu'on y arrivera.
Emmet : Et je soupçonne que c'est ainsi que nous verrons les choses tout au long de 2023, car j'imagine que nous commencerons à voir cela se glisser dans de nombreux produits différents, probablement de manière relativement simple et infaillible pour commencer, puis en poussant de plus en plus le bateau vers l'extérieur. en termes de complexité de ce qu'il peut faire. Nous avons tous, je pense, abordé cette opportunité avec une combinaison d'excitation et peut-être aussi un peu d'appréhension saine. Molly, vous avez mentionné que nous avons ces fonctionnalités soutenues par ChatGPT en version bêta pour le moment. Et les retours ont été extrêmement encourageants et positifs. Les premiers signes que nous voyons sont de vrais clients qui tirent une réelle utilité de fonctionnalités telles que le résumé d'une conversation avant de la transmettre à quelqu'un d'autre. Vous recherchez cette intersection entre les choses pour lesquelles la technologie est bonne et les choses où le risque est relativement faible. Et nous en verrons beaucoup dans les mois à venir. Donc, ça va être excitant.
IA conversationnelle
Emmet : Gustavs, vous avez pensé à cela plus à long terme. Pourriez-vous en parler un peu? Vous avez mentionné Intercom - l'une des raisons pour lesquelles nous en parlons ici est que nous sommes probablement assez bien placés, compte tenu de la nature de nos produits, qui est un service client conversationnel, pour en tirer le meilleur parti. Que pensez-vous lorsque vous pensez aux opportunités de produit et de conception à long terme ?
Gustavs : Au tout début du lancement de ChatGPT, nous avons organisé cet atelier pour essayer de réfléchir à l'avenir, en particulier à quoi ressemblerait le monde si nous avions un modèle qui n'avait pas ce problème d'hallucination et était capable de donner bonnes réponses ou dire « je ne sais pas ». Cela a été très prometteur et cela a vraiment accru notre confiance dans beaucoup de choses auxquelles nous croyions déjà mais qui s'accélèrent. Nous pensons que la majorité des requêtes d'assistance seront résolues de manière entièrement automatique sans parler aux humains. Il augmente déjà aujourd'hui avec davantage de constructeurs de type "si ceci, alors cela", avec des bots et notre propre bot de résolution, qui a des capacités d'apprentissage automatique mais pas dans la même mesure que ChatGPT.
"La majorité du soutien se fera de la manière la plus naturelle pour les humains, c'est-à-dire par la conversation"
Nous sommes déjà sur cette voie, mais cela va s'accélérer. Et à la suite de cela, les organisations de support commenceront à passer d'une attitude réactive et principalement dans la boîte de réception à une attitude proactive - mise en place et formation de l'IA ; écrire du contenu que l'IA peut utiliser pour résoudre les conversations.
Je pense que la majorité du soutien se fera de la manière la plus naturelle pour les humains, c'est-à-dire par la conversation. Imaginez si vous aviez quelqu'un à qui vous pouvez toujours parler et qui a une réponse personnalisée rien que pour vous. C'est la façon la plus naturelle pour les humains d'interagir. Cette expérience de recherche et de navigation que nous avons aujourd'hui, où vous recherchez quelque chose sur Google et le scannez pour essayer de trouver rapidement des réponses quelque part dans le contenu, n'est pas si naturelle pour les humains. Il y aura toujours des versions de cela avec des suggestions de contenu qui pourraient être pertinentes pour vous avant de commencer une conversation. Mais lorsque vous interagissez avec, cela peut toujours être conversationnel.
Nous pensons que nous devrons également construire un pont pour y arriver pour plusieurs raisons. Je pense que nous allons commencer par voir l'augmentation des représentants du support avec des choses comme le résumé ou la reformulation. Plus tard, nous aborderons les suggestions de réponses que les représentants de l'assistance peuvent modifier et améliorer, et plus tard, nous passerons à l'automatisation complète. Il va falloir un certain temps, tant pour l'aspect technique qu'humain, pour s'habituer à utiliser de plus en plus d'automatisation.
Emmet : Vous décrivez quelque chose où, sur une très large surface du produit, il y a beaucoup d'endroits différents où cela peut changer notre façon de travailler, à la fois ce que nous appelons l'expérience des coéquipiers et l'expérience de l'utilisateur final, dans les deux côtés de la conversation. Mais vous décrivez également cette notion floue de la façon dont nous allons arriver à ce futur vague de "nous pensons que la technologie y arrivera". Cela me semble être une façon très différente d'aborder le design aujourd'hui et presque une différence profonde dans la façon dont nous pensons interagir avec les ordinateurs, passant de quelque chose de très déterministe, de très dur - du vrai et du faux et des uns et des zéros - à quelque chose façon plus floue.
Nouveaux modèles de conception
Emmet : Les concepteurs envisagent maintenant de travailler avec ce matériau qui semble beaucoup plus inconnaissable et plastique et moins rigide que les applications CRUD, "créer, écrire, mettre à jour, supprimer", auquel nous sommes habitués. Qu'as-tu trouvé ? Y a-t-il une différence substantielle dans la façon dont les designers doivent aborder leur travail ? Avez-vous trouvé certaines choses difficiles ou exigeantes ? Les designers devront-ils acquérir de nouvelles compétences ? Quelle est l'ampleur du changement pour l'acte de concevoir, le fait que le matériau avec lequel nous concevons a presque cet élément d'inconnaissabilité intégré ?
"Au fil du temps, nous verrons de plus en plus de nouveaux modèles de conception émerger pour savoir comment gérer cette incertitude et les attentes de tous les côtés"
Molly : Je pense qu'il y a encore beaucoup de choses dans notre travail qui vont rester les mêmes. Nous trouvons des problèmes, explorons les flux de travail des gens, trouvons des modèles. Une chose importante est de devoir concevoir pour beaucoup plus de cas de défaillance car il n'y a pas nécessairement de garde-corps. Lorsque vous avez une conversation, elle peut dérailler de tant de manières différentes. Et c'est la même chose avec un système comme celui-ci. Les humains, en tant qu'espèce, ne sont pas doués pour les probabilités. Lorsque nous regardons le bulletin météo et qu'il y a 40 % de chances qu'il pleuve, nous n'avons pas une idée précise de ce que cela signifie.
Emmet : Ouais, tu es déçu s'il ne pleut pas parce qu'on t'a dit qu'il pleuvrait.
Molly : Ouais. Je suis aux Pays-Bas – quand je vois un risque de pluie, je me dis : « Il va pleuvoir. C'est juste une question de combien de temps. C'est ce que les pourcentages signifient pour moi. Mais nous ne sommes pas doués pour les interpréter. Je pense que ce sera certainement quelque chose alors que nous examinons à quel point ces prédictions sont fiables, car ce sont des prédictions sur les mots qui devraient venir ensuite. Et nous chercherons à nous améliorer. Il y a beaucoup à faire avec la vitesse à laquelle cette technologie évolue et change, et je ne pense pas que cela va changer. Il y a beaucoup de prototypage, de réaction et de réflexion sur la latence. La latence en ce moment peut être assez longue - concevoir pour cela. Et il y a beaucoup de résultats inattendus. Ce sont certaines des choses que j'ai remarquées.
Gustavs : Je pense qu'avec le temps, nous verrons de plus en plus de nouveaux modèles de conception émerger pour gérer cette incertitude et les attentes de tous les côtés. En ce moment, tout le monde expérimente et voit ce qui fonctionne. Nous voyons déjà des modèles émerger avec de petites invites prédéfinies sur la façon de modifier le texte comme "développer ceci", "résumer ceci", "rendre cela plus convivial". C'est un modèle relativement nouveau qui commence à émerger, et je pense que nous verrons de plus en plus de ces types de modèles. Même cette interaction où, si vous demandez à ChatGPT de générer du contenu, il a ce curseur qui se déplace lentement. C'est aussi un modèle de conception intéressant. C'est techniquement nécessaire, mais cela pourrait très bien fonctionner pour définir des attentes telles que "hé, c'est l'IA qui génère du contenu à la volée".

"Dans ces nouveaux systèmes qui pourraient être très automatisés, envisageons-nous d'ajouter des frictions afin de conserver les compétences qui nous semblent précieuses et que nous voulons avoir ?"
Emmet : Donc, vous dites que cet effet de frappe mot à mot, qui est, pour être clair, une fonction de la façon dont la technologie le compose mot à mot, pourrait devenir synonyme et une carte de visite visuelle. . Peut-être que cela arrivera, peut-être pas, mais le type de chose qui a tendance à émerger lorsque nous voyons ces changements et l'émergence de nouvelles technologies pourrait être intéressant pour approfondir l'idée de l'émergence de nouveaux modèles de conception, car nous le voyons lorsque de nouvelles technologies arrivent le long de. Molly, y en a-t-il d'autres que vous avez rencontrées, soit à un niveau de conception d'interaction très faible, soit à un niveau élevé d'intégration dans les produits ?
Molly : Il y a quelques autres choses qui, je pense, commenceront à apparaître davantage. Par exemple, lorsque nous essayons de développer une fonctionnalité, les ingénieurs font des backtests. Ils utilisent des données passées et font des prédictions à ce sujet, puis les comparent à ce qu'un coéquipier a réellement dit, par exemple. Pour des choses comme ça, nous devrons peut-être commencer à lancer non pas l'utilisateur final, mais le côté coéquipier ou administrateur, où les personnes gérant une organisation CS pourraient vouloir avoir ce que j'appelle un lancement sombre - ils n'ont pas de choses en direct mais sont capable de les regarder et d'avoir une idée de "D'accord, je fais maintenant confiance à ça." Différentes étapes de lancements sombres, ébauches de suggestions et différentes étapes de lancement de certains de ces outils. Je pense que ce sera plus important.
Je ne sais pas dans quelle direction cela ira, mais je pense aux points où nous devrons peut-être ajouter de la friction dans le système afin de ne pas nous laisser aller à la complaisance. Les pilotes effectuent toujours certaines parties d'un vol, même si le système de pilote automatique en fait la majeure partie, car ils ne doivent pas oublier comment voler. Donc, ils font les atterrissages ou d'autres choses. Dans ces nouveaux systèmes qui pourraient être très automatisés, envisageons-nous d'ajouter une certaine friction afin de conserver les compétences qui nous semblent précieuses et que nous voulons avoir ?
Emmet : Et clairement, presque tout a un score de confiance implicite pour la fonctionnalité intégrée que vous devez concevoir. Est-ce quelque chose que nous exposerions aux représentants et aux administrateurs ou à leurs clients ? Il y a un seuil plus élevé pour nous pour exposer des choses à leurs clients ou même à un niveau de détail inférieur. Prenez la capacité de résumer une longue conversation. Publiez-vous ce résumé directement dans le fil de conversation en cliquant sur un bouton, ou donnez-vous à quelqu'un la possibilité de l'examiner et de l'approuver ? Laissez-le passer directement plutôt que d'ajouter une porte d'approbation ? Je pense que nous verrons probablement de nombreux flux de travail émerger, du moins au début, puis commenceront-ils simplement à s'effondrer à mesure que la technologie renforcera la confiance ?
Molly : Ouais, exactement.
Gustavs : Même juste la capacité de vous dire à quel point il est confiant. Si l'IA pouvait vous dire : "Hé, c'est ma réponse, et elle est correcte à 40 %", vous pourriez la présenter à un humain pour qu'elle l'approuve avant qu'elle ne soit envoyée. S'il est sûr à 90%, vous pouvez simplement l'envoyer immédiatement et avoir un bouton "Hé, c'est incorrect" du côté de l'utilisateur final. Cela dépend vraiment de l'évolution de la technologie. Le design devra évoluer en parallèle.
Emmet : Ouais. Dieu, accorde-moi la confiance d'un grand modèle de langage car il dira en toute confiance un mensonge total et la vérité totale sans les distinguer. Et c'est la question de la confiance. Pour le moment, rien ne dit : "Je suis 100% confiant dans cette déclaration." Dans ChatGPT, au moins. Dans certains des autres modèles de langage, je pense que nous commençons à voir des sources référencées, ce qui semble être une étape positive.
Ajout de calques au-dessus
Emmet : Il semble qu'il y ait beaucoup de choses inconnues, beaucoup de décisions de conception profondes comme celle-ci dans lesquelles s'impliquer. Faisons un zoom arrière sur ce que ces mégatendances signifient pour la conception et le produit. Les gens ont été témoins ou ont participé à l'arrivée de grandes technologies nouvelles. Je pense à des choses comme le cloud ou le passage massif au Web et au mobile en tant que grandes technologies habilitantes qui ont conduit à ce tout nouveau monde de modèles de conception et de produits qui n'étaient pas disponibles auparavant. Avec le cloud, nous avons vu des formulaires, des flux, des likes et toute la transformation visuelle que le Web a subie.
Vous pourriez dire la même chose pour le mobile - tout, des flux et des menus hamburger à tirer pour actualiser et glisser pour supprimer que nous considérons maintenant comme faisant partie de la boîte à outils d'un concepteur. Peut-être que nous nous rapprochons dangereusement du temps de prédiction, mais quelle est votre première expérience de travail avec cela ? Cela vous dit-il quelque chose sur les types de produits qui vont gagner ou perdre et quelles nouvelles choses nous pourrions voir émerger qui n'étaient même pas possibles auparavant ?
"Les entreprises qui vont gagner, je pense, sont celles qui auront une sorte de données propriétaires et un effet de volant d'inertie qui collecte et améliore continuellement ces données"
Gustavs : Je pense qu'avec le temps, la plupart des entreprises utiliseront ces grands modèles de langage accessibles au public au lieu de créer les leurs. Mais pour se différencier les uns des autres, ils peuvent créer des couches au-dessus d'eux avec des connaissances spécialisées. Par exemple, vous pouvez disposer de données spécifiques à votre entreprise. Pour un outil d'assistance, il peut s'agir de réponses à des questions spécifiques sur votre produit et vos représentants de l'assistance donnent des réponses spécifiques par opposition à des connaissances générales. Il peut s'agir d'une connaissance très approfondie d'un domaine particulier, comme le droit.
Les entreprises qui vont gagner, je pense, sont celles qui auront une sorte de données exclusives et un effet de volant qui recueillera et améliorera continuellement ces données. L'autre chose qui, à mon avis, va être intéressante, c'est de voir ce que les grands acteurs comme Google, Apple et Microsoft font avec cette technologie et comment ils l'intègrent au niveau du système d'exploitation. Cela pourrait avoir un impact énorme sur le type de créneaux disponibles pour d'autres entreprises.
"OpenAI perd des millions par jour pour exécuter ChatGPT, et cela en vaut probablement la peine du point de vue des relations publiques ou des données de recherche qu'ils recueillent, mais cela signifie également que ce ne sera pas gratuit et oisif"
Emmet : Vous avez commencé par dire que la plupart des gens vont intégrer ces grands modèles linguistiques d'une certaine manière. Je pense que les entreprises qui n'arrivent pas à faire ce que vous disiez, et qui trouvent en fait une sorte de douve défensive, se retrouveront essentiellement un mince emballage sur GPT qui ne fait pas grand-chose d'autre. Donc là je suis entièrement d'accord avec toi. Si vous pensez à quelque chose comme l'App Store ou les magasins d'applications mobiles, il y avait beaucoup de jouets et de lampes de poche et des choses comme ça au début. Et puis, petit à petit, cela se transforme en grandes choses habilitantes comme Uber, qui ne pourrait pas exister si nous n'avions pas ce modèle, et Instagram et la cartographie, etc. Molly, avez-vous quelque chose à ajouter en fonction de votre expérience ?
Molly : Je ne suis pas totalement sûre que tout le monde utilisera des LLM publics. J'ai un peu peur qu'ils soient trop chers pour que beaucoup d'entreprises puissent faire fonctionner leur modèle d'affaires ou que certaines grandes entreprises les gardent privés. Donc, je ne sais pas si tout le monde en utilisera des publics ou si les gens se tourneront davantage vers l'open source et mettront leur couche affinée au-dessus. Je suis d'accord sur les modes de données. Par exemple, chez Intercom, nous avons beaucoup de données conversationnelles et nous sommes capables de faire des choses qu'Apple ne peut pas nécessairement faire au niveau du système d'exploitation. Et cela nous donne une certaine valeur. Je pense que les produits qui réussiront seront ceux qui, comme vous l'avez dit, ne sont pas seulement une couche de produits de base, mais comprennent profondément un problème ou un flux de travail et peuvent l'intégrer à leur mode de données.
Emmet : Vous avez également abordé quelques éléments qui, pour le moment, seront importants en ce qui concerne les limitations. C'est lent. Il faut quelques secondes pour renvoyer une réponse. Il va y avoir des produits ou des espaces où cela ne convient tout simplement pas. C'est aussi cher en termes de puissance de calcul et donc cher en termes d'argent. Vous en savez probablement plus que moi à ce sujet, mais chaque demande coûte quelques centimes. OpenAI perd des millions par jour pour exécuter ChatGPT, et cela en vaut probablement la peine du point de vue des relations publiques ou des données de recherche qu'ils recueillent, mais cela signifie également que ce ne sera pas gratuit et oisif. Et bien que la technologie ait la très bonne habitude de devenir plus rapide et moins chère au fil du temps, et cela pourrait potentiellement se produire ici, pour le moment, il existe certaines limitations qui restreignent l'application. Peut-être que nous le verrons moins dans les applications en temps réel. Peut-être que nous le verrons moins dans les applications B2C, où l'échelle et le coût d'exécution de ce type de requêtes pourraient être énormes. Il va être intéressant de voir comment les choses émergent là-bas aussi.
L'avenir de l'interfaçage
Emmet : Je suis curieux d'approfondir la conversation sur le design et de réfléchir réellement à ces systèmes génératifs et à la manière dont nous allons interagir avec eux. Nous faisons allusion à tous les nouveaux robinets et balayages et aux choses que vous pouvez faire lorsqu'une nouvelle plate-forme arrive. C'est là que nous devrons inévitablement entrer sur la pointe des pieds dans le monde de la prédiction. Nous pouvons tous regarder cela dans un an ou deux et rire de notre erreur, mais il y a un sentiment intéressant que cela évolue peut-être vers une manière d'interagir davantage basée sur le texte, presque sur la ligne de commande. Un autre type de micro tendance dans le produit a été cette palette de commandes + K que vous pouvez faire apparaître en appuyant sur un raccourci et en tapant l'action que vous souhaitez entreprendre. Nous voyons cela dans de nombreux produits, ce qui contribue à ce sentiment général d'évolution vers le texte et le langage naturel comme moyen direct d'interface.
« Je ne pense pas que nous ayons à choisir une seule façon d'interagir avec l'IA. C'est une capacité très large qui peut être appliquée de différentes manières pour différents cas d'utilisation »
D'un autre côté, si vous regardez les tendances précédentes, en particulier le parcours que nous avons parcouru depuis l'interface de ligne de commande, nous avons fini par créer des interfaces utilisateur graphiques très détaillées. Et donc, je me demande si vous voudriez spéculer sur la direction que vous envisagez. Cela augure-t-il d'une évolution vers davantage d'interfaces de ligne de commande pour le 21e siècle ? S'agit-il d'un élément de ligne de commande temporaire avant de déterminer à quoi ressemble une couche d'interface utilisateur graphique sur ces éléments ? Est-ce vraiment trop tôt pour le dire ?
Gustavs : Eh bien, je pense que nous aurons tout cela. Je ne pense pas que nous devions choisir une façon d'interagir avec l'IA. Il s'agit d'une capacité très large qui peut être appliquée de différentes manières pour différents cas d'utilisation. Ainsi, par exemple, si vous cherchez une réponse, la conversation sera le principal moyen d'obtenir une réponse. Mais si nous parlons d'augmentation du flux de travail avec l'IA, je pense que nous verrons des interfaces graphiques avec des actions prédéfinies pour l'IA. C'est la même chose que nous voyons aujourd'hui avec résumer, reformuler et toute la vague de copilote pour X.
Avec l'automatisation du flux de travail, je veux dire utiliser l'IA pour améliorer la façon dont vous faites votre travail. Ainsi, par exemple, dans le support client, c'est lorsque vous écrivez des réponses aux clients en utilisant l'IA pour améliorer ces réponses. Encore une fois, développer un point ou résumer la conversation jusqu'à ce point. Je pense qu'il pourrait y avoir des interfaces graphiques pour ces types d'augmentation de flux de travail.
Molly : Je suis nul en prédictions, mais nous pourrions avoir une sorte de prolifération, comme vous l'avez dit, d'interfaces de commande + K ou différentes options de ce que vous pouvez faire. L'un des défis de cette technologie est la découvrabilité de ce qu'elle peut faire. Vous pouvez taper n'importe quoi dans cette invite. "Écrivez-moi un poème shakespearien comme un pirate", ou quelque chose comme ça. Nous mettrons en place des garde-fous, mais je pense que nous allons probablement aller plus loin et ensuite voir les choses se rétrécir un peu à mesure que les choses deviennent plus courantes et utiles. Et puis, éventuellement, nous pourrons peut-être passer à une interface plus textuelle, conversationnelle ou largement ouverte une fois que nous aurons une idée de ce que cette technologie peut faire.
Alors que nous nous habituons à parler à nos systèmes, je suis également enthousiasmé par le potentiel des interfaces neuronales. Pourquoi en parler si je peux juste y penser ? Je sais que c'est loin, mais quand j'étais à Berkeley, certains de mes collègues y travaillaient. Ce serait vraiment cool. Il y a beaucoup de situations où vous ne voulez pas parler et taper, et cela ouvre les choses. Peut-être que plus loin dans le futur, nous aurons des systèmes intégrés capables de prendre des instructions non graphiques et de les traduire en actions. Nous le constatons déjà avec certains de ces systèmes qui peuvent prendre des requêtes et des instructions en langage naturel et les transformer en actions sur votre ordinateur. Et le fait est que certains de ces LLM sont également très bons pour générer du code, comme le copilote GitHub. Et donc, il y a juste beaucoup de potentiel là-bas.
Emmet : Je soupçonne que la manipulation de texte va connaître une excellente année dans les logiciels, car il y a tellement de possibilités immédiates ici. Il est très naturel de pouvoir mettre en évidence un morceau de texte et de dire "rendez-le plus convivial". On a presque l'impression que cela appartient à la palette d'outils aux côtés du gras et de l'italique. C'est juste une façon de manipuler le texte existant. Ensuite, il existe de nombreuses façons d'aller plus loin, comme la génération ou la génération de code.
Personnellement, j'ai trouvé l'expérience de travail avec des générateurs d'images assez différente. Encore une fois, une grande partie de notre expérience de ces systèmes consiste à voir les résultats défiler, comme des captures d'écran de ChatGPT ou quelque chose que DALL-E, Midjourney ou Stable Diffusion a créé. Le processus de création des générateurs d'images me semble maladroit, et quelque chose qui sera probablement GUI et aura une interface à l'écran beaucoup plus tactile. Devoir simplement bourrer l'invite avec une courte tendance F-stop sur l'art déviant pour essayer de l'amener à créer les sorties que vous voulez est si clairement un hack. Et il y a beaucoup de dimensions de styles différents que vous voulez parcourir qui seraient bien mieux servies par des boutons, des cadrans et des curseurs de quelque sorte. Je suppose que ma prédiction est que nous verrons l'ingénierie rapide telle qu'elle existe aujourd'hui être remplacée par quelque chose, espérons-le, bien meilleur.
"Il y a quelque chose d'intéressant dans le fait que l'IA est comme un collègue super puissant qui peut utiliser les outils dont vous disposez et vous pouvez leur donner des commentaires en texte brut pour les aider à les améliorer"
Et juste pour finir la réflexion, la vidéo et l'audio sont très différents car il faut s'asseoir longtemps et revoir les résultats. Vous pouvez regarder une centaine d'images ou lire un texte, mais honnêtement, j'ai moins d'opinions à ce sujet parce que j'ai pu y consacrer moins de temps. Mais je suppose que cela revient à ce que vous disiez finalement, Gustavs. Ce n'est pas une réponse satisfaisante, mais cela va dépendre massivement. Et je pense que cela dépendra beaucoup de ce que je manipule. Et nous pourrions avoir des interfaces utilisateur très différentes pour cela en fonction.
Gustavs : En même temps, je pense qu'il va y avoir de nouvelles applications intéressantes pour donner des instructions en langage naturel. Par exemple, une chose que nous avons trouvée intéressante lors de notre exploration initiale était que la façon dont vous pouviez former l'IA pourrait être très, très similaire ou pratiquement la même que si l'IA était un agent de support et que vous leur donneriez des commentaires sur votre politique sur comment interagir avec les clients ou quel ton de voix utiliser. Même lorsque vous donnez des commentaires sur des conversations individuelles, vous pouvez simplement les donner en texte brut, car il comprend le langage naturel et le contexte. Je pense que nous verrons cela aussi. Et il y a quelque chose d'intéressant dans le fait que l'IA est comme un collègue super puissant qui peut utiliser les outils dont vous disposez et vous pouvez leur donner des commentaires en texte brut pour les aider à les améliorer.
Emmet : Molly a évoqué ce qui se passe lorsque ces choses ne se contentent pas de cracher du texte, mais peuvent également prendre des mesures, par exemple. Et c'est probablement un niveau supplémentaire de ce dont ils sont capables.
Où allons-nous à partir d'ici?
Molly : Fergal, pour ceux d'entre vous qui écoutent certains podcasts précédents, est le directeur de l'apprentissage automatique. Il dit que son idéal pour un système ML devrait être comme un collègue intelligent assis à côté de vous à qui vous pouvez donner des instructions et qui va bien l'exécuter. C'est un peu le rêve. Et donc, comme l'a dit Gustavs, être capable de donner une rétroaction en langage naturel n'est qu'un changement radical dans la façon dont nous pouvons le gérer.
"Comment pouvons-nous faire de ce collègue intelligent, potentiellement menaçant, un coéquipier qui vous rend meilleur?"
Emmet : Je me demande même quelle sera la portée. Il y a quelques années, il y avait une agence appelée Berg à Londres, et ils ont fait beaucoup d'expériences avec des versions antérieures de l'IA. Mais l'un de leurs principes était "être aussi intelligent qu'un chiot" parce qu'ils ne voulaient pas que l'IA se sente menaçante ou écrasante. Et c'était leur principe de tracer des frontières autour de nous. Je n'aime pas tailler les designers comme le genre de « tu ne peux pas faire ça », mais peut-être que fixer ces limites de sécurité est un rôle important que les designers doivent également jouer.
Molly : Je pense que ces limites ont un rôle à jouer. Je veux travailler à côté d'un chiot, mais voulez-vous travailler à côté de quelqu'un avec l'intelligence d'un chiot ? Je pense que le rôle des concepteurs est : comment pouvons-nous faire de ce collègue intelligent, potentiellement menaçant, un coéquipier qui vous rend meilleur, qui peut avoir ce tableau blanc vraiment génial, une séance de remue-méninges où vous ne faites que riffer chacun autre? Comment en arriver là ? C'est là que nous pouvons vraiment ajouter cette magie - améliorer la journée de travail, augmenter les flux de travail et faire de l'IA un véritable coéquipier pour les gens.
Emmet : Les voitures autonomes sont probablement l'application la plus avancée de l'IA actuellement, même si elle n'est pas encore largement adoptée. La tension de ces niveaux d'auto-conduite et le risque croissant à mesure que vous traversez ces niveaux - une version de cela s'applique probablement à beaucoup de ces choses, si vous y réfléchissez.
Molly : Oui, je veux dire, c'est exactement ce que nous avons déjà mentionné. Est-ce une suggestion ? Y a-t-il un avis ? Y a-t-il une approbation? Ce n'est que notre version des cinq niveaux de véhicules autonomes.
Gustavs : Une autre chose intéressante est qu'au fil du temps, à mesure que l'IA s'améliore et est capable non seulement de donner des réponses, mais également d'effectuer des actions en votre nom, comme le ferait un collègue, ce sera un défi de conception intéressant à comprendre. trouver un moyen de donner l'impression que quelqu'un est assis à côté de vous et vous aide, par opposition à un pirate informatique détournant votre ordinateur et cliquant autour des choses. Si vous pouvez le faire fonctionner avec le design, cela va sembler magique. Ou ça pourrait être fou effrayant. Ce sera un défi de conception intéressant.
Emmet : Et il est possible que la voie conversationnelle soit la meilleure façon de le faire. Il sera également intéressant de voir dans quelle mesure il est présenté comme une personne amicale et conversationnelle par rapport au système avec lequel vous interagissez à distance.
« La nature de la production et du travail d'idéation va-t-elle beaucoup changer ? Devrons-nous acquérir de nouvelles compétences comme l'ingénierie rapide ? »
Il y a quelques années, nous avons eu ce que, rétrospectivement, vous pourriez considérer comme un cycle de battage médiatique des bots. Et en fait, Intercom a participé assez activement à l'expérimentation et à la découverte de ce que nous pouvions faire. Bien sûr, nous avons des produits qui en ont profité, comme nous l'avons déjà mentionné. Des choses comme le bot de résolution et les bots personnalisés. Mais nous avons également constaté au cours de ce cycle de battage médiatique qu'il existe tout un tas d'applications qui ne sont pas du tout bonnes pour l'interface utilisateur conversationnelle. Il y avait un bot météo, et vous vous dites : "En fait, je n'ai pas besoin d'un bot pour demander quel temps il fait - j'ai une application ou une page Web qui me convient." Nous verrons inévitablement beaucoup de cela se produire ici aussi. Probablement une sur-application de l'interface utilisateur conversationnelle, mais ensuite les cas d'utilisation vraiment utiles viennent au premier plan.
Une chose supplémentaire que j'ajouterai qui me rend assez optimiste sur la conversation est un problème sur lequel nous travaillons depuis longtemps. Le test de Turing n'est pas nouveau. Mais à part ça, j'ai travaillé chez Google il y a plusieurs années. Il y a eu énormément de travail de recherche et de fierté à l'amener à répondre à une question comme : « Quelle est la hauteur de la Tour Eiffel ? Quelque chose qui semble juste super basique par rapport à ce que nous avons maintenant à notre disposition. Même les assistants vocaux comme Siri se sont soudainement réveillés un matin fin novembre pour être presque obsolètes.
La vitesse à laquelle les systèmes s'améliorent déterminera également une grande partie de cela. L'une des choses intéressantes et nouvelles pour les concepteurs est que nous sommes plus partants pour le voyage que nous ne travaillions avec les technologies Web ou quoi que ce soit dans le passé. Où va la technologie à partir d'ici va dicter les choses autant que notre vision de l'auteur en tant que réalisateur en tant que concepteurs.
"Je pense qu'il va être vraiment important pour les concepteurs de se pencher là-dessus et de jouer et de bricoler avec ces modèles de langage et de voir comment vous pouvez les appliquer à votre produit"
Une dernière dimension à laquelle je pense en termes de conception, en particulier, concerne les outils que nous utilisons et le fait qu'ils ont le potentiel de changer radicalement. La nature de la production et du travail d'idéation va-t-elle beaucoup changer ? Devrons-nous acquérir de nouvelles compétences comme l'ingénierie rapide ? Gustavs, avez-vous des réflexions de haut niveau sur ce que cela signifie pour la nature changeante de la conception réelle ?
Gustavs : Ouais. En termes d'ingénierie rapide en particulier, je pense qu'avec le temps, nous verrons émerger des pratiques exemplaires sur la façon de procéder, de la même manière que nous l'avons fait pour toute autre technologie. Et évidemment, ils évolueront et s'amélioreront avec le temps, mais je ne pense pas que ce sera un différenciateur clé qui façonnera fondamentalement votre entreprise. Il est difficile de dire comment le rôle du designer va changer, et cela dépend du calendrier. À court terme, je pense qu'il sera vraiment important pour les concepteurs de se pencher là-dessus et de simplement jouer et bricoler avec ces modèles de langage et de voir comment vous pouvez les appliquer à votre produit, comment d'autres entreprises l'appliquent au leur, et essayez de trouver des modèles et des façons intéressantes de faire de nouvelles choses.
Mais à long terme, il est beaucoup plus difficile de dire quel sera l'impact sur les designers dans l'ensemble de l'industrie. Ainsi, à mesure que l'IA s'améliore, et pas seulement pour augmenter les humains, mais aussi pour automatiser complètement l'écriture et l'exécution des tâches, je pense que cela peut fondamentalement perturber de nombreux produits et industries et même le rôle que jouent les concepteurs dans la conception de ces produits. Je suppose que nous verrons. Beaucoup de questions ouvertes, et ça va être intéressant de voir comment ça se passe.
Emmet : Ouais. L'un des avantages de faire ce que nous faisons est qu'occasionnellement, la technologie vous offre un tout nouveau type de voie que vous pouvez emprunter. Cela donne vraiment l'impression que c'est quelque chose qui va considérablement modifier le paysage dans lequel nous travaillons et créer une tonne de nouveaux défis et opportunités pour les designers. Pour nous, chez Intercom, c'est très excitant d'être sur la bonne voie et sur cette voie et de s'y engager pleinement. Ce sera sans aucun doute une année intéressante pour l'IA et la conception avec l'IA. J'ai hâte de voir où nous en arriverons. On peut peut-être en rester là. Molly, merci beaucoup. Gustavs, mille mercis. C'était formidable de discuter avec vous et d'apprendre de votre expérience antérieure de travail avec cette technologie. Peut-être que nous le referons quand nous serons tous plus grands et plus sages, mais pour l'instant, merci beaucoup.