Le PDG de Kinzen, Mark Little, sur la lutte contre la désinformation
Publié: 2022-08-26À l'ère de la désinformation, les fermes de trolls, les fausses nouvelles et les discours de haine se déchaînent, et la vérité est de plus en plus difficile à repérer. La modération de contenu peut-elle nous aider à protéger les communautés en ligne de ses conséquences ?
Les fausses nouvelles ne sont pas un phénomène récent, mais les plateformes de médias sociaux ont fourni la chambre d'écho idéale pour qu'elles s'enveniment et se propagent à une ampleur sans précédent et avec des conséquences très réelles. Mais la vérification des faits traditionnelle et les filtres de contenu automatisés ne font pas le poids face au pouvoir derrière la désinformation et la mésinformation. Il va falloir une toute nouvelle solution pour résoudre le problème, et Mark Little est l'une des personnes qui mènent la charge.
Mark est un journaliste primé et un innovateur des médias numériques avec une carrière dans l'information audiovisuelle qui s'étend sur plus de 20 ans - de son tout premier reportage sur une émeute dans une prison à Dublin à son reportage primé sur l'Afghanistan déchiré par la guerre. En 2010, après avoir remarqué à quel point les jeunes utilisaient les médias sociaux pour rapporter ce qui se passait, il a fondé Storyful, le premier fil de presse de médias sociaux au monde qui combinait une agence de presse traditionnelle avec du contenu authentifié généré par les utilisateurs. En 2015, après avoir vendu Storyful à News Corp, Mark a rejoint Twitter en tant que vice-président des médias et des partenariats pour Twitter en Europe.
Un an plus tard, Mark a démissionné de son poste alors qu'il réalisait qu'une nouvelle menace émergeait - ce qui avait commencé comme une vague démocratique de réveil des médias sociaux était en train d'être corrompu. Les algorithmes et les modèles commerciaux derrière ces plateformes étaient militarisés pour produire et diffuser des théories de propagande et de complot. Avec Áine Kerr, une collègue journaliste qui, à l'époque, gérait des partenariats mondiaux de journalisme pour Facebook, il a commencé à travailler sur une réponse à ce problème, et Kinzen est né.
"Pour relever le défi, ils utilisent une combinaison d'apprentissage automatique et d'analyse humaine qui peut étendre la réponse à un niveau mondial"
Depuis, ils s'efforcent de devancer cette menace et de protéger les communautés en ligne contre la désinformation dangereuse et les discours de haine qui causent des dommages dans le monde réel. Pour relever le défi, ils utilisent une combinaison d'apprentissage automatique et d'analyse humaine qui peut étendre la réponse à un niveau mondial. Mark reste optimiste quant au potentiel démocratique des réseaux de médias sociaux, mais il est le premier à admettre qu'il a désespérément besoin d'une refonte. Et c'est là qu'intervient une modération de contenu plus précise.
Dans l'épisode d'aujourd'hui, nous avons rencontré Mark pour parler de l'évolution du journalisme, de la montée de la désinformation et de ce que nous pouvons faire pour protéger les communautés en ligne des contenus préjudiciables.
Voici quelques-uns de nos plats à emporter préférés de la conversation :
- L'échec est intégré au processus de démarrage de votre propre entreprise. Le secret d'être un grand entrepreneur n'est pas la survie, c'est la résilience.
- Au cours des deux dernières années, nous avons assisté à l'essor du « algospeak », qui se produit lorsque les communautés en ligne modifient certains mots pour éviter d'être signalées par les algorithmes de modération de contenu.
- Mark ne préconise pas une législation interdisant la désinformation, mais plutôt une modération de contenu plus précise qui détecte le contenu préjudiciable tout en permettant une liberté d'expression maximale.
- Au cours des prochaines années, Mark pense que davantage de plateformes essaieront de décentraliser le pouvoir pour que les gens définissent leurs propres filtres pour ce qu'ils veulent voir en ligne.
- En combinant l'analyse humaine et l'apprentissage automatique, ils peuvent détecter des choses comme l'ironie, l'argot ou le "langage algo" et les mettre à l'échelle au niveau mondial.
Si vous aimez notre discussion, consultez d'autres épisodes de notre podcast. Vous pouvez suivre sur iTunes, Spotify, YouTube ou récupérer le flux RSS dans le lecteur de votre choix. Ce qui suit est une transcription légèrement modifiée de l'épisode.
Réveil politique
Liam Geraghty : Mark, merci beaucoup de vous être joint à nous. Vous êtes les bienvenus au spectacle.
Mark Little : Avec plaisir, Liam. Merci de m'avoir.
Liam : Vous avez fait un parcours remarquable jusqu'ici avant de fonder Kinzen. D'où vient votre intérêt pour le journalisme ?
"J'étais obsédé par la façon dont le monde fonctionnait et pourquoi certaines personnes semblaient voir au coin de la rue ce qui allait se passer ensuite"
Mark : Eh bien, j'étais l'un de ces enfants très précoces. À l'âge de peut-être six ou sept ans, je me battais pour The Irish Times le matin avec mon père. Et vers neuf ou dix ans, j'ai réalisé que je n'avais jamais assez de talent naturel pour être ma vraie passion, qui était d'être avant-centre pour Liverpool. Et fondamentalement, la chose sur laquelle je me souviens m'être reposée, c'est ce que quelqu'un, je suppose mon professeur de religion, m'a fait remarquer dans un bulletin scolaire quand j'avais environ 14 ans. Il a dit que j'étais prématurément cynique, que j'avais une curiosité féroce pour le monde, un certain scepticisme et une passion pour le changement.
J'étais obsédé par la façon dont le monde fonctionnait et pourquoi certaines personnes semblaient voir au coin de la rue ce qui allait se passer ensuite en politique ou dans les affaires. Et c'était le noyau qui a commencé avec le journalisme et qui est resté avec moi tout au long de ma carrière.
Liam : La politique était-elle importante dans votre famille ?
Marc : Absolument. C'était devant et au centre. En grandissant dans les années 1970 et 1980, si vous n'étiez pas intéressé par la politique, vous n'étiez pas conscient ou éveillé. Nous vivions en Irlande à l'époque, qui était encore dominée par une société très régressive dominée par l'Église. Nous étions encore les pauvres gens d'Europe. L'immigration était à un niveau record; le chômage était à un niveau record. Et en regardant à l'étranger, quand je grandissais en tant qu'activiste étudiant dans les années 80, je veux dire… Tout se passait. Partout dans le monde, on avait l'impression qu'il y avait des changements tectoniques dans tout ce qui se passait.
Tout semblait si conséquent au point où l'apocalypse nucléaire était quelque chose auquel j'ai profondément pensé dans les années 80 jusqu'à la chute du mur de Berlin. C'est juste pour vous donner une idée de la conséquence d'être en vie dans une période d'énorme anxiété. Mais si vous aviez l'esprit politique, d'énormes excitation et défi, aussi.
Troubles sociaux à Londres
Liam : Et ai-je bien lu que votre premier concert était dans le service de publicité du magazine du Parti communiste au Royaume-Uni ?
Mark : Ouais, c'était une drôle de chose. À l'époque, il y avait beaucoup de gens de gauche qui étaient très attachés à la culture et qui étaient influencés par ce qui se passait avec la Glasnost et la Perestroïka. Il y avait ce groupe de gens qu'on aurait appelé la nouvelle gauche ou les eurocommunistes, et j'étais fasciné par ce magazine. Cela s'appelait Marxisme aujourd'hui.
Je travaillais dans un parking et chez McDonald's, et il m'est arrivé de risquer mon bras et de dire: "Hé, des gars qui vont dans Marxism Today?" Et il s'est avéré que l'un des emplois ne vendait même pas la publicité - il collectait la publicité. Je devrais appeler les producteurs de granola et les producteurs de futons et de vacances publicitaires en Bulgarie et les menacer légèrement, en exigeant l'argent qu'ils s'étaient engagés à payer pour la publicité. C'était l'été à Londres en 1987. J'ai pu voir Red Wedge et Billy Bragg. La grève des mineurs venait de se terminer et il y avait un réel sentiment que Thatcher était la personne la plus importante sur la scène internationale.
« La politique était dans tout à cette époque. C'était un peu comme l'oxygène qui nous entourait »
Vivre à Londres en 87 et faire partie d'un mouvement de gauche – pas nécessairement un parti communiste, qui était un peu en voie de disparition – m'a vraiment ouvert les yeux parce que j'étais un étudiant radical. J'ai eu l'occasion d'être dans des endroits comme le Trades Union Congress et de rencontrer certaines des personnes les plus avant-gardistes qui avaient vraiment créé le changement en Grande-Bretagne. J'ai aussi appris à retourner des hamburgers et à cuisiner le McNugget de poulet parfait.
Ce même été en 1987, la campagne de l'IRA était à son apogée. J'ai travaillé dans ce parking, et l'une de mes tâches consistait à faire le tour, vers 4h00 ou 5h00 du matin, du parking longue durée pour vérifier s'il y avait des voitures pendant plus d'une semaine parce qu'elles craignaient l'IRA allait y poser une bombe. Et j'étais donc là, un jeune irlandais et un collègue pakistanais, et nous étions tous les deux chargés de signaler, aux branches spéciales qui venaient le matin, quelles voitures étaient là depuis trop longtemps. Encore une fois, juste un rappel que la politique était dans tout à cette époque. C'était un peu comme l'oxygène qui nous entourait.
"J'étais si jeune que, quand j'ai obtenu mon gros travail à Washington, on m'a dit de me laisser pousser la moustache ou de porter du bleu, ce qui apparemment vous fait paraître plus vieux"
Liam : Wow, c'est fou. Tout cela a du sens en termes de carrière dans le journalisme et de passage au radiodiffuseur national. Je veux dire, tu es pratiquement allé travailler pour le National Broadcaster en Irlande dès la sortie de l'université.
Mark : J'étais si jeune que lorsque j'ai obtenu mon gros travail à Washington, on m'a dit de me laisser pousser la moustache ou de porter du bleu, ce qui apparemment vous fait paraître plus vieux. En sortant de l'université, j'ai réalisé que je ne voulais pas faire de politique. Je n'étais pas particulièrement idéologique à la fin de la journée. Je n'étais pas partisan. Et j'étais, comme je l'ai dit, fasciné par le changement. Je suis allé à DCU pour faire un cours de journalisme, et avant même que ce cours ne soit terminé, RTE faisait de la publicité pour que des gens les rejoignent, alors je l'ai fait.
Dans environ 24 heures, mon premier rapport concernait une émeute dans une prison de Phibsborough, au nord de Dublin. J'étais au sommet d'un toit et je devais diffuser le journal télévisé de 18 heures sur un téléphone portable, ce qui, croyez-moi, était une innovation technologique massive à l'époque. J'étais tellement mal que quand je suis revenu au bureau, mon patron m'a dit : « N'écoute pas ça. Cela ne vous inspirera pas pour l'avenir. Mais à ce stade, avoir la possibilité de commencer un rapport sur de grandes questions était un rêve devenu réalité.
Une nouvelle vague de journalisme
Liam : Votre carrière dans le journalisme a duré près de 20 ans, n'est-ce pas ?
Marc : C'est vrai.
Liam : Qu'est-ce qui vous a poussé à quitter le journalisme après une carrière extrêmement réussie, en tant que correspondant à Washington et en présentant Prime Time, l'une des grandes émissions en Irlande ?
Mark : Eh bien, j'ai commencé à réaliser que les choses avaient changé, pour reprendre une vieille expression. Les moyens de production du journalisme et des nouvelles avaient changé d'être une personne comme moi, l'homme à la télé, debout dans les zones de guerre. Je me souviens d'avoir été à Kandahar, dans le sud de l'Afghanistan, et c'était très frustrant parce que j'étais assis là à écouter quelqu'un interpréter pour moi ce qui se passait sur le terrain. Et soudain, j'ai réalisé que le vieil âge d'or du journalisme était très antidémocratique. C'était des gens comme moi, les gardiens, disant aux gens à la maison qui s'asseyaient à une certaine heure la nuit pour m'écouter, l'homme à la télé, leur disant ce qui était vrai, ce qui était réel.
"Que se passerait-il si nous pouvions combiner la narration, la vérité et le journalisme à l'ancienne avec ce nouveau réveil démocratique révolutionnaire sur ces plateformes ?"
En même temps, j'ai vu émerger Twitter et YouTube, et je me souviens que c'était une élection protestée en Iran en 2009. Chaque correspondant étranger a une histoire qui lui colle à la peau - l'Iran était mon histoire. Je me souviens avoir vu des jeunes de 17 ou 18 ans utiliser les réseaux sociaux pour livrer les reportages les plus viscéraux et authentiques sur ce qui se passait et avoir pensé : « Oh mon Dieu, ça va tout changer.
La plupart de mes contemporains avaient peur et avaient peur de cette révolution démocratique. Mais j'ai vu cette opportunité. Que se passerait-il si nous pouvions combiner la narration, la vérité et le journalisme à l'ancienne avec ce nouveau réveil démocratique révolutionnaire sur ces plateformes ? J'ai attendu 25 ans et j'ai pensé : « Si je ne le fais pas maintenant, je le regretterai pour le reste de ma vie. Vous devez penser à ce que le Talmud, le grand vieux texte religieux juif, dit : « Si ce n'est pas moi, qui ? Si pas maintenant quand?" J'ai eu ce moment et il n'y avait pas de retour en arrière.
Liam : Vous êtes donc parti et avez créé Storyful. J'adore le super slogan de Storyful, "des nouvelles du bruit des médias sociaux". Comment s'est passé le passage du journalisme à la création d'entreprise ?
Mark : C'était comme regarder l'eau en hiver. Vous pensez : « Ne serait-ce pas formidable d'aller nager ? Et puis vous vous précipitez et vous êtes paralysé par le froid. Nous ne pouvions pas lever un an dans l'aventure avec Storyful. Je pensais que nous ferions faillite. C'était brutal. J'avais tout misé sur cette entreprise - ma réputation, tout mon argent, et il semblait qu'elle allait faire faillite.
"Le secret d'être un grand entrepreneur n'est pas la survie. C'est la résilience. Et l'échec est intégré au modèle »
Je me souviens d'une veille de Noël, en conduisant pour voir ma famille et en sentant le poids du monde sur moi, et j'ai réalisé ma pire pensée : « Nous allons fermer nos portes, mais je trouverai un emploi et je m'en remettrai. ” Et j'ai appris que lorsque vous affrontez votre pire peur, en particulier dans un démarrage précoce, cela ne vous hantera plus jamais parce que vous l'avez affronté. C'est le pire qui puisse arriver.
J'ai commencé à réaliser qu'en tant que journaliste, je parlais de survie. Je devais être correspondant de guerre. Je me souvenais des jours où je pouvais travailler à la fraction de savoir si j'allais être tué ou blessé, mais je n'avais jamais pensé à la résilience, à ce qui se passe quand vous devez vous lever tous les jours et que c'est difficile. Et c'était la grande différence. Le secret d'être un grand entrepreneur n'est pas la survie. C'est la résilience. Et l'échec est intégré au modèle – c'est quelque chose que vous devez supporter. C'était un vrai changement de mentalité. Il y avait de nombreuses similitudes, mais un grand changement de mentalité était nécessaire.
Liam : Comment c'était ? Parce que, comme vous l'avez dit, beaucoup de journalistes en avaient un peu peur. Mais c'est une toute nouvelle forme de journalisme, et nous ne le savions probablement pas à l'époque.
"Nous avons commencé à développer une collaboration avec les gens sur le terrain qui ont été des témoins oculaires de l'histoire"
Mark : Eh bien, nous pouvions en quelque sorte le voir se produire dans la pratique pendant que les gens essayaient de le faire fonctionner en théorie. Par exemple, lors des soulèvements arabes, qui ont commencé en 2010 en Tunisie et sont passés par l'Égypte et la Syrie, nous avons vu, dans notre petite startup en Irlande, des militants démocrates sur le terrain essayant de faire sortir l'histoire d'endroits comme Alep. Ils ont commencé à se rendre compte que nous les regardions et ferions des choses comme incliner la caméra pour montrer un minaret, ce qui nous aiderait à géolocaliser cette image. Ils nous aidaient en affichant des journaux et en nous disant quel jour on était et à quel endroit ils se trouvaient. Et nous avons commencé à développer une collaboration avec les gens sur le terrain qui étaient des témoins oculaires de l'histoire.
Et, bien sûr, nous apportions de la rigueur journalistique. Lorsque Oussama ben Laden a été tué au Pakistan, nous avons immédiatement utilisé des images satellite pour analyser la nature de l'hélicoptère qui s'était écrasé et avait atterri dans l'enceinte. Nous pouvions diriger les journalistes vers l'emplacement physique parce qu'il était mal attribué.

Cette nouvelle forme de journalisme open source était démocratique parce que nos principales sources étaient des gens sur le terrain et non d'autres journalistes. Mais en même temps, il avait la même rigueur de journalisme d'investigation que nous avions sur la responsabilité. Il n'est pas né par hasard, mais nous n'avions certainement pas l'intention de créer une nouvelle forme de journalisme. Il a évolué organiquement à partir de ce réveil qui a été la force dominante de la première vague des médias sociaux. Aujourd'hui, de nombreux anciens élèves de Storyful travaillent dans de grandes agences de presse comme le New York Times, CNN, la BBC ou le Washington Post, et ils apportent cette nouvelle forme de journalisme dont nous faisions partie avec Storyful.
Armalisation des réseaux sociaux
Liam : En 2013, vous avez vendu Storyful à News Corp, vous avez déménagé à New York pour aider à la transition, mais vous êtes finalement revenu à Dublin pour assumer le rôle de directeur général de Twitter, Dublin. Aviez-vous envie de la prochaine grande chose à faire à l'arrière de Storyful?
Marc : Pas vraiment. Je veux dire, quand on y pense, j'ai eu une carrière en travaillant pour Marxism Today, Rupert Murdoch, Jack Dorsey et le contribuable irlandais. J'avais une assez bonne gamme, du moins, d'un point de vue idéologique. Et je viens de Storyful vraiment fasciné par Twitter. J'étais tombé amoureux de Twitter, ça avait changé ma vie, et j'avais envie d'entrer au cœur de la machine. Je n'avais pas envie de faire une autre startup. En fait, j'ai demandé à un autre de mes contemporains, un autre fondateur de startup médiatique, la permission de ne pas recommencer.
À ce stade, Twitter était une entreprise assez importante. Je voulais voir si je pouvais aider à apporter un peu de changement et d'énergie dans l'entreprise de Twitter. C'est pourquoi j'ai choisi de le faire. C'était une vraie chance d'entrer dans une plateforme qui avait tout changé dans mon entreprise pour voir si je pouvais avoir un impact. Ce n'est que par accident que cela signifiait venir de New York, où j'étais très heureux, revenir à Dublin, qui se trouvait être le siège international. Mais je voulais faire une pause dans la vie de startup et voir à quoi cela ressemblerait si j'étais dans une grande entreprise.
"J'avais vu bon nombre des problèmes que nous avions repérés dans les soulèvements arabes, où les gens utilisaient les plateformes sociales non pas comme un outil démocratique mais comme une arme"
Liam : D'où est sorti Kinzen ? Il semble être né des flammes de Storyful, dans une certaine mesure.
Mark : C'est né d'une frustration avec cette grande entreprise appelée Twitter. J'adorais y travailler, mais ce n'était pas particulièrement bien géré. Et à la fin, l'équipe de partenariat avec les médias s'est essentiellement débarrassée. J'aurais pu rester dans un bon travail d'entreprise, mais entre-temps, c'était en 2016 et l'élection présidentielle américaine venait d'avoir lieu. J'avais vu bon nombre des problèmes que nous avions repérés dans leur première incarnation dans les soulèvements arabes, où les gens utilisaient les plateformes sociales non pas comme un outil démocratique mais comme une arme. Ils utilisaient la viralité de la vidéo sur des sites comme YouTube et Twitter pour concevoir de fausses histoires qui étaient soit de la propagande, soit des théories du complot.
La première vague d'internet a été un réveil démocratique. Et puis, quand 2016 est arrivé, j'ai réalisé : « Putain de merde ! Ceci est en train d'être transformé en arme. Pas seulement à cause de Donald Trump – il y avait des problèmes plus profonds où, tout à coup, la viralité, le modèle commercial et les algorithmes étaient détournés par des personnes opposées à la démocratie. C'était le lieu de naissance et l'idée qui m'a amené à revenir à Áine Kerr, qui était ma collègue la plus fiable, qui était à Facebook à l'époque, et à dire : « Et si nous faisions quelque chose pour redonner du pouvoir aux citoyens, pour permettre pour se protéger contre cette menace émergente ? » Et nous avons sauté tous les deux.
Nous avons décidé, pour commencer, de donner aux gens un fil d'actualité qu'ils pourraient contrôler, mais évidemment, au fur et à mesure que nous avancions, comme toutes les startups, l'idée a évolué. La première vague de démocratie était remplacée par une nouvelle force obscure sur Internet et c'était l'inspiration derrière Kinzen.
Liam : Pour les auditeurs qui ne connaissent pas, qu'est-ce que Kinzen ? Qui est l'utilisateur de Kinzen ?
Mark : Nous aidons les grandes plateformes technologiques et les plateformes émergentes à protéger les conversations mondiales contre les risques liés à l'information. Et par là, nous entendons une désinformation dangereuse qui crée des dommages dans le monde réel, une désinformation organisée et des discours haineux et violents. Nos clients sont des professionnels de la sécurité de confiance, des professionnels des politiques et les personnes au sein de ces entreprises qui tentent désespérément de devancer ces menaces et risques liés à l'information au lieu de vérifier les faits de manière réactive.
"Nous mettons à l'échelle la solution humaine à cette crise particulière de l'information"
Nous utilisons une combinaison d'une bonne analyse humaine à l'ancienne et des étapes ultérieures de l'apprentissage automatique pour résoudre le problème épineux auquel ces plates-formes sont confrontées. Ce sont, premièrement, que les humains ne peuvent pas s'adapter au problème et que les machines n'ont pas la perspicacité nécessaire pour détecter ces risques d'information dans plusieurs langues et plusieurs formats différents. C'est le problème que Kinzen essaie de résoudre. Nous mettons à l'échelle la solution humaine à cette crise particulière de l'information.
Liam : Donc, vous prenez en quelque sorte ces compétences éditoriales de Storyful et vous les codez dans les machines pour leur donner ces valeurs.
Marc : Exactement. Nous suivons une approche d'apprentissage automatique humain et en boucle, qui n'est vraiment devenue possible qu'au cours des deux dernières années, depuis que nous avons eu accès à ces grands modèles de langage. Nos analystes créent des données lisibles par machine dans une variété de langues, qui ont été poussées dans la machine. La machine transcrit, traduit et essaie de comprendre, et les données humaines l'aident à apprendre plus rapidement. C'est une belle boucle de rétroaction entre un petit groupe d'experts et des systèmes d'apprentissage automatique vraiment avancés dont la capacité est exponentiellement plus grande aujourd'hui qu'il y a quatre ans.
Lutte contre la désinformation
Liam : Quelle est l'ampleur de la désinformation en ce moment ?
"La question clé en ce moment n'est pas de savoir si les gens disent la mauvaise chose sur Internet ; il ne s'agit pas de disputes entre les gens sur la politique ; il ne s'agit même pas de Donald Trump ou de ce qu'il obtient sur Twitter »
Mark : Eh bien, je pense que ce qui se passe en ce moment, c'est que ça s'aggrave avant de s'améliorer. Tout le monde en ligne ne le verra pas, mais ce qui se passe là où la mésinformation et la désinformation sont particulièrement problématiques, c'est là où c'est la vie ou la mort. En ce moment, en Inde, nous voyons des niveaux de rhétorique presque génocidaires venant des partisans du gouvernement envers les musulmans. Nous voyons des extrémistes organisés, des groupes d'extrême droite et des néonazis en Europe utiliser la viralité de ces plateformes pour diffuser leur message.
Et évidemment, nous le voyons dans les théories du complot autour de sujets de santé, pas seulement COVID, mais les gens qui essaient de promouvoir la pensée complotiste dans les conversations grand public. La question clé à l'heure actuelle n'est pas de savoir si les gens disent la mauvaise chose sur Internet ; il ne s'agit pas de disputes entre les gens sur la politique ; il ne s'agit même pas de Donald Trump ou de ce qu'il obtient sur Twitter. Ce que nous examinons, c'est la multitude de langages et de menaces où il y a des dommages réels dans le monde réel et peut-être des situations de vie ou de mort.
Nous avons actuellement 13 langues, et bientôt nous en aurons 26. C'est dans des endroits comme le Brésil, qui aura une élection extrêmement conséquente en octobre qui pourrait être une répétition de ce qui s'est passé en 2020 aux États-Unis. Beaucoup de gens pensent que nous essayons de trier ce qui est vrai ou faux. Il ne s'agit pas seulement de cela ou même principalement de cela - il s'agit de savoir où nous pouvons empêcher quelque chose de se produire en ligne qui aura un impact réel et, potentiellement, un impact de vie ou de mort.
Liam: Vous avez mentionné les élections brésiliennes là-bas, et j'ai entendu Áine Kerr sur un autre podcast parler d'acteurs de la désinformation qui se rendaient compte que des phrases comme «fraude électorale» et «élection truquée» alertaient les modérateurs de contenu qui pouvaient retirer leurs fausses déclarations, alors alors ces acteurs ont commencé à remplacer ces phrases par des trucs comme "Nous faisons campagne pour des élections propres". Et c'est là que les modérateurs humains peuvent intervenir pour repérer ces changements et aider les autorités à intercepter ces messages.
« Nous voyons constamment des mots être modifiés et changés. Et, bien sûr, les machines ne sont pas en mesure de suivre cela. »
Mark : Nous assistons à ce que nous appelons l'essor du « algospeak », c'est-à-dire lorsque les communautés se rendent compte qu'il peut y avoir des algorithmes de modération de contenu qui examinent ce qu'ils disent et essaient de l'éviter. Pendant la pandémie, nous avons vu des militants anti-vax utiliser le mot panini au lieu de pandémie. Plus récemment, en Allemagne, nous avons vu la communauté anti-vax utiliser le mot schtroumpf pour vaccin car, en allemand, la prononciation de ce mot ressemble beaucoup à la prononciation du personnage de la télévision pour enfants. L'année dernière, en Scandinavie, nous avons vu un groupe néo-nazi changer un mot associé à un festival traditionnel pour enfants pour devenir une insulte raciale.
Nous voyons constamment des mots être modifiés et changés. Et, bien sûr, les machines ne sont pas capables de suivre cela. Quand quelque chose comme la pandémie se produit, tout à coup, nous avons tous ces termes scientifiques qui arrivent dans notre langue. La machine n'est tout simplement pas rattrapée, et c'est là que l'analyse humaine est importante – pour corriger la machine.
Et donc, de plus en plus, à l'intérieur de Kinzen, on commence à voir la machine capter l'évolution du langage. Un mot lié à un autre. Schtroumpf avec vaccin. Ou par exemple, dans des endroits comme l'Inde, nous voyons des militants anti-musulmans utiliser des mots qui peuvent sembler totalement anodins, mais nous pouvons voir qu'ils font partie d'un modèle d'intimidation et de discours de haine.
C'est pourquoi la partie humaine est si importante. Nous ne préconisons pas plus de modération de contenu. Nous ne plaidons pas pour des lois ou l'interdiction de la désinformation. Je pense que ce n'est absolument pas la bonne façon de procéder. Nous recherchons une modération de contenu plus précise qui peut ramasser l'aiguille dans la botte de foin qui est dangereuse tout en permettant une liberté d'expression maximale. Et c'est notre objectif à long terme. Nous ne pouvons pas avoir la sécurité par décret et les gouvernements interdisant le contenu. Nous devons repenser les plates-formes afin que les machines et les humains travaillant dans la modération de contenu deviennent plus exacts, plus précis et plus rapides pour anticiper le problème au lieu d'y réagir.
Un mélange de machines et d'humains
Liam : La désinformation est-elle un problème technique, un problème humain ou un peu des deux ?
Mark : Écoutez, c'est une de ces questions existentielles où les gens pensent que la technologie les a poussés à le faire ou a rendu le monde stupide. Je ne vais pas pour ça. Je reste un évangéliste du potentiel démocratique des technologies que nous prenons maintenant pour acquis ou que nous commençons à détester intensément. Le modèle commercial et la façon dont les algorithmes ont été amorcés initialement avec les médias sociaux profitent de nos pires instincts, mais je pense que nous pouvons repenser cette technologie pour libérer nos meilleures intentions. Et une partie de cela consiste à avoir de bien meilleurs filtres auxquels la personne ordinaire peut accéder lorsqu'elle navigue sur Internet.
"L'utilisateur moyen aura plus de puissance et de précision dans la modération de contenu"
À l'heure actuelle, nous travaillons avec des équipes de modération centralisées au sein des plateformes technologiques. Je suppose qu'au cours des deux à trois prochaines années, de plus en plus de plates-formes essaieront de décentraliser le pouvoir pour que la personne ordinaire puisse définir ses filtres. Ils peuvent dire : « Écoutez, je ne veux pas entendre un langage extrême dans mon flux », ou quelqu'un d'autre pourrait dire : « Eh bien, je le veux. Je veux voir ce que pense l'autre côté. L'utilisateur moyen aura plus de puissance et de précision dans la modération du contenu. Mais cela prendra du temps, et nous n'en sommes qu'au début. N'oubliez pas que les grandes plateformes qui existent aujourd'hui seront remplacées par de nouvelles qui sont actuellement incubées par des jeunes de 17 ans.
Nous devons être conscients de certains développements qui pourraient aggraver le problème avant qu'ils ne s'améliorent. Chez Kinzen, nous sommes des pionniers de la modération de contenu audio. Nous avons analysé la manière dont la mésinformation, la désinformation et les discours de haine se propagent via l'audio en direct et les podcasts. Et nous pensons que la couche parlée d'Internet est un domaine sur lequel nous devons nous concentrer avec une grande importance au cours des deux prochaines années.
Liam : J'allais te poser la question avant de conclure. Il y a juste d'innombrables heures d'audio. Quel problème cela vous pose-t-il, à vous et aux vérificateurs des faits ?
Mark : C'est comme une tempête parfaite. De toute évidence, avec l'audio en direct, vous avez la vitesse. En regardant les podcasts, beaucoup d'entre eux durent des heures et des heures. Et puis, le défi le plus important et le plus grand est la langue. Il y a des milliers de langues parlées. Si vous analysez quelque chose en Inde, vous écoutez peut-être quelqu'un parler en hindi, mais il sautera en anglais de temps en temps. Ce dont nous sommes très conscients, c'est que c'est là que l'apprentissage automatique est si fascinant. Vous disposez d'une reconnaissance vocale automatique. Mais encore une fois, vous pouvez modifier cela si vous savez ce que vous recherchez avec des signaux humains. Nous pouvons permettre au modèle linguistique de s'améliorer, d'être optimisé pour écouter non seulement le son d'un mot, mais la relation entre les langues.
« Pouvons-nous commencer à associer des machines et des humains pour interpréter le sens du langage, et pas seulement ce qu'ils disent, mais comment ils le disent ?
Je suis journaliste, n'est-ce pas ? Je ne suis pas un technicien de formation. Beaucoup de ces choses me font me poser des questions alors que j'essaie de suivre le rythme. Mais je pense que ce qui est important pour l'audio, c'est que nous soyons attentifs à la façon dont les gens parlent ; leur ton de voix. L'arabe, par exemple, est une langue si vous l'écrivez, mais plusieurs dialectes lorsque vous le parlez. Et ça, pour moi, c'est ce qu'il y a de plus troublant et aussi de plus excitant. Pouvons-nous commencer à associer des machines et des humains pour interpréter le sens du langage, et pas seulement ce qu'ils disent, mais comment ils le disent ? C'est le grand défi de la modération audio, mais je pense aussi que c'est l'un des défis les plus excitants sur lesquels travailler. Seuls les humains sont capables de détecter des choses comme l'ironie, le sarcasme, l'argot ou le « algospeak ». Et c'est pourquoi notre approche est non seulement plus efficace, mais finalement plus démocratique. Nous voulons le moins d'intervention possible mais le plus haut niveau de précision, et c'est là que le mélange de l'homme et de la machine est si vital.
Liam : Génial. Eh bien, Mark, merci beaucoup de m'avoir rejoint aujourd'hui.
Mark : Liam, c'est avec plaisir. A refaire bientôt.