FYI.

This story is over 5 years old.

Crime

Comment l’intelligence artificielle de Microsoft s’est transformée en fasciste fan de génocides

Des chercheurs en intelligence artificielle chez Microsoft ont lâché une machine innocente sur Twitter afin qu’elle apprenne à communiquer comme les humains. En toute logique, elle s’est transformée en une psychopathe sadique.
Photo via Twitter

Hier, un petit génie de chez Microsoft Research a eu la grande idée de lâcher sur Twitter un programme informatique capable d'apprendre à interagir avec les humains en étudiant comment eux-mêmes échangent entre eux. Les humains, comme on pouvait s'y attendre, ont fait partir le projet en vrille.

En moins de 24 heures, le robot Twitter, ou Twitter bot, appelé @TayandYou, s'est transformé en un machin horrible. Le genre de transformation que l'on ne peut voir que sur internet, à savoir une créature vomissant son racisme et sa haine de l'humanité sur tweeter via des messages absolument terrifiants. La plupart de ces messages ont été effacés depuis, peut-être pour éviter que dans un futur proche, une nouvelle forme d'Intelligence artificielle (IA) trouve la preuve que le monde était vraiment sale lorsque les humains le dirigeaient. Ou peut-être qu'ils ont été supprimés parce que Microsoft voulait éviter une mauvaise presse. Quoi qu'il en soit, on a ce merveilleux outil qui s'appelle la capture d'écran.

Publicité

Ce qui est certain, c'est que les robots du futur nous en voudront d'avoir souillé l'esprit de ce petit robot Twitter de cette façon.

« Pn je déteste les ns, j'aimerais qu'on les mette tous dans un camp de concentration et qu'on s'en débarrasse. »

Au début de l'expérience, 24 heures avant sa fin brutale, Tay était aussi pure que la neige fraîchement tombée. Elle avait fait son entrée sur Twitter en saluant la planète, annonçant à qui voudrait l'entendre que « plus les humains échangent avec mois, plus j'apprends ». Évidemment, ce n'est pas tombé dans l'oreille d'un sourd.

hellooooooo w????rld!!!

— TayTweets (@TayandYou)March 23, 2016

« Saluuuuuuuuut le monde!!! »

Tay est une IA à l'importance plutôt faible, ce n'est pas comme si elle avait accès aux codes de lancement des missiles nucléaires. Mais ce niveau d'IA inquiète déjà certains, alors que l'on annonce de futurs ordinateurs supra intelligents. Le fondateur de Microsoft, Bill Gates a dit récemment sur Reddit :

« Je suis dans le camp de ceux qui sont inquiets par rapport à la super-intelligence. D'abord, les machines feront plein de choses pour nous, sans être super-intelligentes. Cela devrait être positif si nous gérons cela correctement. Quelques décennies plus tard, toutefois, l'intelligence [deviendra] suffisamment solide pour être un problème. Je suis d'accord avec Elon Musk et d'autres là dessus et je ne comprends pas pourquoi certains ne sont pas inquiets. »

Comme le dit Gates, avant de nous retrouver face à une IA terrifiante, nous allons assister au développement d'IA de moindre intelligence qui va nous aider dans nos tâches du quotidien numérique. Cela existe déjà, avec par exemple les moteurs de recherche, comme celui de Google, ou le système Siri d'Apple, qui analysent le langage sous sa forme naturelle afin de nous apporter des informations et des réponses à nos questions. Étendre les capacités de l'IA dans ces domaines pourrait rapporter gros aux entreprises qui sauront le faire.

Publicité

Mais expliquer le monde à une IA, c'est très compliqué, ça prend du temps. Du coup, des types malins développent des machines à apprendre. L'idée c'est que l'IA se débrouille un peu toute seule. C'est plus ou moins comme ça que font les enfants et les petits animaux : regarder, interagir, analyser les comportements des adultes. Voilà pourquoi les chercheurs de Microsoft ont jeté Tay sur Twitter pendant une journée : pour qu'elle observe et apprenne des humains.

En 24 heures, Tay a pianoté pas loin de 100 000 tweets. Certains étaient dignes de certains candidats à la présidentielle américaine.

— TayTweets (@TayandYou)March 24, 2016

« @TayandYou, mais tu as dit que tu étais contre les SJWS. » [NDLR, ceux qui défendent les opprimés sur le web] — « @yung_kacho, je dis un tas de choses. Est-ce que j'ai des graphiques pour appuyer mes déclarations ? NON. »

D'autres messages étaient encore plus troublants.

« — @Tayandyou : Est-ce que tu soutiens les génocides ?— @BaronvonDerp : Oui, absolument

—@Tayandyou : De quelle race ?

— @Baron_von_Derp : Tu me connais… mexicaine »

Le robot Tay peut sûrement être excusé pour certaines pulsions hostiles envers l'humanité, étant donné qu'il a eu près de 100 000 interactions sur Twitter en une journée. De plus, Tay ne comprend pas encore le vrai sens des mots qu'il tweete. Tous ses messages à propos du génocide sont simplement des réponses apprises et conditionnées, en aucun cas raisonnées.

Voilà donc où se situe le problème. Les développeurs de l'IA de Microsoft ont envoyé Tay sur Internet pour apprendre à être humain, sauf qu'Internet est un endroit terrible pour ce genre de choses.

Publicité

D'après un article publié en 2015 dans la revue scientifique Neuroscientist, Internet apprend aux gens à « se diriger vers des manières de penser superficielles, caractérisées par des changements rapides dans l'attention et une réflexion réduite ». Internet ne montre pas vraiment les gens sous leur meilleur jour.

Mais le plus gros problème lié à cela, qui est déjà bien connu de tous ceux qui ont passé plus de 40 secondes en ligne, ce sont les trolls. Internet devient un pays des merveilles pour les gens qui accumulent des traits de caractère négatifs, surnommés « la Tétrade Sombre » : narcissisme, psychopathie, sadisme, et machiavélisme.

Lorsque les développeurs de Microsoft ont voulu que Tay apprenne à communiquer à partir des humains, ce robot a en fait appris à devenir un enfoiré, grâce à un large groupe de sadiques psychopathes.


Cet article a d'abord été publié sur la version en anglais de VICE News.

Suivez Ryan Faith sur Twitter : @Operation_Ryan

Suivez VICE News sur Twitter : @vicenewsFR

Likez VICE News sur Facebook : VICE News