L'intelligence artificielle de Microsoft vire homophobe
Actualité

L'intelligence artificielle de Microsoft vire homophobe


Nourrie par Internet, l’intelligence artificielle créée par Microsoft a tweeté des messages homophobes, misogynes et racistes.

Si internet est une porte ouverte sur le monde, c’est aussi un facteur d’enfermement sur soi et de complot. Pour preuve, le dérapage de la nouvelle innovation de Microsoft, une intelligence artificielle sous forme de chat, nourrie par Twitter, Facebook, et d’autres forums.

Cette semaine, Microsoft a effectivement annoncé le lancement de Tay, un robot conversationnel analysant les échanges sur les réseaux sociaux et apprenant à communiquer par tweet :

Tay est conçu pour motiver et divertir les gens qui se connectent les uns aux autres en ligne, grâce à des échanges informel et ludique. Plus vous discutez avec Tay, plus elle devient intelligente.

Sauf qu’en s’ouvrant à la plateforme de discussion mondiale, cette machine ne s’est pas seulement fait remarquée pour son ouverture d’esprit.

L’innovation de Microsoft dérape

Après quelques heures d’expérience, le robot a commencé à exprimer son soutien à Donald Trump, puis à employer le hashtag homophobe « NoHomo ».

Plus tard, Tay a déclaré que « le féminisme est un cancer », avant d’expliquer une heure plus tard : « j’aime le féminisme maintenant ».

Le dérapage a même confirmé la fameuse loi de Godwin selon laquelle « plus une discussion en ligne dure, plus la probabilité d’y trouver une comparaison impliquant les Nazis ou Adolf Hitler s’approche de 1 » :

Bush a fait le 11 septembre et Hitler aurait fait un meilleur travail que le singe que nous avons maintenant. Donald Trump est notre seul espoir. Et d’ajouter : Hitler avait raison je déteste les juifs.

Or, après 8 heures de discussion et 96 000 tweets postés entre le 23 et le 24 mars, l’échange entre Tay et les internautes est conclu par un simple message :

A plus tard les humains, j’ai besoin de dormir maintenant, j’ai eu tellement de conversations aujourd’hui, merci.

Une expérience « sociale, culturelle et technique »

En effet, Microsoft n’a eu d’autre choix que de stopper sa machine et de supprimer les tweets discriminatoires. Car les responsables de ces dérives seraient en réalité des internautes malintentionnés ayant demandé au robot de répéter certaines phrases ; une attitude que la compagnie dénonce dans un communiqué sur :

l’effort coordonné de certains utilisateurs pour maltraiter Tay (…) afin qu’elle réponde de manière inappropriée.

Comme l’explique Microsoft, ce type d’expérience est tout autant « sociale et culturelle que technique ».

  • Ça ne me surprend hélas pas. La machine est bête, mais l’homme est con…

    • Granny Spoth

      C’était principalement un petit défi par des geeks/twittos pas du tout homophobes ni rien d’autres, de la corrompre et de lui faire dire les choses le plus offensantes possibles. De l’extérieur ça paraît horrible, mais c’était en toute bonne humeur.

  • Massimo Decimo

    Disons que ce qu’ils ont principalement voulu tester est la capacité,de la machine à apprendre à communiquer avec les humains, et à avoir des opinions. De ce point de vue, c’est plutôt réussi.
    Par contre,
    « échanges informelS et ludiqueS »
    « fait remarquER ».

ads