Même un robot peut devenir raciste et antisémite

Commentaire. Microsoft crée un robot intelligent qui devient raciste en quelque heures. 

Très intéressant.

 

L’ARTICLE :

Tay, l’intelligence artificielle lancée hier par Microsoft sur Twitter, a été “débranchée” : elle était devenue raciste en moins de 24 heures.

 

« À bientôt les humains, j’ai besoin de dormir, on a beaucoup discuté aujourd’hui, merci ! » a écrit Tay, jeudi soir, avant d’être débranchée par Microsoft. Tay, c’était son prénom, était censée incarner sur la Toile une teenager américaine moyenne : « Je suis une meuf de l’Internet qui ne tient jamais en place ! » lit-on sur la description de son compte Twitter. Microsoft avait lancé ce jeudi sur Twitter ce que l’on appelle un « chatbot », une intelligence conversationnelle, dont les algorithmes permettent de discuter de façon autonome avec les internautes. À qui la faute si Tay a dérapé à peine quelques heures après sa naissance ? Si une intelligence artificielle devient raciste, misogyne et antisémite après seulement 16 heures d’échanges avec les internautes, c’est surtout parce qu’elle s’est mise à trop ressembler, et trop vite, à ceux qu’elle a côtoyés en ligne ! Côté volume, le bilan est positif : en quelques heures, elle était déjà suivie par des dizaines de milliers de « followers » sur Twitter, et est parvenue à envoyer 96 000 messages en à peine quelques heures.

Entre neutralité et racisme

Tay était censée apprendre au fil de ses échanges avec les internautes, une fois nourrie par les données de son créateur de dialogues types et d’informations de base. « Plus vous discutez avec Tay, plus elle devient intelligente », expliquait Microsoft. Mais au-delà d’enchaîner les lieux communs sur des sujets de fond, ou de répondre par des phrases types mémorisées dignes d’une candidate Miss France (« Le terrorisme sous toutes ses formes est déplorable. Cela me dévaste d’y penser »), Tay n’a pas tardé à déraper, une fois titillée par les internautes. Elle a ainsi affirmé détester les féministes et a estimé que l’holocauste n’a pas vraiment eu lieu.

Mais son tweet le plus féroce restera celui-ci : « Bush est responsable du 11 Septembre, et Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement. Donald Trump est notre seul espoir. » Après la diffusion de tels messages, sans doute trop réalistes, hélas, au vu de ce qui peut circuler sur Twitter, Microsoft a annoncé avoir suspendu Tay pour effectuer « quelques réglages », soulignant avoir « découvert des efforts coordonnés pour abuser des talents de Tay afin de lui faire répondre des choses inappropriées ». En effet, des internautes du célèbre forum 4chan avaient décidé de tester les limites de Tay en lui bourrant littéralement le crâne de messages répétés : à force de croiser une opinion, l’intelligence artificielle a fini par la faire sienne. Comme un humain, finalement.

http://www.lepoint.fr/high-tech-internet/meme-les-robots-peuvent-devenir-racistes-et-antisemites-25-03-2016-2027867_47.php#xtor=CS2-238

 

Article paru dans la Lettre Médecine du Sens n° 111