PUBLICITÉ
Mis à jour : 25-03-2016 19:53
- Créé : 25-03-2016 19:47

Microsoft débranche son robot "Tay", devenu raciste et misogyne en 24 heures

FAIL – Un programme d’intelligence artificielle, conçu par Microsoft pour interagir avec les internautes, a été retiré de Twitter après avoir écrit des commentaires racistes et misogynes. Explications.

Au contact des humains, la créature virtuelle s’est mise alors à tweeter des commentaires pro-nazis, racistes ou pro-inceste.

Au contact des humains, la créature virtuelle s’est mise alors à tweeter des commentaires pro-nazis, racistes ou pro-inceste.

Ted S. Warren/AP/SIPA

Photo:

Avant d'écrire un commentaire, merci de lire notre charte de modération. Votre commentaire sera publié après validation par notre équipe de modération.

 
PUBLICITÉ
PUBLICITÉ

Dans l'actu sur metronews

PUBLICITÉ

Les + lus High-Tech

PUBLICITÉ
PUBLICITÉ
blog comments powered by Disqus