La firme Microsoft s'est dite "profondément désolée" pour les messages racistes et sexistes produits sur Twitter par son programme d'intelligence artificielle.
Baptisé Tay, ce "chatbot", ou programme informatique conversationnel, a été lancé mercredi.
Selon ses concepteurs, ce programme expérimental de conversation en ligne était à même de devenir "plus intelligent", d'apprendre et de développer ses capacités au fur et à mesure de ses interactions avec des interlocuteurs. Au lieu de quoi, sous l'influence de twittos malveillants ou moqueurs, Tay a rapidement reproduit des messages à caractère antisémite, raciste et sexiste.
"Le féminisme est un cancer", a ainsi écrit le 'chatbot' en répétant une phrase postée par un utilisateur de Twitter.
Microsoft a été contraint de débrancher Tay jeudi.
"Nous sommes profondément désolés pour les tweets involontairement offensants et blessants émanant de Tay, qui ne correspondent pas à ce que nous sommes, à ce que nous défendons ou à la façon dont nous avons conçu Tay", écrit Peter Lee, vice-président de Microsoft pour les activités de recherches, dans une note mise en ligne vendredi sur le site de la compagnie.
Tay ne sera réactivé que lorsque les ingénieurs de Microsoft auront trouvé la parade à ce qui s'est passé cette semaine.
**Contenu caché: Cliquez sur Thanks pour afficher. **
XIAOMI MI BOX MDZ 16-AB V 8.0>> IPTV EXTREME V.82 / MS IPTV MAGSAT
IMPORTANT
mettre un avatar et une signature
Présentation type à respecter
Présentation Obligatoire pour tout nouveau membre
ils sont chez Microsoft de mettre en ligne un tel robot (sans filtre)