Retour en haut
La publicité est notre seule source de revenu.
Si vous appréciez lelectronique.com, désactivez votre bloqueur de pub. Merci à vous ! En savoir plus.

Microsoft censure son nouveau chatbot pour éviter qu'il ne devienne raciste

09/12/2016 15h30, par 01net.com

Après l'échec de Tay, sa première intelligence artificielle pour chatbot, Microsoft récidive avec Zo, un modèle hautement censuré issu d'une version chinoise.

Lire l'actualité / En savoir plus 

A lire aussi

Actualité électronique