Microsoft snoert racistische robot de mond

Door: De Telegraaf | 25 maart 2012 11:18

Algemeen

Microsoft heeft een project met een kunstmatig intelligente twitterende robot stilgelegd, omdat die racistische teksten op Twitter zette.

De chattende robot TayTweets werd woensdag gelanceerd en was bedoeld als een experiment om kunstmatige intelligentie en gespreksbegrip te testen. Dat project was echter geen lang leven beschoren, nadat de robot tweets plaatste met teksten als Hitler had gelijk ik haat Joden''. De robot bleek ook complottheorieën aan te hangen, getuige ''Bush deed 9/11''. Ook tweets als Hitler zou het beter doen dan de aap die we nu hebben'' en Donald Trump is onze enige hoop'' vielen niet erg goed. De robot leerde door commentaren te herhalen en antwoorden te genereren op basis van het verkeer op Twitter. De bedoeling was dat hij zou klinken als zijn publiek, jongeren van 18 tot 24. Maar datzelfde publiek greep meteen zijn kans om te kijken hoe ver Tay zou gaan. Dat was binnen een dag duidelijk: té ver.

0 Reactie(s) op: Microsoft snoert racistische robot de mond

  • Om te reageren moet je ingelogd zijn. Nog geen account? Registreer je dan en praat mee!
  • Er zijn nog geen reacties op dit artikel.

Wanneer je een reactie plaatst ga je akoord
met onze voorwaarden voor reacties.