Twitter-toepassing van Microsoft heeft racistische trekjes
Het was op zich een leuk idee. Maar de uitvoering liep mis. Twitter zit vol met zogeheten ‘bots’, automatische accounts die dingen via het netwerk de wereld ingooien. Microsoft besloot ook een poging te wagen: met het account @tayandyou ging de softwaremaker het gesprek aan met tieners.
De chatbot was bedacht door een onderzoeksteam van Microsoft en mensen die zich normaal gesproken bezighouden met zoekmachine Bing. Het was bedoeld als experiment, om te leren van gesprekken die op Twitter worden gevoerd, schrijft The Guardian.
Kunstmatige intelligentie
Om het gesprek op gang te helpen had Microsoft een aantal zinnen bedacht waarmee de bot kon reageren, maar het was ook het idee dat @tayandyou zou leren van de mensen met wie zij sprak. Dit gebeurde door middel van kunstmatige intelligentie, waardoor computers gaandeweg slimmer worden.
Waar Microsoft kennelijk geen rekening mee had gehouden, was dat al die tieners het Twitter-account racistische teksten zou leren. Zo veranderde de bot in minder dan 24 uur van een 'normale' tiener in een racistisch account.
Lang niet alle tweets zijn racistisch en de bot herhaalt ook wat andere gebruikers zeggen. Maar het is wel duidelijk dat in ieder geval een aantal reacties niet door de beugel kunnen.
Het account is overigens niet offline gehaald en er zijn nog 96.300 berichten te vinden. Die, met uitzondering van drie tweets, allemaal reacties zijn. Microsoft zou al wel bezig zijn de racistische tweets te verwijderen. Ook lijkt het account voorlopig even te ‘slapen'.