Der Softwarekonzern Microsoft kündigte Ende Mai zahlreiche Journalisten der MSN-Website und ersetzte sie durch Künstliche Intelligenz. Dieser ist nun ein peinlicher Fehler unterlaufen.

Der Software wird nun Rassismus unterstellt.

Künstliche Intelligenz von Microsoft rassistisch?

Wie der Guardian berichtet, passierte der künstlichen Intelligenz von Microsoft nun ein peinlicher Fehler. Einen Bericht über die Erfahrungen der schwarzen Little-Mix-Sängerin Jade Thirlwall mit Rassismus bebilderten sie mit einem Foto ihrer ebenfalls schwarzen Bandkollegin Leigh-Ann Pinnock. Thirlwall selbst beschwerte sich über diese Verwechslung auf Instagram. Sie ärgere sich darüber, dass Microsoft in einer Gruppe von vier Mitgliedern die einzigen zwei schwarzen Frauen nicht unterscheiden könne, schrieb die Sängerin. Diese Art von Verwechslung passiere den beiden Bandkolleginnen ständig, erklärte sie in ihrer Instagram-Story. „Werdet besser“, forderte sie die MSN-Plattform auf.

View this post on Instagram

I’ve chosen to post this poem inspired by George Floyd because my friend @shungudzo always manages to authentically place her emotions and social issues so beautifully into art. It moves me every time ♥️ – I’ve always felt weird about posting and reposting on my story any form of social issue. I guess it’s my own insecurities of feeling too uneducated to speak out or out of fear of coming across as a performative activist or showboating. But we ALL have a part to play in this. I, like so many, have a platform and we all need to be using it. We can’t allow this anymore. Raising awareness is a start. But I urge you all to do more. Sign the petitions, donate to the correct organisations if you can, challenge everyday racism, show love and support and DO MORE. To my white friends, family and followers, use your privilege for good and do the right thing. Educate yourselves. Check 👏🏽 your 👏🏽 white 👏🏽 privilege. I’m not purely talking about social media. We can’t always go off what people are doing on here – it isn’t the only space to show solidarity or support. And as a mixed race woman I want to say that I too understand my privileges and will constantly strive to do better for the black community. – Those not speaking up or taking action…your silence speaks VOLUMESSSSS. You can’t play ignorance justified by feeling uncomfortable, when black people have been made to feel uncomfortable their entire lives in a white privileged, systematically racist and unfair society that is more than happy to benefit from black culture, but isn’t so happy in adhering to the ideals of equality and basic human rights. Can you believe we’re in 2020 and the colour of someone’s skin determines whether they might live or die? – All fights for justice, rights and equality are made when allies step up too. The time is always right to do what is right. – “No one should have to live in fear of those sworn to protect them.” #BlackLivesMatter

A post shared by jade amelia thirlwall (@jadethirlwall) on

Was die Sängerin aber vielleicht nicht weiß, ist, dass die Seite nicht von Menschen, sondern eben seit Neuestem von einer Künstlichen Intelligenz kuratiert wird. Noch bis Ende Mai waren zwar Journalisten dafür zuständig, Artikel von anderen Websites zu selektieren, mit neuen Bildern zu versehen und zu posten. Das Unternehmen hat den Großteil von ihnen aber nun mit einer Künstlichen Intelligenz ersetzt. Auf die Frage des Guardian, ob die KI-Software schwarze Menschen nicht unterscheiden könne und ob solche rassistischen Vorurteile auch in Microsoft-Software vorhanden seien, die man an Unternehmen verkaufe, erklärte der Konzern: „Sobald wir auf das Problem aufmerksam wurden, haben wir sofort reagiert und das falsche Bild ausgetauscht.“

Microsoft wies Redakteure an Berichte zu entfernen

Laut Guardian unterrichtete das Unternehmen aber die restlichen Redakteure von msn.com, dass man einen negativen Artikel über die KI erwarte. Weil die Software auch die Meldungen über den eigenen Fehler als interessant erachten könne, wies Microsoft die übrigen Redakteure an, die Berichte in diesem Fall zu entfernen. Zudem sei es möglich, dass die KI nach einer Löschung erneut versucht, einen Bericht zu dem Thema aufzugreifen. Microsoft, so erklärte ein Redakteur anonym, sei „sehr besorgt“, dass der KI-Abteilung vor allem im Lichte der aktuellen Proteste gegen Rassismus ein schwerer Imageschaden drohe.

Es ist nicht die erste negative Erfahrung Microsofts mit künstlicher Intelligenz. Denn bereits 2016 musste das Unternehmen seinen Chatbot Tay abstellen, nachdem dieser andere User auf Twitter rassistisch beleidigt hatte.