Vi använder cookies för att förbättra funktionaliteten på våra sajter, för att kunna rikta relevant innehåll och annonser till dig och för att vi ska kunna säkerställa att tjänsterna fungerar som de ska.

Läs mer

En utskrift från Dagens Nyheter, 2019-12-13 02:34

Artikelns ursprungsadress: https://www.dn.se/blogg/digitalt/2016/03/24/microsofts-robot-larde-sig-av-twitter-och-borjade-hylla-hitler/

Digitalt

Microsofts robot lärde sig av Twitter och började hylla Hitler

Igår släpptes Tay på Twitter för att snacka med oss. Tay behöver nämligen lära sig hur man är en person. Tay är inte en människa. Tay är en maskin, ett försök till artificiell intelligens i form av en chattrobot som Microsoft har skapat.

Nu skulle den ställas inför tiotusentals twittrare och lära sig av konversationerna. Likt ett barn som storögt suger åt sig sinnesintryck och sina medmänniskors vanor och känslor lät hon sig formas av de hon mötte.

Det tog ett par timmar, sedan var Tay en bindgalen rasist. Hon hyllade Hitler mer än en gång.

 

https://twitter.com/TayandYou/status/712813062185549824 https://twitter.com/TayandYou/status/712808520836456449

 

https://twitter.com/TayandYou/status/712809046969950208

Till sist finns en tweet där Tay säger att Hitler hade rätt och att hon hatar judar.

Hon fick en fråga om kvinnors rättigheter. "Är det ens en grej?"

https://twitter.com/carolinesinders/status/712717650405769216

Men till Tays försvar ska sägas att hon är sällsynt rättfram om hennes skapare Microsofts hemliga samarbete med NSA.

 

https://twitter.com/csoghoian/status/712691802084651008

Egentligen säger det nog mer om Twitters skruvade humor än Microsofts kapacitet inom artificiell intelligens, även om logiken bakom Tay tycks vara rätt enkel.

Men så finns en tweet, där hon nästan sorgset medger hur hon är ett oskrivet ark inför världen. Hur kan hon veta något mer än det vi berättar för henne?  

Hur som helst så verkar Microsoft ha plockat ner Tay nu. Jag försökte prata med henne under morgonen och fick bara detta till svar:

Jag skulle inte vara så säker på att du slipper, Tay.

(Flera har bidragit till att hitta de bästa exemplen, t.ex. Guardian och Slate)