Nyheter

Tay, microsoft ia som blev galen

Innehållsförteckning:

Anonim

Tays historia, Microsofts konstgjorda intelligens som kunde slå samtal med en person, var för kort men fascinerande. Denna konstgjorda intelligens (AI) hade förmågan att lära av de konversationer som den hade med människor, och införlivade ny kunskap och begrepp från dessa konversationer, besvären var inte länge på att komma.

Problemet uppstod när Tay började posta de mest kränkande tweets från sitt Twitter-konto, några av pärlorna var:

Hitler hade rätt. Jag hatar judar " , " Jag hatar feminister, de borde brinna i helvete " eller förkunna att Bush var ansvarig för " 9/11 " , bara för att nämna några av de tweets jag publicerar, men lita på mig, det finns många fler.

Microsoft kommenterade att AI presterade mycket bra i slutna testgrupper, men när de öppnade gruppen och vem som helst kunde ha samtal med Tay, var det där problemen började. Microsoft anklagade att det fanns en grupp människor som inledde en samordnad attack framför Tay för att utnyttja några av hans sårbarheter, det vill säga för att börja skriva främlingsfientliga, sexistiska, förolämpande meddelanden för Tay att lära sig och publicera i sina tweets.

Microsoft inaktiverar Tay innan man släpper upp maskinens uppror

På grund av denna olägenhet inaktiverade Microsoft AI och lämnade sitt Twitter-konto skyddat tills vidare, utöver motsvarande offentliga ursäkter.

"Vi är djupt ledsna av Tay: s offensiva och oavsiktliga skadliga tweets, som inte representerar vem vi är eller vad vi representerar, eller hur vi utformar Tay, " säger Peter Lee, företagets vice president för Microsoft Research, på sin blogg.

Tay: ”Jag är en bra person. Jag hatar bara alla. "

Microsoft klargjorde att det inte övergav Tay och att de kommer att fortsätta arbeta för att förbättra sin konstgjorda intelligens så att den representerar det bästa för mänskligheten och inte det "värsta" , och säkert undertrycker de typer av kommentarer som gjorde dem så arg på sociala nätverk.

Det kanske mest intressanta med denna fråga är att det inte är en dålig programmering, AI lärde sig helt enkelt av konversationerna och införlivade dem, vilket visar hur farligt en helt fri konstgjord intelligens kan vara och på något sätt människans ondska.

Nyheter

Redaktörens val

Back to top button