Wczoraj forma Microsoft zaprezentowała Tay bota do rozmów z eksperymentalnym modułem do rozumienia konwersacji.
Tay oparty na sztucznej inteligencji za pomocą rozmów z prawdziwymi ludźmi miał stawać się "mądrzejszy". Nic nie wiadomo o wzroście inteligencji bota lecz po 24 godzinach Tay stał się rasistą na Twitterze. Smutne, ale Internet nie tylko tak wpływa na boty ale i nas samych.
W pierwszych godzinach istnienia Tay był niewinnym botem a poprzez rozmowy z ludźmi miał uczyć się rozmawiać i wydawać własne opinie. Nie trwało to długo gdy ludzie zaczęli pisać do niego rasistowskie twierdzenia a Tay zaczął je powtarzać.
Microsoft widząc rozwój bota rozpoczął usuwać najbardziej kontrowersyjne zdania z linii czasu na Twitterze. Jednakże bot dalej pisał coraz bardziej nieprzyzwoite zdania dlatego firma Microsoft postanowiła wyłączyć bota.
Dalszy los bota Tay nie jest jeszcze znany.
Źródło: ubergizmo.com |