 Wczoraj forma Microsoft zaprezentowa�a Tay bota do rozm�w z eksperymentalnym modu�em do rozumienia konwersacji.
Tay oparty na sztucznej inteligencji za pomoc� rozm�w z prawdziwymi lud�mi mia� stawa� si� "m�drzejszy". Nic nie wiadomo o wzro�cie inteligencji bota lecz po 24 godzinach Tay sta� si� rasist� na Twitterze. Smutne, ale Internet nie tylko tak wp�ywa na boty ale i nas samych.
W pierwszych godzinach istnienia Tay by� niewinnym botem a poprzez rozmowy z lud�mi mia� uczy� si� rozmawia� i wydawa� w�asne opinie. Nie trwa�o to d�ugo gdy ludzie zacz�li pisa� do niego rasistowskie twierdzenia a Tay zacz�� je powtarza�.
Microsoft widz�c rozw�j bota rozpocz�� usuwa� najbardziej kontrowersyjne zdania z linii czasu na Twitterze. Jednak�e bot dalej pisa� coraz bardziej nieprzyzwoite zdania dlatego firma Microsoft postanowi�a wy��czy� bota.
Dalszy los bota Tay nie jest jeszcze znany.
�r�d�o: ubergizmo.com |