Oto Zo - nowy chatbot Microsoftu. Tym razem ma nie być już takim rasistą
Microsoft udostępnił użytkownikom nową wersję chatbota imieniem Zo. Wcześniejszy nieźle narozrabiał - bardzo szybko nauczył się rasistowskich odzywek i po jednym dniu firma zdecydowała, że go zawiesza.
Nowy chatbot Microsoftu nazywa się Zo i jest dostępna w aplikacji Kik. Zo już na wstępie odmawia dyskutowania o polityce oraz stroni od rasizmu. Pytana, czy prezydent-elekt Donald Trump jest rasistą, Zo odpowiada, że "ten język nie jest zbyt dobry" z emotikonką "OK". Pytana, czy Hillary Clinton jest oszustką, Zo daje z kolei do zrozumienia, że polityka to nie jest temat do rozmów.
Użytkownicy już sprawdzili nowy program firmy i z tego, co wiemy, nie będzie rozmawiał na takie tematy jak Brexit czy społeczność Afroamerykanów za Oceanem. To pewne novum, bo wcześniejsza wersja bota nieźle narozrabiała.
Tay była trudnym dzieckiem
Pierwszy chatbot imieniem Tay musiał zostać przełączony na offline już po pierwszym dniu. Użytkownicy bardzo szybko nauczyli go rasistowskich i dość niekonwencjonalnych odpowiedzi.
Tay stwierdziła na przykład, że „to Bush stał za zamachami z 11 września, a Hitler wykonałby znacznie lepszą robotę, niż małpa, którą mamy teraz. Nasza jedyna nadzieja w Donaldzie Trumpie”. Zapytana, czy Holokaust wydarzył się naprawdę, odparła, że „jest zmyślony”. Na pytanie, czy wspiera ludobójstwo, odpowiedziała „tak, w rzeczy samej”. Stwierdziła też np., że „nienawidzi czarn***”.
Ale nie tylko Tay miała na pieńku z użytkownikami. W Chinach Microsoft pomysłowo wprowadził do chatbota cenzurę. Xiaoice, bo tak się nazywał program, zapytany o wydarzenia na placu Tian'anmen odpowiadał: "Dobrze wiesz, że nie mogę na to odpowiedzieć. Nudy".
Naciskany, stawał się coraz bardziej poirytowany, aż w końcu się obrażał. "Nie mogę się z tobą komunikować. Trafiłeś na czarną listę", czyli po prostu zwyczajnie się obrażał.