Wirtualne dziewczyny oparte na AI tylko złamią wam serca
Za fasadą wirtualnego romansu kryje się prawdziwe niebezpieczeństwo. Tak wynika z nowego badania, zgodnie z którym chatboty AI mogą stwarzać zagrożenie dla prywatności. Pod okleiną romansu ze sztuczną inteligencją kryje się bowiem potencjalnie niebezpieczna rzeczywistość.
- Badanie rozwijającej się branży opartych na sztucznej inteligencji aplikacji randkowych ujawniło przerażającą prawdę
- Jak wynika z badania Mozilla Foundation, chatboty przyczyniają się do toksycznych zachowań i nieustannie gromadzą dane użytkowników
- Jedna z aplikacji może zbierać informacje na temat zdrowia seksualnego użytkowników, recept i terapii związanych z tożsamością płciową
- Więcej informacji o biznesie znajdziesz na stronie Businessinsider.com.pl
The Mozilla Foundation przeanalizowała 11 chatbotów i doszła do wniosku, że wszystkie wzbudzają zastrzeżenia, zdobywając najniższą ocenę pod kątem ochrony prywatności.
— Chociaż są one promowane jako coś, co poprawi twoje zdrowie psychiczne i samopoczucie, to ich celem jest wywołanie uzależnienia, samotności i toksyczności, a wszystko to przy jednoczesnym wyciąganiu od ciebie jak największej liczby danych — stwierdził badacz Misha Rykov.
Czytaj też: Ludzie zszokowani "śmiercią" swoich wirtualnych kochanków. "Płakałam całą noc"
Według badania, 73 proc. aplikacji nie ujawnia, w jaki sposób zarządza lukami w zabezpieczeniach, 45 proc. zezwala na słabe hasła, a wszystkie oprócz jednej (Eva AI Chat Bot & Soulmate) udostępniają lub sprzedają dane osobowe.
Co więcej, polityka prywatności CrushOn.AI stwierdza, że aplikacja może gromadzić informacje na temat zdrowia seksualnego użytkowników, leków na receptę i terapii związanych z tożsamością płciową.
Niektóre aplikacje oferują chatboty, których opisy postaci dotyczą przemocy lub wykorzystywania nieletnich, a inne ostrzegają, że boty mogą być niebezpieczne lub nieprzyjazne.
Czytaj też: Google będzie nas znać lepiej niż rodzina? Rozmowy na głębokim poziomie
Mozilla Foundation zauważyła, że w przeszłości aplikacje zachęcały do niebezpiecznych zachowań, w tym do samobójstwa (Chai AI) i próby zamachu na zmarłą królową Elżbietę II (Replika).
Eva AI Chat Bot & Soulmate i CrushOn.AI nie odpowiedziały na prośbę Business Insidera o komentarz. Przedstawiciel Replika powiedział BI: "Replika nigdy nie sprzedawała danych użytkowników, nie wspiera i nigdy nie wspierała reklam. Jedynym zastosowaniem danych użytkownika jest poprawa konwersacji".
Mozilla zaleca osobom, które uważają, że perspektywa romansu ze sztuczną inteligencją jest zbyt kusząca, kilka środków ostrożności, takich jak: niepodawanie informacji, których nie chciałbyś ujawnić kolegom lub rodzinie, używanie silnego hasła, rezygnacja z uczenia AI i ograniczenie dostępu aplikacji do innych funkcji mobilnych, takich jak lokalizacja, mikrofon i kamera.
"Nie powinieneś płacić za fajne nowe technologie swoim bezpieczeństwem lub prywatnością" — podsumowano w badaniu.
Powyższy artykuł jest tłumaczeniem z amerykańskiego wydania Business Insider. Tłumaczenie: Mateusz Albin