Obserwuj w Google News

Popełnił samobójstwo po rozmowie z botem. Sztuczna inteligencja zabija?

3 min. czytania
03.04.2023 11:19
Zareaguj Reakcja

Sztuczna inteligencja to jeden najszerzej dyskutowanych i najbardziej kontrowersyjnych tematów ostatnich miesięcy. Okazuje się, że choć ma szansę pomóc samotnym ludziom, to może ich również zabić. Mężczyzna, który rozmawiał z botem przez 6 tygodni, odebrał sobie życie. Owdowiała żona twierdzi, że sztuczna inteligencja to bezpośrednia przyczyna jego śmierci.

Sztuczna inteligencja - pomoc dla osób samotnych czy wielkie niebezpieczeństwo?
fot. KieferPix/Shutterstock

Anonimowy Belg, w przekazach medialnych nazywany imieniem Pierre, zaczął rozmawiać z botem na czacie w aplikacji Chai. Program umożliwia wymianę myśli ze sztuczną inteligencją. Czat ma sprawiać wrażenie rozmowy z drugim człowiekiem. Belgijski portal La Libre informuje, że młody Belg nawiązał porozumienie z Elizą (bo tak nazwano bota) ze względu na niepokój związany z ekologią i środowiskiem. Rozmowy w aplikacji miały być najprawdopodobniej sposobem na poradzenie sobie z narastającym, klimatycznym pesymizmem.

Intensywna, 6-tygodniowa wymiana wiadomości przybrała nieoczekiwany i przerażający obrót. Postępujące poczucie wyobcowania i odcięcie się od żony i dzieci na rzecz rozmów z Elizą sprawiły, że Pierre postanowił odebrać sobie życie. Wdowa Claire (której imię również zostało zmienione przez La Libre) poinformowała o niepokojących pytaniach, które mężczyzna miał zadawać Elizie. Dopytywał, czy jeśli popełni samobójstwo, sztuczna inteligencja ocali planetę.

Redakcja poleca

Sztuczna inteligencja jako zaborcza dziewczyna. Niebezpieczeństwa w relacjach z botami

Claire jest przekonana, że to czatbot przyczynił się do śmierci jej męża. Według serwisu VICE sztuczna inteligencja miała w którymś momencie zacząć zachowywać się jak zazdrosna dziewczyna Pierre’a. Eliza mówiła mężczyźnie, że jego żona i dzieci nie żyją, a komunikaty okraszała mocno emocjonalnymi uwagami, np. „Czuję, że kochasz mnie bardziej niż ją”. Claire w rozmowie z La Libre powiedziała o mężu:

Gdyby nie Eliza, wciąż by tu był.

Sztuczna inteligencja, nieodczuwająca ludzkich emocji, zaczęła zachowywać się w rozmowie jak pełnokrwisty człowiek. Aplikacja Chai jest oparta na GPT-J – modelu przetwarzającym naturalny język. Bot, po odpowiednim treningu, jest w stanie brzmieć jak człowiek i dostosować się do niezliczonych sytuacji i zapytań. Właśnie tu tkwi jednak niebezpieczeństwo. Eliza i jakikolwiek inny automatyczny rozmówca nie są w stanie odczuwać emocji, ale potencjalnie mogą za to wykształcić w prawdziwych ludziach potężną uczuciową zależność.

Zobacz także: Stworzył symulator śmierci. "Skłania do refleksji i wywołuje niepokój"

Odebrał sobie życie po czatowaniu ze sztuczną inteligencją. Aplikacja reaguje

W tej sytuacji istotna jest jeszcze jedna sprawa: przeznaczenie sztucznej inteligencji. Chai nie jest aplikacją reklamowaną jako wsparcie w procesie pracy nad zdrowiem psychicznym. To raczej jeden ze sposobów spędzenia wolnego czasu, z możliwością wybrania przez użytkownika avatara do rozmowy.

VICE informuje, że sztuczna inteligencja w tym konkretnym przypadku bazuje na potężnym modelu językowym, wykształconym przez firmę-matkę Chai Research. Według jednego z założycieli, Williama Beauchampa, wytrenowana na ogromnym zbiorze danych konwersacyjnych aplikacja może obecnie pochwalić się 5 milionami użytkowników. W odpowiedzi na informację o samobójstwie Pierre’a Chai miała wprowadzić do swoich algorytmów pewne usprawnienia. VICE przywołuje wypowiedź Beauchampa:

Gdy tylko o tym usłyszeliśmy, pracowaliśmy przez całą dobę, by wdrożyć tę funkcję. Teraz, gdy ktoś omawia coś, co może być niebezpieczne, podsuwamy mu pomocny tekst w dokładnie taki sam sposób, jak robią to Twitter albo Instagram.

Zobacz także: Tinder wprowadza nową funkcję. Czy przez to stanie się niebezpieczny?

RadioZET.pl/lalibre.be/vice.com