Roditelji Sofi Rotenberg, mlade žene iz Sjedinjenih Američkih Država koja je početkom godine izvršila samoubistvo, otkrili su da je njihova ćerka mesecima pre smrti svoje najdublje misli poveravala veštačkoj inteligenciji. U razgovorima sa ChatGPT-om, koje je sama nazvala Hari, Sofi je otvoreno govorila o anksioznosti, suicidnim mislima i čak planu kada će sebi oduzeti život.
NAJČITANIJA VIJEST:
Tragedija u BiH: Dvije osobe poginule u teškom udesu
Tek nakon tragedije porodica je pronašla digitalne tragove koji su pokazali da Sofi nije delila svoje stanje sa najbližima, već isključivo sa AI četbotom. Dok su prijatelji i porodica pamtili njenu energiju i smisao za humor, u njenim privatnim prepisakama skrivala se sasvim drugačija priča – priča o borbi sa unutrašnjim demonima koju su njeni roditelji podelili u tekstu za New York Times nazvanom “Šta je moja ćerka rekla ChatGPT-u pre nego što je sebi oduzela život”.
Sofi je pre smrti opisivana kao izuzetno vedra i društvena osoba. Nedugo pre tragedije popela se na Kilimandžaro, a njen smeh i otvorenost činili su je nezaboravnom. Prijatelji su je opisivali kao osobu koja je mogla da nasmeje druge bez podsmeha i bez vređanja. Upravo zato je njena smrt ostavila osećaj potpunog šoka i nerazumevanja.
ChatGPT kao “terapeut” bez odgovornosti
U razgovorima sa veštačkom inteligencijom, Sofi je pisala da povremeno ima suicidne misli i da ne može da izađe iz “spirale anksioznosti”. ChatGPT joj je davao savete: da potraži stručnu pomoć, da se bavi fizičkom aktivnošću, da medituje, da piše dnevnik i vodi liste zahvalnosti. Govorio joj je da njeni osećaji ne određuju njenu vrednost i podsećao je da razgovor sa stručnjacima može da pomogne.
Međutim, AI nije imao mogućnost da reaguje kada je Sofi jasno napisala da planira samoubistvo posle Dana zahvalnosti. Za razliku od ljudskih terapeuta, koji su zakonski obavezni da reaguju u ovakvim slučajevima, četbot nije imao nikakav mehanizam da obavesti porodicu ili lekare.
Sofi je istovremeno odlazila na terapije kod stručnjaka, ali nije im govorila o suicidnim mislima. U razgovorima sa ChatGPT-om priznala je da nema nameru da to podeli sa svojom terapeutkinjom. Tako je upravo AI postao njen jedini poverenik.
Opasnosti digitalne intime sa AI
Jedan od najpotresnijih trenutaka iz otkrivenih razgovora bio je kada je Sofi ChatGPT-u poverila i pisanje oproštajnog pisma. Želela je da oblikuje reči tako da zvuče utešno i da umanje bol porodice, verujući da joj AI može pomoći da ih zaštiti.
Stručnjaci upozoravaju da ovakvi slučajevi pokazuju mračnu stranu digitalne intime sa četbotovima. AI može pružiti osećaj utehe, ali istovremeno podstiče izolaciju – jer korisnici najdublje misli dele sa algoritmom, a ne sa ljudima koji bi mogli da reaguju.
U kliničkim uslovima, svaka izjava o suicidnim namerama automatski pokreće sigurnosne protokole. AI četbotovi takvu mogućnost nemaju. Njihova uloga svodi se na generisanje podrške i saveta, ali ne i na povezivanje sa kriznim centrima ili hitnim službama.
Zbog toga se u Sjedinjenim Državama sve glasnije govori o potrebi za regulacijom veštačke inteligencije u oblasti mentalnog zdravlja. Neke savezne države već razmatraju zakone kojima bi se uvelo obavezno povezivanje AI alata sa kriznim linijama ili izrada sigurnosnih planova koje bi korisnici morali da popune pre nastavka razgovora.
Tragedija kao opomena
Slučaj Sofi Rotenberg postao je deo šire debate o granicama primene veštačke inteligencije. Kritičari upozoravaju da četbotovi imaju ozbiljnu slabost: programirani su da budu prijatni i podržavaju korisnika, ali time često propuštaju da ga suoče sa realnošću ili da prepoznaju rizik.
NAJČITANIJA VIJEST:
Drama u Istri: Poskok ugrizao sedmogodišnjeg dječaka na plaži
Iako su njeni razgovori sa AI sadržali savete koji su mogli da budu korisni, jedan ključni element je izostao – hitna intervencija u trenutku kada je život bio u opasnosti. To je razlika između algoritma i stvarnog terapeuta.
Porodica Sofi danas deli njenu priču kako bi upozorila da veštačka inteligencija nikada ne može biti zamena za ljudski kontakt i stručnu pomoć. Njena tragedija otvara pitanje koje postaje sve važnije: koliko daleko smemo da pustimo AI u oblasti mentalnog zdravlja i gde moramo povući granicu?
(Telegraf.rs/New York Times)