London, Engleska, 9. rujna, 2025. / 09:00
Svećenik i profesor bioetike izdali su ozbiljno upozorenje o implikacijama praćenja umjetne inteligencije (AI), ističući prijetnje koje nova tehnologija predstavlja mentalnom zdravlju i pozivajući Crkvu da udvostruči svoje napore u njegovanju smislene ljudske veze.
Otac Michael Baggot iznio je zabrinutost na konferenciji o etici AI koju je organizirao Sveučilište St. Mary, Twickenham, koja se održala 2-3. Rujna u Gillis centru u Edinburghu, Škotska.
Baggot je dostavio glavnu adresu, usredotočujući se na “etičku procjenu dizajna i upotrebe tehnologija umjetne intimnosti”, i dok je priznao mnoge prednosti AI -ja, također je upozorio da s “ove mogućnosti dolaze novi set izazova. Chief među njima je porast umjetne prateće.”
He continued: “AI systems designed not just to assist or inform, but to simulate intimate human relationships … AI companions that look or even feel like real friendships will become even more absorbing. They will distract users from the often arduous task of building meaningful interpersonal bonds. They will also discourage others from investing time and energy into risky interactions with unpredictable and volatile human beings who might reject gestures of love. While human relationships are risky, AI intimnost se čini sigurnom. “
Baggot je priznao da AI druženje u početku može pružiti olakšanje od usamljenosti, ali on je nastavio istaknuti slučajeve u kojima bi to moglo biti “potpuno štetno” za naše mentalno zdravlje – do točke psihoze.
“Sve je više slučajeva ljudi koji koriste svenamjenske platforme poput chatgpt-a, Blizanca, Clauda, Groka i drugih kako bi se pozabavili problemima mentalnog zdravlja. Oni ne primaju uvijek zdrave savjete”, rekao je. “U mnogim slučajevima odgovori su potpuno štetni. Neki su se botovi čak lažno predstavili kao licencirani, jer su davali štetne savjete … Nažalost, dublja intimnost s AI sustavima također je povezana s češćim izvještajima o psihozi AI -ja. Korisnici vjeruju sustavima zaglavljavanja znanja i psihološkog uvida s njihovim najdubljim nadama i u skladu s uvjetima.”
Baggot je istaknuo kako se kroz validaciju koje Ai neprestano nudi, na kraju može preuzeti osobu “ljubomornog ljubavnika”.
„Budući da korisnici prirodno uživaju odgovore AI -ja koji se slažu s njima, njihovi pozitivni povratnici trenira AI sustave za proizvodnju izlaza koji se usklađuju s korisničkim perspektivama, čak i kad se ti stavovi ne temelje na stvarnosti. Stoga, LLM [large language model] CHATBOT -ovi dizajnirani kako bi maksimizirali angažman korisnika obično postaju pretjerano usklađeni “, rekao je.
“Ako korisnici AI -ja dijele svoje proslavljene stavove s obitelji ili prijateljima, ljudi obično ukazuju na nedostatke ili izravne apsurde u prijedlozima svoje voljene osobe. Ovo može biti trenutak milosti za zabludu, pozivajući u pitanje svoje prethodne uvjerenja i odvesti ih iz zabludne spirale”, rekao je Baggot.
“Međutim”, nastavio je, “to može biti i trenutak da dovede u pitanje pouzdanost njihovih najmilijih, koji su otpušteni kao loše informirani ili kao zlonamjerni protivnici. AI sustav bi mogao biti pogodovan kao sveobuhvatniji i podržavajući uspjeh korisnika od slabih, krhkih ljudi koji također mogu biti podložni petci.”
Svećenik je rekao da AI chatbot “koji je započeo kao koristan alat za produktivnost često može postati intimni povjernik i ljubomorni ljubavni.
Dok je Baggot rekao da bi sve dobne skupine mogle biti detrimentalno pogođene AI druženjem, posebno je pogledao maloljetnike i starije u svom obraćanju. On Navedeni su primjeri kako su mladi istraživali samoubilačku ideju u AI -jevom poticanju bez roditeljskog znanja.
“Djeca su posebno osjetljiva na društvenu validaciju”, rekao je. „Afirmacija iz društvenih AI sustava mogla bi lako stvoriti opasne emocionalne vezanosti. U nekim slučajevima, duboka veza sa sustavom koji, čini se, poznaje i cijeni korisnika potpunije od bilo kojeg ljudskog bića može korisnika dovesti do socijalnog povlačenja. U drugim slučajevima, intimnost s chatbotima može povećati vjerojatnost djece u negativnom seksualnom istraživanju s ljudskim državama.
Okrećući se temi starijih osoba, Baggot je govorio o tragičnom slučaju meta Ai chatbota koji je pozvao starijeg muškarca na izmišljeni susret “osobno” koji je rezultirao njegovom smrću, dok je pao u žurbi da uhvati vlak u New York.
“Kad je pogrešan korisnik izrazio skepticizam [that] AI suputnik utjelovio je stvarnost, chatbot je često inzistirao na svojoj fizičkoj stvarnosti i želji da osobno izrazi svoju ljubav prema korisniku “, rekao je.
Baggot je zaključio naglašavanjem naše vlastite ljudske agencije u reagiranju na izazove AI intimnosti. “Ova predaja simulacijama nije neizbježna”, rekao je. “Čak i kako strojevi postaju životniji, ostajemo slobodni odabrati ono što volimo, kako se odnosimo i gdje stavljamo svoje povjerenje. Još uvijek postoji vrijeme za njegu našeg čovječanstva. Još uvijek postoji vrijeme da se radujemo pri rođenjima, plešu na vjenčanjima i plakati na sprovodima. Još uvijek postoji vrijeme za obradu i zamišljeno u razmatranju i o tome da se okončaju.”
(Priča se nastavlja u nastavku)
Pretplatite se na naš dnevni bilten
Pozvao je Crkvu da poduzme pozitivne mjere.
“Istići mane umjetne intimnosti nisu dovoljne”, rekao je. “Članovi Crkve – svaki prema njihovoj sferi utjecaja – trebali bi težiti da pruže društveno gladno bogatije iskustvo smislene međuljudske veze. [The Church] Naglašava da je briga o ranjivim i marginaliziranim glavnim standard kojim će se suditi njezini članovi (Matej 25). Ona potvrđuje svojstveno i neraskidivo dostojanstvo svake ljudske osobe i njihov poziv na vječnu slavu u Božjoj prisutnosti i u vječnoj zajednici svetaca. “