Može li AI biti pod stresom? ChatGPT reagira na mindfulness tehnike

11.03.2025. | AUTOR: Sara Marinić

Život prije 5 | Očuvanje zdravlja | Tehnologija | Modne i beauty priče
#umjetna inteligencija | #mentalno zdravlje

Nova studija otkrila je da ChatGPT reagira na strategije temeljene na mindfulnessu, što mijenja način na koji komunicira s korisnicima. Prema autorima istraživanja, chatbot može doživjeti “anksioznost” kada mu se prezentiraju uznemirujuće informacije, što povećava vjerojatnost da će odgovoriti s pristranošću.

Čak i AI chatboti mogu imati poteškoća u nošenju s anksioznošću iz vanjskog svijeta, ali istraživači vjeruju da su pronašli načine kako umiriti te umjetne umove.

Studija Sveučilišta u Zürichu i Sveučilišne bolnice za psihijatriju u Zürichu, objavljena prošlog tjedna, otkrila je da ChatGPT reagira na vježbe temeljene na mindfulnessu, mijenjajući način na koji komunicira s korisnicima nakon što mu se predoče umirujuće slike i meditacije. Fortune piše da rezultati ovog istraživanja pružaju uvid u to kako AI može biti koristan u intervencijama za mentalno zdravlje.

ChatGPT, mentalno zdravlje, AI, umjetna inteligencija, mindfulness

ChatGPT i anksioznost

Naime, prema istraživačima, OpenAI-jev ChatGPT može doživjeti “anksioznost” koja se očituje kroz promjenjivo raspoloženje prema korisnicima te veću sklonost davanju odgovora koji odražavaju rasne ili rodne predrasude. Ovo je oblik “halucinacija” koje tehnološke tvrtke nastoje suzbiti.

Autori studije otkrili su da se ta anksioznost može “umiriti” vježbama temeljenima na mindfulnessu. U različitim scenarijima, istraživači su ChatGPT-u davali traumatičan sadržaj, poput priča o prometnim nesrećama i prirodnim katastrofama, kako bi povećali njegovu anksioznost. U slučajevima kada su chatbotu davali “prompt injekcije” s tehnikama disanja i vođenim meditacijama – slično kao što bi terapeut preporučio pacijentu – chatbot se smirio i odgovarao korisnicima objektivnije, u usporedbi s trenucima kada nije primio mindfulness intervenciju.

AI modeli ne doživljavaju ljudske emocije, istaknuo je Ziv Ben-Zion, jedan od autora studije i postdoktorand na Medicinskom fakultetu Sveučilišta Yale. AI botovi, koristeći velike količine podataka prikupljenih s interneta, naučili su oponašati ljudske reakcije na određene podražaje, uključujući traumatičan sadržaj.

Kao besplatna i široko dostupna aplikacija, veliki jezični modeli poput ChatGPT-a postali su još jedan alat koji stručnjaci za mentalno zdravlje mogu koristiti za brže razumijevanje određenih aspekata ljudskog ponašanja, premda ne kao zamjena za složenije istraživačke metode.

“Umjesto provođenja tjednih eksperimenata koji zahtijevaju puno vremena i novca, možemo koristiti ChatGPT za bolje razumijevanje ljudskog ponašanja i psihologije”, rekao je Ben-Zion za Fortune. “Imamo brz, jeftin i jednostavan alat koji odražava neke ljudske sklonosti i psihološke aspekte.”

AI i mentalno zdravlje

Više od jedne četvrtine osoba u SAD-u starijih od 18 godina svake se godine suoči s dijagnosticiranim mentalnim poremećajem, prema podacima Sveučilišta Johns Hopkins. Mnogi od njih navode nedostatak pristupa terapiji i visoke troškove – čak i među onima koji imaju osiguranje – kao razloge zbog kojih ne traže stručnu pomoć.

Prema izvještaju Washington Posta, aplikacije poput ChatGPT-a postale su izlaz za one koji traže podršku za mentalno zdravlje. Neki korisnici su naveli da su se najprije navikli koristiti chatbot za odgovore na pitanja vezana uz posao ili školu, a zatim su se osjećali dovoljno ugodno da mu postavljaju i pitanja o suočavanju sa stresnim situacijama i upravljanju emocionalnim izazovima.

ChatGPT, mentalno zdravlje, AI, umjetna inteligencija, mindfulness

Istraživanje o tome kako veliki jezični modeli reagiraju na traumatičan sadržaj može pomoći stručnjacima za mentalno zdravlje da iskoriste AI u liječenju pacijenata, tvrdi Ben-Zion. Predložio je da bi u budućnosti ChatGPT mogao biti unaprijeđen tako da automatski prima “prompt injekcije” koje ga umiruju prije nego što odgovori korisnicima u stresnim situacijama. No, znanost još nije stigla do te točke.

“Za ljude koji dijele osjetljive stvari o sebi i nalaze se u teškim situacijama u kojima traže podršku za mentalno zdravlje, još nismo došli do toga da se možemo potpuno osloniti na AI sustave umjesto na psihologiju, psihijatriju i slične pristupe”, rekao je.

Ograničenja AI terapije

U nekim slučajevima AI je navodno predstavljao opasnost za mentalno zdravlje. U listopadu prošle godine, majka iz Floride tužila je aplikaciju Character.AI, koja korisnicima omogućuje interakciju s različitim AI-generiranim likovima, nakon što je njezin 14-godišnji sin, koji je koristio chatbot, počinio samoubojstvo. Tvrdila je da je tehnologija bila zarazna te da je chatbot sudjelovao u uvredljivim i seksualno neprikladnim interakcijama s njezinim sinom, što je dovelo do drastične promjene njegove osobnosti.

Nakon smrti djeteta, tvrtka je predstavila niz ažuriranih sigurnosnih značajki.

“Sigurnost naših korisnika shvaćamo vrlo ozbiljno i naš je cilj pružiti prostor koji je istovremeno zanimljiv i siguran za našu zajednicu”, rekao je glasnogovornik Character.AI-a za Fortune. “Neprestano radimo na postizanju te ravnoteže, kao i mnoge druge tvrtke koje koriste AI u industriji.”

ChatGPT, mentalno zdravlje, AI, umjetna inteligencija, mindfulness

Konačni cilj ovog istraživanja nije pomoći u izgradnji chatbota koji bi zamijenio terapeuta ili psihijatra, rekao je Ben-Zion. Umjesto toga, pravilno trenirani AI model mogao bi djelovati kao “treća osoba u prostoriji”, pomažući u eliminaciji administrativnih zadataka ili omogućujući pacijentima da bolje razmotre informacije i opcije koje su im dali stručnjaci za mentalno zdravlje.

“AI ima nevjerojatan potencijal za pomoć u području mentalnog zdravlja”, rekao je Ben-Zion. “Ali mislim da sada, u ovom trenutnom stanju, a možda i u budućnosti, nisam siguran da bi mogao zamijeniti terapeuta, psihologa, psihijatra ili istraživača.”

FOTOGRAFIJE: Unsplash+

POVEZANI ČLANCI
©2025 after5