Kod kojih pitanja o deci AI može da pomogne roditeljima, a koji odgovori veštačke inteligencije mogu da budu opasni

Foto: Unsplash/helena-lopes

Kada koristiti AI za savete o roditeljstvu, a kada to može imati opasne posledice

Sve više roditelja danas se obraća čet-botovima zasnovanim na veštačkoj inteligenciji sa pitanjima o odgajanju dece, recimo – da li je temperatura mog deteta kritično visoka, pa moramo kod lekara, kako da se nosim s tantrumima mog mališana…

Zaista važne odgovore, naročito one koji se tiču zdravstvene nege, treba strogo i temeljno proveriti, kaže za CNBC Kalisa Lesli Miler, istraživačica i doktorantkinja kliničke dečje psihologije na Univerzitetu Kanzas.

„Ne radi se o tome da ne možete da se obratite većtačkoj inteligenciji. Ali morate da proveravate ono što AI daje kada su u pitanju kritičnije odluke“, kaže Lesli Miler.

Ona je inače bila glavna istraživačica studije iz 2024. godine pod nazivom „The critical need for expert oversight of ChatGPT: Prompt engineering for safeguarding child healthcare information“.

Ta studija, u kojoj je učestvovalo 116 roditelja različitih profila, pokazala je da je većina učesnika imala teškoća da razlikuje sadržaj o dečjem zdravlju koji je generisao AI čet-bot od sadržaja koji su napisali zdravstveni radnici.

U nekim slučajevima roditelji koji nisu bili svesni da je deo sadržaja generisan uz pomoć AI rekli su da su im saveti čet-botova delovali tačnije nego oni koje su dali ljudski stručnjaci, navodi Lesli Miler, koja je rezultate opisala kao zaista prilično zastrašujuće.

„Mogućnost da se postavljaju pitanja niskog rizika veoma brzo jedna je od prednosti AI i oblast u kojoj je prikladnije koristiti je. Ali u situacijama sa većim rizikom, poput odluka o lekovima ili hitnih simptoma, neophodna je profesionalna medicinska procena“, kaže ona.

Neka od tih pitanja manjeg rizika mogu da uključuju opšte zdravstvene smernice, pitanja koja bi roditelj trebalo da postavi pedijatru na godišnjem pregledu deteta ili ideje za planiranje obroka prilagođenih deci i druženja, objašnjava Lesli Miler.

AI alati mogu da pronađu i sažmu ogromne količine informacija o širokom spektru tema, napominje Lesli Miler. Međutim, oni su takođe skloni greškama, takozvanim halucinacijama, koje mogu doprineti širenju dezinformacija ako se ne proveravaju na odgovarajući način.

„Potrebno je više istraživanja kako bi se razumeo uzrok ovih rezultata“, navela je kompanija OpenAI, developer ChatGPT-ja, u istraživačkom radu iz aprila 2025. godine, jednom od mnogih pokušaja AI developera da otkriju uzroke i potencijalna rešenja za te greške.

Foto: Unsplash/michal-balog

Kada je reč o pitanjima o zdravlju vašeg deteta, naročito u hitnim situacijama, moguće je da brzo reagujete i postupite po AI savetu bez prethodne provere. Međutim, ako taj savet sadrži greške, čak i ako na prvi pogled zvuči ispravno, oslanjanje na njega može imati opasne posledice, navodi se u studiji čiji je Lesli Miler koautor.

I drugi stručnjaci kažu da se preporuke generisane uz pomoć AI u hitnim ili kritičnim situacijama proveravaju sa zdravstvenim radnikom. To može značiti da se direktno obratite lekaru ili drugom zdravstvenom profesionalcu, kaže Lesli Miler.

Takođe možete proveriti izvore koje neki čet-bot navodi kako biste se uverili da su njegovi odgovori potkrepljeni pouzdanim zdravstvenim stručnjacima i institucijama. Lesli Miler preporučuje izvore poput American Academy of Pediatrics, Centers for Disease Control and Prevention, National Institutes of Health, kao i svaku veliku dečju bolnicu ili naučni rad koji je prošao stručnu recenziju.

„Trenutno smo još uvek u fazi u kojoj sve što je važno morate dodatno da proverite i da se uverite da se pozivaju na kredibilne izvore“, rekla je ona.

Takođe treba imati na umu da se AI alati obično ne ažuriraju u realnom vremenu, što znači da saveti čet-bota mogu biti zastareli, kako je navedeno u smernicama koje je Yale University School of Medicine objavio u januaru 2024. godine.

***

Pratite nas i na društvenim mrežama:

Facebook

TikTok

Instagram