Sari la conținut

Experții din domeniul medical avertizează asupra riscurilor tot mai mari pe care le aduce Inteligența Artificială

inteligenta emotionala
Imagine de Gerd Altmann de la Pixabay
Inteligenta emotionala

Experții din domeniul medical avertizează asupra riscurilor tot mai mari pe care le aduce Inteligența Artificială. Un pericol major al IA are legătură cu modul în care este utilizată frecvent de adolescenți.

 

Oricine folosește Snapchat are acum acces gratuit la My AI, chatbot-ul de inteligență artificială încorporat în aplicație, lansat in februarie ca funcție plătită. Experții în sănătate consideră că IA are potențialul de a reduce anumite lacune din sănătatea mintală, dar avertizează asupra riscurilor uriașe, potrivit FoxNews.

 

Chabot-ul de IA poate avea câteva scopuri practice, cum ar fi oferirea unor sfaturi pentru cumpărarea cadourilor, planificarea călătoriilor, sugerarea rețetelor și răspunsul la întrebări de cunoștințe generale, potrivit Snap. Cu toate acestea, deși nu este considerată o sursă de consiliere medicală, unii adolescenți au apelat la My AI pentru asistență în domeniul sănătății mintale, alertându-i pe medici.

 

Ce spun cei care au folosit IA pe post de ”psiholog”

 

Un utilizator My AI a scris pe Reddit: „Răspunsurile pe care le-am primit au fost valide, reconfortante. Au fost sfaturi reale, care mi-au schimbat perspectiva într-un moment în care mă simțeam copleșit și stresat. Da, nu este om, dar cu siguranță se apropie destul de mult (și în unele cazuri mult mai bine!)”. Alți utilizatori sunt mai sceptici. „Răspunsurile de la IA sunt prietenoase, dar apoi îți dai seama că nu este o persoană reală”, a scris un utilizator. ”Este doar un program, doar linii și linii de cod. Asta mă face să fiu cam trist. Practic, invalidează toate lucrurile frumoase pe care le spune”, a comentat un altul.

 

Riscuri majore

 

Unii medici cred că chatbot-ul poate ajuta, pe ici pe colo, la susținerea bunăstării mintale generale, pe fondul deficitului de specialiști la nivel național. „Soluțiile bazate pe tehnologie pot fi o cale de a întâlni indivizi, de a îmbunătăți accesul și de a oferi  ponturi legate de utilizarea și identificarea tiparelor de limbaj sau de comportament online, care pot indica o problemă de sănătate mintală”, explică medicul psiholog. Zachary Ginder din California. „Acest acces direct la informații precise privind sănătatea mintală și la indicații adecvate nu poate ajuta însă la normalizarea sentimentelor”, a adăugat el.

 

Avertismente pe bandă rulantă

 

Medicul psihiatru Ryan Sultan, profesor de cercetare la Universitatea Columbia din New York și director medical al Integrative Psych NYC, tratează mulți pacienți tineri și nu-și face iluzii cu privire la rolul IA în ceea ce privește sănătatea mintală. „Pe măsură ce această tehnologie se îmbunătățește, pe măsură ce simulează o relație interpersonală, unii oameni pot începe să perceapă IA ca  pe o relație interpersonală predominantă în viața lor”, afirmă el. „Cea mai imortantă întrebare pe care trebuie să ne-o punem acum, ca societate, este: chiar e bine să facem asta?” , adaugă medicul.

 

Folosesc IA pentru că nu vreau să deranjez oamenii adevărați

 

„Folosesc IA pentru că sunt singur și nu vreau să deranjez oamenii adevărați”, a spus o persoană pe Reddit.

Unii utilizatori au recunoscut că, pe măsură ce folosesc tot mai mult chatbot-uri IA, au început să înlocuiască și conexiunile umane. Dr. Sultan crede că adolescenții pe care îi tratează au opinii diferite despre My AI Snapchat. „Unii au spus că este destul de limitată și oferă doar informații generale care ar putea fi găsite dacă ați căuta pe Google”, a explicat el. „Alții au spus că li se pare înspăimântător. Este ciudat să ai de-a face cu o persoană care nu răspunde la întrebări personale într-un mod personal. În plus, nu acceptă ideea că un gigant tehnologic poate deține date despre sănătatea mintală personală a unei persoane”, adaugă el.

 

Riscul de dezinformare

 

Riscul de dezinformare pare a fi o preocupare majoră în rândul specialiștilor. Testând ChatGPT, modelul de limbaj care alimentează My AI, Dr. John Ginder a descoperit că uneori acesta a oferit răspunsuri inexacte sau complet fabricate. „Există riscul de a trimite specialiștii și adolescenții cu probleme pe căi de evaluare și tratament total inadecvate nevoilor lor”, a avertizat el. „Se constată o creștere semnificativă a autodiagnosticării inexacte ca urmare a folosirii IA sau a rețelelor sociale”, a spus el. „Adolescenții par a fi mai sensibili la această tendință de auto-diagnosticare. Din păcate, are consecințe în lumea reală”, avertizează el.

 

Informațiile prezentate în acest website au caracter informativ și nu înlocuiesc diagnosticul medical sau prospectul produselor. Orice decizie privind sănătatea dumneavoastră trebuie luată doar în urma consultării medicului.

Doctorul zilei whatsapp channel