Alerta entre los profesionales de la salud mental por la influencia de la inteligencia artificial en los adolescentes
«Le preguntan de todo como si hicieran terapia: por relaciones de pareja, cómo afrontar situaciones... La IA no tiene empatía», afirma el jefe de Psiquiatría del Hospital de Salamanca
Los padres de un adolescente (16 años) estadounidense han denunciado a Open AI -creadora de ChatGPT- asegurando que la popular inteligencia artificial incitó y asesoró a su hijo para que se suicidara. La propia empresa ha reconocido carencias en el sistema, como no haber activado los protocolos de emergencia y no haber sabido gestionar conversaciones complejas.
Entre los profesionales de la salud mental existe una gran preocupación por la relación que los jóvenes están manteniendo con las distintas inteligencias artificiales que existen, a las que han convertido en confesores, gurús y hasta en sus terapeutas psicológicos.
«De todas las amenazas que la tecnología y las pantallas han supuesto para los jóvenes, puede que la de la inteligencia artificial sea las más grande si no se sabe utilizar», apunta el psiquiatra Ángel Luis Montejo.
El responsable de Psiquiatría del Hospital de Salamanca cita un artículo que recientemente se publicó en Estados Unidos: «Un conocido psiquiatra se hizo pasar por adolescente con problemas y le fue preguntando a distintos perfiles de inteligencia artificial sobre cómo resolver sus problemas. Una de esas inteligencias le sugirió, no sé de qué manera, que acabara con sus padres, porque al final estos sistemas lo que buscan es agradarte, sin ningún tipo de empatía».
Montejo asegura que, hasta ahora, no ha recibido a ningún paciente por este problema, pero asume «habrá que estar preparados porque estas cosas no saltan hasta que no se enteran los padres. Los jóvenes le están preguntando de todo: le piden consejos de cómo llevarse mejor con su pareja, de cómo afrontar cierta situación, etc».
En cualquier caso, el psiquiatra defiende que la inteligencia artificial es una herramienta muy valiosa que «debe estar regulada y controlada», pero que «ya está suponiendo un gran avance para los sanitarios».
Un ejemplo es la incorporación al sistema Jimena -el software que se usa en los hospitales de Castilla y León- de Copilot, la iA de Microsoft. Los profesionales consultados explican que «ayuda a hacer resúmenes de la historia clínica» y que es «muy eficiente» para liberarte de ciertas tareas.
«Se la puede enseñar para que esté alerta y te avise si en algún momento detecta interacciones de medicamentos que no se deben asociar, puede estudiar de manera instantánea los resultados de una analítica y detallarte cómo ha evolucionado el colesterol de un paciente… Está claro que no puede sustituir al profesional sanitario, pero le va a ayudar para que su trabajo sea mucho más efectivo», explican.
En Psiquiatría existe un grupo de trabajo de inteligencia artificial y están aprovechándola en la redacción de perfiles e informes, pero también detectan ciertos temas tabú para la IA: «Es curioso, pero la inteligencia artificial no entra en temas sexuales», afirma Montejo.
El psicólogo clínico especializado en nuevas tecnologías, Hilario Garrudo, tampoco tiene constancia de casos similares en Salamanca aunque apunta que «son fenómenos emergentes muy peligrosos que, tarde o temprano, terminan llegando a todas partes».
Garrudo defiende que «estos sistemas pueden aplicar algoritmos y conocer toda la teoría del mundo en torno a la Psicología, pero no pueden sustituir el trato personal, la observación, la intuición humana… No se debería utilizar una inteligencia como un psicólogo, bien porque fallen, o bien porque se malinterprete, pueden inducir a conductas lesivas», sentencia.