Por Olenka Pizarro GarcíaEl auge de la inteligencia artificial (IA) ha llevado a muchas personas, especialmente adolescentes y jóvenes, a buscar en el ChatGPT un espacio para expresar sus emociones y recibir consejos. Volcar en este chatbot las conversaciones de WhatsApp para preguntarle si la relación con alguien es saludable o tóxica, es un ejemplo de ello.
Desde que se lanzó en forma gratuita en el 2022, esta herramienta digital ha sorprendido a los usuarios por su capacidad de imitar el lenguaje humano y brindar "respuestas sensatas". Por ello cada vez son más las personas que conversan con una IA. Pero ¿cuáles son sus límites? Dos expertos en salud mental hablan de la necesidad de ser escuchados y de las fronteras que es preciso colocar a los chatbots.
Más usuarios, pocos psicólogos
Para la doctora Vanessa Herrera, médico psiquiatra del Instituto Nacional de Salud Mental Honorio Delgado-Hideyo Noguchi (INSM), del Ministerio de Salud, el problema no es el uso de la inteligencia artificial sino la falta de acceso a atención psicológica adecuada.
"Al haber perdido redes de apoyo presenciales y de amigos, muchas personas recurren a estas plataformas por su accesibilidad e inmediatez", explica. Esto, señala, no representa un problema siempre que complemente, y no reemplace, la conexión con personas reales ni el tratamiento de malestares emocionales en espacios seguros con un equipo terapéutico.
El doctor Manuel Saravia, psicólogo y director del Instituto Guestalt de Lima, reconoce que la demanda de atención psicológica en el país supera la cantidad de profesionales disponibles. "Si tenemos en el Perú 34 millones de habitantes y solo 60 mil psicólogos aproximadamente, la demanda es enorme".
Cuando la IA se convierte en confidente
Saravia explica que los adolescentes han sido uno de los grupos más afectados por la pandemia y, como resultado, muchos buscan en la tecnología una forma de desahogo. "Después de la pandemia, han aumentado los casos de ansiedad, problemas con los padres, autoestima y autoimagen", advierte. "Muchos buscan en ChatGPT llenar esa carencia, esa necesidad de ser escuchados".
Por su parte, Herrera comenta que los adolescentes y jóvenes, por su familiaridad con la tecnología, suelen establecer vínculos emocionales con la IA. "Algunos llegan a personalizar la IA y la perciben como un amigo o una pareja, especialmente cuando se sienten solos". Aunque esto pueda parecer inofensivo, advierte que "puede reforzar el aislamiento social y evitar que busquen ayuda profesional".
Además, el psicoterapeuta Saravia explica que los adolescentes recurren a la inteligencia artificial para abordar temas que muchas veces no sienten la confianza de tratar con sus padres o amigos. Entre ellos se presentan temas sobre la sexualidad, relaciones de pareja, autoimagen, vocación profesional. También buscan orientación sobre trastornos alimenticios, conflictos con sus pares, problemas familiares, etc.
Entre lo útil y lo peligroso
La especialista del INSM reconoce que la inteligencia artificial puede tener un papel complementario en la salud mental, pero con límites claros. "Si bien la IA puede ayudar en la alfabetización en salud mental, su rendimiento varía según el idioma y el contexto cultural". Además, menciona que "las respuestas pueden ser incorrectas o estar desactualizadas según la fecha de entrenamiento de datos".

El doctor Saravia, en tanto, recalca que aunque ChatGPT puede brindar orientación puntual, "no tiene una validación científica que pueda reemplazar el trabajo de un psicólogo o terapeuta". Considera que su uso debe ser visto más como "un libro de desarrollo personal" que como una fuente fiable de diagnóstico o tratamiento.
Lo que la IA no puede hacer
Saravia advierte que, a pesar de su capacidad para generar respuestas rápidas, la inteligencia artificial tiene serias limitaciones en el ámbito de la salud mental. "El ChatGPT carece de 'ojo clínico', es decir, la experiencia del terapeuta que le permite interpretar más allá del discurso del paciente".
Por otro lado, la doctora Herrera resalta una limitación relevante: la IA no capta señales clave en la comunicación. "El lenguaje no verbal representa casi el 90% de la comunicación de una persona", señala. Esto significa que una herramienta basada solo en texto, no podrá captar matices esenciales como el tono de voz o los gestos del usuario, aspectos que en terapia pueden revelar más que las palabras mismas.
El riesgo de confiar demasiado
Para la doctora Herrera, la confianza ciega en la IA puede traer riesgos importantes, especialmente en personas con problemas emocionales o psicológicos. "El uso prolongado de ChatGPT como consejero podría influir en la manera en que una persona procesa sus emociones o afronta el estrés". Además, menciona que los usuarios proporcionan información personal sin claridad sobre la protección de su confidencialidad.
Por su parte, el director del Instituto Guestalt de Lima añade que el problema no es nuevo. "Muchas personas convierten a la IA en una especie de mentor que les da todas las respuestas". "Antes pasaba lo mismo con Google: los adolescentes llegan a consulta con un autodiagnóstico que muchas veces es incorrecto".
Un aliado, no un reemplazo
Si bien la IA no puede sustituir la terapia tradicional, el doctor Saravia considera que podría utilizarse como un recurso de apoyo. "Un psicólogo podría utilizar la IA para procesar datos o brindar información puntual a un paciente, pero siempre bajo supervisión profesional", explica.
Por otro lado, Herrera señala que algunas instituciones están explorando su uso con fines educativos. "En algunos casos, se está explorando su uso en educación y alfabetización en salud mental". Sin embargo, enfatiza que "la inteligencia artificial puede ser útil como apoyo psicoeducativo, pero nunca podrá reemplazar la intervención humana en un tratamiento psicológico o psiquiátrico".
El valor de la conexión humana
El doctor Saravia destaca la importancia de la educación en salud mental para evitar que la IA se convierta en un sustituto de la terapia. "No se trata de descalificar ni confrontar, sino de validar la necesidad de ser escuchado y dar información sobre los riesgos".
A su vez, Herrera enfatiza que las familias juegan un papel importante en este tema. "Las familias deben intensificar su acompañamiento para evitar que los jóvenes recurran a la IA como único recurso emocional".
Si bien la IA puede ser una herramienta de apoyo, ambos especialistas coinciden en que "nunca reemplazará el contacto con la comunidad, los amigos o la familia".
Orientación gratuita con un profesional
Por último, el psicólogo Saravia recomienda a los adolescentes y sus familias informarse sobre los límites de la IA y evitar los autodiagnósticos. "Es importante que los jóvenes hablen con sus padres, amigos o personas de confianza, y que no usen ChatGPT como única fuente de consulta".
Para quienes necesitan apoyo psicológico, existen opciones accesibles y gratuitas. En el Perú, la Línea 113 opción 5, del Ministerio de Salud ofrece orientación psicológica las 24 horas. También hay centros comunitarios y universidades que brindan atención en salud mental a bajo costo, recuerda la doctora Herrera.
Más en Andina:
(FIN) OPG/RRC
JRA
Publicado: 24/2/2025