“No puede reemplazar el vínculo humano”: advierten sobre los riesgos de usar IA como psicólogo

La Lic. Procopio Gimena, psicóloga clínica, habló con Diario Móvil sobre el creciente uso de chats de inteligencia artificial para tratar temas emocionales. Alertó sobre una tendencia preocupante: 'No todo lo que responde un algoritmo es contención'.

Interés General
Licenciada
Licenciada

El avance de la inteligencia artificial (IA) transformó múltiples aspectos de la vida cotidiana: desde cómo trabajamos hasta cómo nos comunicamos. Pero en los últimos meses, una tendencia creciente encendió señales de alarma en el ámbito de la salud mental: muchas personas están recurriendo a chats con inteligencia artificial para obtener consejos emocionales e incluso “realizar terapia”.

Para comprender los alcances de este fenómeno, Diario Móvil entrevistó a la Lic. Procopio Gimena, psicóloga clínica, quien desde San Juan analiza con preocupación esta creciente sustitución del acompañamiento terapéutico por chats automatizados.

- ¿Qué percepción tiene sobre esta tendencia de consultar a la inteligencia artificial como si fuera un psicólogo?

"Es una tendencia que nos preocupa profundamente. Muchas personas, sobre todo adolescentes y adultos jóvenes, están interactuando con herramientas de IA como si fueran terapeutas. El problema es que, aunque la IA pueda “responder” de manera amable o lógica, no puede leer emociones reales, ni comprender el contexto ni el sufrimiento desde una perspectiva clínica. Hay una gran diferencia entre hablar con un sistema programado y ser escuchado por un ser humano capacitado para sostener, interpretar y acompañar".

-¿A qué cree que se debe esta elección por parte de la gente?

"A varios factores. Por un lado, el fácil acceso y la rapidez. Muchas personas buscan alivio inmediato, sin compromiso ni exposición emocional. La IA ofrece respuestas rápidas y sin juicio, lo que a veces se confunde con comprensión. También hay desinformación sobre lo que es una terapia y un prejuicio persistente: aún hay quien cree que ir al psicólogo es solo para “casos graves” o porque “estás loco”, cuando en realidad es un espacio para el bienestar integral".

-¿Qué riesgos puede implicar usar IA como si fuera un psicólogo?

"Hay varios. El más importante es el riesgo de minimizar el sufrimiento emocional. Un asistente virtual no puede detectar signos de alarma como pensamientos suicidas, violencia, trauma o crisis. Otro riesgo es el aislamiento: cuando alguien se convence de que no necesita ayuda profesional porque “el bot lo entendió”, está postergando un proceso real de sanación. Y por supuesto, está el peligro de recibir consejos erróneos o fuera de contexto, que pueden empeorar una situación en lugar de mejorarla".

-¿La IA puede tener algún rol en salud mental?

"Sí, como recurso complementario. Puede difundir información responsable, brindar ejercicios básicos de respiración, o ser un primer paso para alguien que no se anima a consultar. Pero nunca debe reemplazar el vínculo terapéutico, que es lo que transforma. El encuentro con un otro real, la escucha sin juicios y el trabajo conjunto en el proceso terapéutico no se pueden automatizar".

-Según estimaciones recientes, entre un 25% y 30% de los usuarios digitales en San Juan han interactuado con inteligencia artificial para resolver dudas, obtener consejos o realizar búsquedas relacionadas con su bienestar emocional. ¿Cree que este nivel de uso puede influir en la percepción de que estas herramientas son suficientes para abordar la salud mental?

"Sí, sin dudas ese porcentaje refleja una realidad en crecimiento. Cuando uno de cada cuatro usuarios ya está interactuando con inteligencia artificial en temas vinculados al bienestar emocional, eso empieza a moldear la percepción social de lo que es “ayuda”. Muchas personas, sobre todo en contextos donde el acceso a la salud mental es limitado o hay estigmas, pueden ver en la IA una solución accesible, rápida y sin exposición. El problema es que, al no haber una orientación adecuada, eso refuerza la idea de que hablar con una máquina es suficiente, cuando en realidad estamos dejando de lado la profundidad, la historia personal y el sostén emocional que solo puede ofrecer un profesional humano".

-¿Qué le diría a quienes hoy sienten que “hablar con la IA” es suficiente para sentirse mejor?

"Entiendo que muchas personas estén buscando formas accesibles y rápidas de sentirse acompañadas, y no está mal explorar nuevas herramientas. Pero es importante recordar que el sufrimiento emocional necesita algo más que una respuesta automática: necesita un otro presente, real, que escuche, comprenda y sostenga. La empatía genuina, el análisis profundo y la contención emocional son capacidades humanas que solo un profesional entrenado puede brindar. La salud mental merece un espacio cálido, seguro y profesional. Nadie debería atravesar sus dificultades sintiéndose solo frente a una pantalla".


Mientras la tecnología avanza, el cuidado de la salud mental sigue requiriendo una mirada humana. Como señala la Lic. Procopio, “la IA puede ser una herramienta, pero nunca un reemplazo del vínculo que sana”.

Te puede interesar
Lo más visto