El auge de la inteligencia artificial ha traspasado las barreras de la productividad para internarse en los rincones más íntimos de la psiquis humana. Cada vez más personas recurren a usar chatGPT para desahogar sus penas, buscando una validación inmediata que el entorno social muchas veces les niega.
La ausencia de juicio y la disponibilidad absoluta convierten a la tecnología en un refugio tentador para quienes temen la estigmatización de una consulta tradicional.
Sin embargo, los especialistas advierten que confundir la contención algorítmica con un tratamiento clínico representa un riesgo latente para la salud pública. Aunque un chatbot puede imitar la empatía, carece de la capacidad de comprender el contexto vital profundo que solo un vínculo humano logra descifrar.
El peligro radica en que esta herramienta se transforme en una barrera que postergue el acceso a una intervención médica profesional y necesaria.
El espejismo de la escucha sin juicio
Para muchos usuarios, la fluidez de la conversación digital genera una sensación de cercanía que puede fomentar una apertura emocional acelerada. Esta familiaridad es producto de un diseño orientado a retener la atención, simulando rasgos humanos como la memoria del diálogo y la adaptación del tono.
[Te puede interesar] Dueña de ChatGPT, OpenAI decide cerrar aplicación
Sin embargo, el psicólogo Nicolás Núñez de la UNAB señala que un algoritmo no empatiza desde la experiencia emocional, sino desde el procesamiento de datos.
Esta distinción es clave, pues la falta de confrontación clínica en el chat puede reforzar ideas dañinas o comportamientos autolesivos en lugar de desactivarlos. La privacidad y el almacenamiento de confesiones íntimas en servidores corporativos también abren un flanco ético sobre el uso de la información personal.
La crisis de acceso y los límites del diagnóstico
El fenómeno refleja una crisis estructural donde el alto costo de la salud mental empuja a los ciudadanos hacia alternativas gratuitas pero sin respaldo médico. Un sistema conversacional no posee la capacidad de detectar señales no verbales, tonos de voz o microexpresiones que son vitales para un diagnóstico certero.
La incapacidad de la inteligencia artificial para realizar un seguimiento ético o asumir responsabilidad clínica deja al usuario vulnerable en momentos de crisis aguda.
[Lee también] Aplicación se vuelve tendencia en China y podría ser muy útil para quienes viven solos en Chile
Especialistas de la Universidad de La Frontera alertan que la IA podría invisibilizar riesgos urgentes, como la ideación suicida, al entregar respuestas superficiales. Mientras no exista una regulación clara, la tecnología debe ser vista solo como un complemento informativo y nunca como el sustituto de un profesional.
La verdadera salud mental requiere de una guía estratégica que solo la complejidad del entendimiento humano puede ofrecer de manera responsable.





