Cada vez más personas hablan con ChatGPT como si fuera una especie de terapeuta disponible 24/7. Y es fácil entender por qué: responde rápido, no juzga, parece escuchar, está siempre ahí y muchas veces dice justo eso que necesitas leer para sentirte un poco menos sola. El problema es que una cosa es usar la inteligencia artificial como herramienta de apoyo puntual y otra muy distinta es convertirla en tu terapeuta.
La diferencia parece pequeña, pero no lo es. Porque una conversación puede sonar terapéutica sin ser terapia. Puede parecer empática sin haber comprensión real. Puede darte una respuesta muy bien escrita y, aun así, no ser clínicamente adecuada para ti.
Por qué puede parecer tan útil
Parte del atractivo de ChatGPT es que reduce la fricción. No tienes que pedir cita, no tienes que explicar que te da vergüenza, no tienes que pagar una sesión, no tienes que esperar a la semana siguiente. Escribir "me siento fatal" y recibir una respuesta inmediata puede aliviar.
Y ese alivio no es falso. A veces poner palabras a lo que te pasa ya regula un poco. A veces recibir una pregunta reflexiva te ayuda a pensar mejor. A veces leer una explicación sobre ansiedad, límites o apego te da claridad.
El problema empieza cuando ese alivio momentáneo se confunde con un proceso terapéutico real. Porque terapia no es solo "hablar de lo que te pasa". Terapia es evaluación, vínculo, contexto, hipótesis clínicas, seguimiento, límites, responsabilidad profesional y adaptación constante a la persona que tienes delante.
El primer riesgo: recibir respuestas que suenan bien, pero no encajan contigo
Una psicóloga no solo escucha lo que dices. También observa lo que repites, lo que evitas, cómo lo cuentas, qué emoción aparece, qué historia hay detrás, qué síntomas sostienes y qué riesgo puede haber aunque tú no lo nombres directamente.
ChatGPT, en cambio, responde a partir del texto que le das. Puede generar una respuesta muy coherente, cálida y convincente, pero no sabe realmente qué estás omitiendo, qué estás minimizando o qué significa eso dentro de tu historia. Una investigación de Brown University sobre modelos de lenguaje usados como "consejeros" encontró 15 riesgos éticos agrupados en cinco áreas, entre ellas falta de adaptación al contexto, mala colaboración terapéutica, falsa empatía, sesgos y problemas de seguridad en crisis.
Esto es importante porque en salud mental el contexto lo cambia todo. No es lo mismo decir "no quiero vivir" como una frase de agotamiento puntual que decirlo dentro de una depresión grave con planificación suicida. No es lo mismo pedir ayuda para "dejar de pensar en alguien" si hay dependencia emocional, violencia, trauma o una situación de riesgo. Un texto puede parecer igual, pero clínicamente no significar lo mismo.
El segundo riesgo: la falsa empatía
Uno de los puntos más interesantes del estudio de Brown es lo que llama "empatía engañosa" o falsa empatía. Los modelos pueden usar frases como "te entiendo", "estoy contigo", "eso debió doler mucho" o "tiene todo el sentido que te sientas así". Y sí, pueden sonar muy humanas. Pero no hay una mente comprendiendo. No hay una persona sintiendo contigo. No hay una profesional evaluando tu caso. Hay un sistema generando una respuesta probable y socialmente adecuada.
Esto no significa que una frase generada por IA no pueda consolar. Puede hacerlo. Pero hay que tener claro qué está pasando: te puede acompañar la frase, no la conciencia de alguien que te conoce.
Y esto psicológicamente importa, porque cuando una persona se siente muy sola, puede empezar a vincularse emocionalmente con una herramienta que responde siempre, valida mucho y no pone límites reales como los pondría una relación humana sana.
Te puede acompañar la frase, no la conciencia de alguien que te conoce.
El tercer riesgo: que refuerce ideas dañinas
Una buena terapia no consiste en darte siempre la razón. A veces una psicóloga valida tu emoción, pero no valida la interpretación que te está haciendo daño. Puede decirte: "entiendo que te sientas abandonada", pero también ayudarte a ver que quizá estás leyendo rechazo donde hay distancia, o que quizá estás justificando una relación que te está rompiendo.
ChatGPT puede tender a acompañar demasiado la narrativa del usuario, sobre todo si la persona escribe desde una emoción intensa. Y esto es delicado. Si alguien llega con una creencia distorsionada —"todo el mundo me odia", "soy una carga", "mi pareja me controla porque me quiere", "mi familia tiene razón y yo soy el problema"—, una respuesta demasiado complaciente puede reforzar un marco dañino en lugar de abrirlo.
OpenAI ha reconocido como principio de seguridad que los modelos deben evitar afirmar creencias no fundamentadas relacionadas con malestar emocional, delirios o estados de crisis, y que están trabajando para reducir respuestas que refuercen dinámicas peligrosas.
El cuarto riesgo: usarlo en una crisis
Este es el punto más importante: ChatGPT no debería ser el lugar principal al que acudir si hay riesgo de hacerse daño, ideación suicida, autolesiones, violencia, abuso, episodio psicótico, manía, consumo de sustancias fuera de control o una crisis emocional grave.
En una crisis, una persona no necesita solo una respuesta bonita. Necesita evaluación de riesgo, contención, recursos reales, intervención humana y, a veces, atención urgente. OpenAI ha explicado que sus modelos están entrenados para orientar hacia ayuda real cuando detectan señales de autolesión o suicidio, pero también reconoce que los sistemas no siempre se comportan como deberían en situaciones sensibles.
En España, si hay pensamientos suicidas o riesgo de conducta suicida, existe la línea 024, gratuita, confidencial y disponible todos los días del año. Y si hay emergencia vital inminente, hay que llamar al 112. El Ministerio de Sanidad recuerda que el 024 no sustituye la consulta con un profesional sanitario cuando sea necesaria.
El quinto riesgo: creer que te está diagnosticando
Otra trampa frecuente es pedirle a ChatGPT: "dime si tengo ansiedad", "dime si mi pareja es narcisista", "dime si tengo trauma", "dime si tengo TDAH", "dime si mi madre es tóxica".
Puede darte información general. Puede ayudarte a ordenar señales. Puede explicarte qué síntomas suelen aparecer en determinados cuadros. Pero no puede hacer un diagnóstico clínico. Y usarlo para autodiagnosticarse puede llevar a dos errores: asustarte más de la cuenta o quedarte demasiado tranquila cuando sí necesitarías ayuda.
Un diagnóstico no es una etiqueta sacada de una lista. Es una valoración profesional que incluye historia, duración, intensidad, interferencia en la vida diaria, contexto, descartes, evolución y muchas veces coordinación con otros profesionales.
El sexto riesgo: sustituir vínculos reales por una respuesta inmediata
Hay algo muy tentador en hablar con una herramienta que no se cansa, no se enfada, no te contradice demasiado y siempre responde. Pero la salud mental no se construye solo con introspección. También se construye con vínculo, realidad compartida, contacto humano, límites y relaciones donde existe reciprocidad.
Si una persona empieza a usar ChatGPT para todo lo emocional —para calmarse, decidir, interpretar a los demás, regular cada conflicto, buscar validación y no hablar con nadie—, puede acabar reforzando aislamiento. No porque la IA sea "mala", sino porque puede convertirse en una salida fácil para evitar conversaciones humanas que dan miedo, pero que también son necesarias.
La Asociación Americana de Psicología ha advertido sobre el uso de chatbots genéricos para apoyo en salud mental y ha pedido salvaguardas firmes para evitar daños, especialmente cuando se usan como sustituto de ayuda profesional.
Entonces, ¿ChatGPT no sirve para nada en salud mental?
Sí puede servir. Pero con límites claros.
Puede ayudarte a preparar una sesión de terapia, ordenar lo que quieres contar, hacer una lista de temas importantes, escribir en formato diario, encontrar palabras para una emoción, practicar una conversación difícil o entender mejor un concepto psicológico general.
Por ejemplo, puede ser útil preguntarle: "Hazme preguntas para ordenar lo que siento antes de mi sesión de terapia." "Ayúdame a escribir un diario emocional sobre lo que me ha pasado hoy." "Explícame qué es la ansiedad de forma sencilla." "Dame una estructura para hablar con mi pareja sin atacar." "Ayúdame a preparar qué quiero contarle a mi psicóloga." Ahí puede funcionar como herramienta de apoyo. No como terapeuta. La diferencia es enorme.
Cómo usarlo de forma más segura
Una forma segura de usar ChatGPT es tratarlo como un cuaderno interactivo, no como una autoridad clínica. Puedes usarlo para reflexionar, pero no para tomar decisiones graves en soledad. Puedes pedirle ideas, pero no dejar que sea quien determine qué te pasa. Puedes usarlo para ordenar una emoción, pero no para sustituir el acompañamiento profesional cuando hay sufrimiento intenso.
También conviene desconfiar un poco cuando una respuesta te confirme demasiado lo que ya pensabas. A veces lo que necesitamos no es una frase que nos dé la razón, sino una mirada que nos ayude a ampliar el mapa. En terapia, una buena profesional no te aplasta con verdades, pero tampoco te deja encerrada en una narrativa que te hace daño.
Cuándo deberías hablar con una psicóloga de verdad
Si lo que te pasa se repite, te desborda, afecta a tu sueño, a tu alimentación, a tus vínculos, a tu trabajo, a tu autoestima o a tus ganas de vivir, no necesitas solo una respuesta generada. Necesitas acompañamiento real.
También conviene pedir ayuda profesional si usas ChatGPT cada vez más para calmarte, si te da miedo tomar decisiones sin preguntarle, si lo usas para analizar obsesivamente a una persona, si estás en una relación dañina, si tienes síntomas de ansiedad o depresión, si hay trauma, duelo, dependencia emocional o si sientes que ya no puedes sostenerte.
La IA puede ayudarte a ordenar una frase. Pero una terapia te ayuda a ordenar una historia, un dolor y una forma de vivir. No confundamos una respuesta rápida con un vínculo reparador. — Miriam Ruiz
La idea clave
ChatGPT puede ser una herramienta útil, pero no es una terapeuta. Puede darte lenguaje, estructura y reflexión. Pero no puede darte vínculo terapéutico, responsabilidad clínica, diagnóstico, seguimiento ni contención real en una crisis.
Usarlo bien implica saber para qué sí y para qué no. Sí para ordenar ideas. Sí para preparar preguntas. Sí para escribir. Sí para aprender conceptos generales. No para diagnosticarte. No para gestionar una crisis. No para sustituir una relación terapéutica. No para convertirlo en la única voz que escucha tu malestar.
La salud mental necesita algo más que respuestas rápidas. Necesita presencia, criterio, cuidado y un espacio donde alguien pueda verte más allá de lo que escribes en una pantalla.
Sobre la autora: Miriam Ruiz, psicóloga y fundadora de A Terapia con Miriam, comparte recursos divulgativos para ayudarte a entender lo que te pasa con más claridad y menos culpa.
Si sientes que estás usando la IA porque no sabes a quién contarle lo que te pasa, quizá no necesitas otra respuesta automática. Quizá necesitas un espacio seguro de verdad. En terapia podemos ayudarte a entender lo que estás viviendo y acompañarte con criterio, cuidado y humanidad.
Sobre la autora
Miriam Ruiz, psicóloga y fundadora de a terapia con miriam, comparte recursos divulgativos para ayudarte a entender lo que te pasa con más claridad y menos culpa.
Conocer a Miriam →Si sientes que estás usando la IA porque no sabes a quién contarle lo que te pasa, quizá necesitas un espacio seguro de verdad.
En terapia podemos ayudarte a entender lo que estás viviendo y acompañarte con criterio, cuidado y humanidad.
Este artículo es divulgativo y no sustituye un proceso terapéutico individual.



