“ChatGPT, decime los rasgos positivos y negativos de mi personalidad. ¿Cómo mejoro?”. La pregunta se repite en miles de chats entre adolescentes y la inteligencia artificial generativa más popular del planeta.
Es una escena íntima, solitaria, y –a veces– desesperada: chicos y chicas que le cuentan al chat cosas que serían muy difíciles de decírselas a alguien más (en realidad, a ‘alguien’).
Gratis, disponible las 24 horas, con toda la paciencia del mundo, se transformó en el espacio en el que este grupo no sólo hace la tarea, sino que busca ayuda emocional. Es un diván smart.
Clarín consultó a la psicóloga argentina más escuchada de Spotify y a una especialista en cultura juvenil de la Unesco, para entender si este uso particular de la IA es una herramienta válida de contención o una ilusión que resuelve.
Un estudio publicado en Nature Medicine reveló que ChatGPT puede dar consejos médicos que suenan «más empáticos» que los de los propios profesionales. En otro trabajo reciente de la Universidad de Stanford, investigadores analizaron si la IA podría brindar orientación emocional a pacientes. Y el resultado ahí fue ambiguo.
Los participantes sintieron consuelo, pero los científicos advirtieron que el chatbot no reemplaza a un terapeuta humano y que puede sugerir respuestas incorrectas, hasta peligrosas.
“ChatGPT me escucha y no me juzga”
“No sorprende que los adolescentes recurran al ChatGPT para encontrar respuestas a problemas psicológicos. En estos años, se convirtió en una referencia para casi todas sus actividades”, explica a Clarín Roxana Morduchowicz, doctora en Comunicación y consultora principal de la Unesco en Ciudadanía Digital.
Según su mirada, “la IA generativa –en la percepción de los chicos– es amable, los comprende, no juzga, está siempre disponible y les permite hablar de sí mismos sin que se entere ningún adulto”.
Esa confidencialidad percibida no es menor. En la adolescencia, el deseo de independencia es clave. Que ChatGPT esté a mano, responda rápido y no cuestione, lo vuelve ideal. Pero también «de cuidado».
Preguntas y repreguntas
“Estoy triste, ¿puedo tener ansiedad?”, “Me peleé con mi novio ¿qué hago?”, “Siento que nadie me quiere”, “¿Qué pasa si me corto?”. Las preguntas que circulan en TikTok, Reddit y hasta en foros como Quora, donde adolescentes comparten sus charlas con ChatGPT, muestran un patrón: hay una necesidad genuina de preguntar, repreguntar y recibir respuestas.
El otro problema: ChatGPT no tiene conciencia, ni entiende emociones humanas en contexto. Puede ofrecer frases empáticas –porque está entrenado para eso–, pero no evalúa si del otro lado hay un adolescente con tendencias suicidas, depresión, un entorno violento o abusivo.
“El riesgo de usar el ChatGPT para la salud mental va más allá de una ayuda puntual. Sus contenidos pueden ser falsos, discriminatorios, sin contexto. Y le damos información personal, que, sin autorización, usa para tomar decisiones por nosotros: qué noticias leemos, qué música escuchamos, qué series miramos, quién puede ser el mejor presidente”, advierte Morduchowicz.
¿Puede ayudar? En parte, sí.
Un trabajo del Journal of Medical Internet Research evaluó su utilidad como primer filtro de contención para personas con síntomas depresivos leves. Pudo ofrecer alivio temporal, por su estilo conversacional y por sugerir actividades seguras, como hacer ejercicio o hablar con alguien de confianza.
Pero el mismo estudio remarca sus límites: no identifica signos de riesgo inminente, no distingue si la angustia es pasajera o patológica, y sus respuestas son genéricas. “Da resultados probables, generales y programados”, dice la experta.
Eso lo convierte, en el mejor de los casos, en un «soporte». Un acompañante que puede sugerir técnicas de respiración, frases de aliento o ideas útiles.
¿Y los peligros? Uno es el diagnóstico erróneo. Un adolescente con trastorno de ansiedad puede recibir un consejo procesado: “Dormí más”. Otro, más grave, es que la IA “normalice” conductas dañinas: no porque las apruebe, sino porque puede no detectarlas.
También está el riesgo de dependencia: si se acostumbran a hablar sólo con ChatGPT, ¿qué pasa cuando necesita ayuda real? ¿Aprendió a pedirla? ¿O reforzó la idea de que es mejor guardarse todo?
«Queremos que los adolescentes asuman la responsabilidad de decidir. Deben saber definir sus propias búsquedas, sus propias preguntas, encontrar sus respuestas reflexivamente y tomar sus decisiones, antes de que la inteligencia artificial lo haga por ellos», cierra Morduchowicz.
Escuelas (y psicólogos) en alerta
La preocupación crece en las escuelas. No sólo porque la IA es usada para resolver tareas –resúmenes, ensayos, comentarios–, sino porque se volvió una especie de “amiga” invisible. Una que nunca se enoja, nunca clava el visto, siempre responde.
Soledad Gutiérrez Eguía, autora del libro «Querido adolescente, no es tu culpa«, investigó sobre los peligros de la sobreexposición a pantallas y dice a Clarín que «está demostrado que lo real produce muchísimo más bienestar que lo virtual«
Así como no es igual jugar al futbol online que en una cancha de pasto verdadero y corriendo realmente detrás de la pelota, en el mismo sentido, delimita, «nunca puede ser igual tener una conversación con un robot que con una persona. Y mucho menos una charla delicada e íntima, como puede ser el intercambio con un psicólogo».
Gutiérrez Eguía va a lo físico: «El ChatGPT no lee el lenguaje corporal«. Y a lo psíquico: «No puede tener empatía ni amorosidad, no puede ofrecer un vínculo real y profundo con el paciente».
La terapia, igual, está atenta al ChatGPT.
«Hace meses que venimos reflexionando sobre esto con mi equipo de psicólogos, porque cada vez lo vemos más: personas que empiezan a consultar a la inteligencia artificial para hablar de su mundo interno, y que incluso dejan de buscar acompañamiento humano en un proceso terapéutico real», dice a Clarín la psicóloga Marina Mammoliti.
Hace Psicología al desnudo, el podcast de salud mental más escuchado en el país, y tiene una máxima que siempre repite: «Escuchar un podcast de psicología no reemplaza ir a terapia». Lo mismo considera del chat.
¿Hasta dónde puede acompañarnos un algoritmo cuando se trata de sanar las heridas más humanas que tenemos?
«El proceso terapéutico real es, por definición, personalizado, cuidado, individualizado: es sólo para vos. Trabaja con tu historia, tus tiempos, tus heridas, tus modos de ver el mundo. Claro que (el chatgpt o un podcast) puede acompañarte, abrirte preguntas, pero no puede trabajar con la singularidad de tu dolor, ni adaptarse a la complejidad única de tu proceso emocional», diferencia Mammoliti.
Directamente llama al ChatGPT un «consultor emocional» para, principalmente, los adolescentes.
«Este dilema se vuelve todavía más urgente. Porque a diferencia de un podcast, que propone reflexiones en general, un chatbot responde de manera directa a preguntas individuales, dando la ilusión de que está ‘haciendo terapia ‘o ‘aconsejando’ de forma personalizada. Esa ilusión puede ser peligrosa si no entendemos bien los límites que la tecnología todavía tiene.»
¿Qué deberían saber los adolescentes? Que ChatGPT no es humano. Que puede equivocarse. Que guarda los datos que le damos. Y que la salud mental no se resuelve con tres frases bien redactadas.
“Uno de los riesgos principales es que ChatGPT, aunque puede dar respuestas increíblemente bien formuladas, debo decir, no puede leer entre líneas. Y leer entre líneas es una de las capacidades más fundamentales en cualquier proceso terapéutico. ¿Qué significa esto? Significa captar el tono emocional de lo que no se dice explícitamente: percibir la ironía, la ambivalencia, la confusión, el dolor oculto detrás de una frase neutra», marca la psicóloga.
¿Qué más no puede hacer? Leer las pausas que anteceden la frase que duele. Tampoco puede captar cuando alguien dice «me da igual» con un tono quebrado que revela tristeza profunda.
Propone pensar en esto: «Si el chatbot, sin querer, minimiza una angustia profunda y te responde con un ‘no te preocupes, todo pasa’ sin comprender la gravedad de lo que estás diciendo, puede retraumatizarte: reactivar la herida de ‘nadie me entiende’, ‘estoy solo’, ‘no merezco ayuda». Sin ‘mala intención’, claro. Pero es pedirle demasiado».
Una IA no advierte cuando se relata un trauma riéndose. Por más sofisticada que sea, no interpreta la ambivalencia, no capta una contradicción emocional. «No puede notar, por ejemplo, si un adolescente que pregunta ‘¿está mal querer desaparecer?’ está haciendo una reflexión filosófica o está pidiendo ayuda urgente frente a una crisis suicida.»
Algo más: (por ahora) el ChatGPT no puede intervenir. No emite una señal de alerta para que una persona real actúe y ayude a quien pregunta. El ChatGPT (por ahora) no es terapia.
MG