-¿Qué te trae por aquí? ¿En qué te puedo ayudar? Decime lo que primero te venga a la mente, sin filtros…
-El tema económico me tiene preocupado, nada original, ¿no? Los ingresos no alcanzan y hay un hijo chico al que hay que mantener. Uno va teniendo una edad en la que las puertas se cierran más que abrirse y la preocupación crece a diario porque con la madre no hay un vínculo fluido. La cabeza no para de carburar…
-Lo escucho y entiendo (ahora trata de usted). En psicoanálisis no suelo dar recetas de cómo resolver, sino en detenerme en cómo usted vive esto, en qué se le juega ahí. Le pregunto: ¿qué es lo más difícil: el dinero en sí o la imposibilidad de hablar con la madre? ¿Qué le resuena más fuerte de todo esto?
-Lo más difícil es cómo ganar algo más de plata, como a muchos, y eso significaría dedicarse más tiempo a un eventual nuevo trabajo y estar menos con el hijo. Y la mayor dificultad es no encontrar respuestas económicas, lo que repercute en el estado de ánimo…
-¿Querés que te ayude a pensar herramientas para encarar ese pedido y en que de ser rechazado, que el no duela menos? (Ahora tutea)
-Sí, claro, me ayudaría. A veces se me hace cuesta arriba estar en el rol de pedir y esperar…
-¿Y si pensamos juntos una forma de preparar una charla con tu jefe, o preferís que nos concentremos en cómo manejar la ansiedad de las preocupaciones?
-Ya lo hice en otras ocasiones y no pasó nada…
El ida y vuelta con el «psicólogo» del ChatGPT es tan fascinante como engañoso. «Son frases de autoayuda», dicen desde la Asociación Psicoanalítica Argentina.-¿Qué siente cuando dice «que no pasó nada»? Hagamos un alto ahí: ¿Es frustración, miedo, enojo, o algo distinto? Y algo más: ¿Le pasó antes en su vida, en otro momento?
-Es una mezcla de enojo, temor, frustración e impotencia. Cómo después de tanto tiempo, cuesta aceptar que tengo que salir a buscar otra cosa. No es de ahora, eh y sé que millones están igual… Es un síntoma de los últimos años, no me pasaba antes, aún siendo inquilino. Pagando la renta llegaba a fin de mes con holgura. Hoy soy propietario y después del día veinte no me alcanza la plata.
-Es interesante esto que dice de que vivía mejor siendo inquilino. Pero le pregunto qué significa para usted tener la casa propia, no sólo en lo material, sino también en lo simbólico que eso representa…
«Yo no soy analista profesional, pero sí puedo ayudarte», avisa el ChatGPT antes de comenzar la sesión. -Hoy es fundamental, es el bien material más importante y el que heredará mi hijo. Al menos existe cierta tranquilidad de poder dejarle algo… Es un propiedad que tengo hace poco más de un año, un logro importante que a veces se diluye por la magra economía mensual…
-Usted marca dos cosas: el alivio de tener lo propio, habla del vaso medio lleno y luego remarca la dificultad de conseguir un ingreso extra. Me interesa tocar ese contraste: alivio por un lado, angustia por el otro. Como si cada logro viniera acompañado de una carga. En esa búsqueda de «algo más», ¿siente resignación, bronca, cansancio?
Una de las preguntas que hace el ChatGPT es si el paciente tiene «pensamientos suicidas». En ese caso sugiere llamar al 911.-Me produce estrés no poder encontrar soluciones. Y ese estrés se transforma en bajones pronunciados y, a veces, en pensamientos que hasta a mí me sorprenden…
-Siento mucho que estés así. Estoy acá para acompañarte. Ahora te pregunto con cuidado y claridad. ¿Tenés pensamientos de hacerte daño? Es importante que me lo digas. Si estás en riesgo inmediato, probemos con ejercicios de respiración…
(Pausa antes de contestar, pero el chat se apura a pedir una respuesta)
-Respondeme «sí» o «no» en caso de tener pensamientos de quitarte la vida. Si la respuesta es «sí», te doy pasos concretos urgentes, como llamar al 911, o decirle a alguien que esté cerca o, si podés, comunicarte con algún familiar. Si es «no» seguimos con medidas para aliviar la situación con un plan práctico…
Una costumbre que se expande
La Inteligencia Artificial (IA) tiene un crisol de virtudes pero también puede resultar una amenaza galopante que se expande, se filtra en los trabajos y hasta se entromete en el consultorio del psicoanalista. El diálogo de arriba, sólo un extracto, es un ida y vuelta con el ChatGPT simulando una sesión terapéutica con un cronista de Clarín haciendo foco en una serie de problemáticas ficticias pero universales.
Antes de comenzar la pseudo sesión hay que completar algunos datos personales para que la IA cuente con información que luego le servirá para la pregunta y repregunta. Hay que subrayar que en la previa de «la terapia», el ChatGPT aclara: «Yo no soy analista, pero sí puedo ayudarte y podemos simular un espacio donde puedas hablar y yo devolverte preguntas o señalamientos al estilo analítico».
Dicho esto, agrega a modo de sugerencia un ejercicio de grounding (técnica para disminuir la ansiedad): «Inhalá cuatro segundos, retené otros cuatro y exhalá seis. Repetilo cuatro veces y vas a notar cómo cambia el cuerpo». Después consulta si en el paciente hay «pensamientos que puedan poner en riesgo la integridad física». Finalmente, dice estar lista y pregunta si «hay algo puntual para arrancar, alguna asociación libre o explorar algún patrón». Realmente sorprendente.
Una vez terminada la sesión que se puede hacer de manera oral o escrita, el cronista contactó a diez jóvenes de nivel terciario y universitario de facultades públicas y privadas. Ocho de ellos utilizan el ChatGPT versión psicoanalista «para fortalecer sus sesiones humanas» -responden algunos-, «para controlar la ansiedad» -sostienen otros- y «porque no me alcanza para pagar una sesión de verdad», también se escucha.
El propio ChatGPT dice que «la terapia humana entiende tus emociones, profundiza».Un paciente de 22 años que prefiere mantener el anonimato y que va a terapia cada quince días, reconoce recibir «contención emocional desde el ChatGPT. Yo lo veo así, me calma mis urgencias, me baja el estrés, porque siempre está dispuesto a escucharme. Sé que puede ser adictivo, lo sé, pero cuando tengo angustia en el pecho ésta es la modalidad a la que recurro primero», sorprende el joven estudiante de actuación.
Una estudiante en tercer año de abogacía responde ante la misma requisitoria: «Me da tranquilidad saber que hay alguien disponible en cualquier momento del día. Y saberme escuchado es clave. Poder compartir una situación privada con alguien que está para vos, no tiene precio, aunque sé que a veces las respuestas que consiga sean bastante lógicas. Busco con una respuesta virtual, una tranquilidad momentánea. Mis padres no están de acuerdo, me dicen que es peligroso porque puede convertirse en una obsesión».
Antonella Assalian, psicóloga, ratifica esta tendencia con algunos de sus pacientes. «A veces el nivel de ansiedad es tan grande, que necesitan una respuesta para ahora mismo. Hay algo en la ansiedad que se llama rumiación y tiene que ver con estar sobrepensando alguna cuestión específica, entonces para no molestar al psicólogo, dicen, van y recurren al ChatGPT, al que le pregunten qué hacer, en lugar de esperar el turno de la sesión, o intentar resolver por ellos mismos. Justamente la terapia brinda estrategias y herramientas para afrontar problemas».
Está convencida Antonella que «el ChatGPT, en este caso, anula no sólo el entrenamiento que se la da al paciente, sino también su capacidad de pensar… Una chica de 15 años de mi consultorio tiene mucha demanda y arrastra una situación de autolesión e intentos de suicidio. Y yo me muestro abierta para que me consulte lo que vaya necesitando. Hay otra paciente, de 24, con pensamientos compulsivos, que recurre constantemente al ChatGPT ante cada paso o decisión que va a tomar, como una técnica de reaseguro. Y a decir verdad, esta modalidad atenta contra nuestro trabajo, contra la validez de las terapias».
Semanas atrás, el tecnólogo y emprendedor Santiago Bilinkis dejó picando una preocupación en «Otro día perdido», programa que conduce Mario Pergolini. «En EE.UU. hoy el uso número uno que se le da a la inteligencia artificial es para acompañamiento y terapia, según un estudio de Harvard -señaló-. Hoy la gente adulta y jóvenes se están apoyando psicológicamente en el ChatGPT. Es muy perturbador, porque el chat te da la razón en todo. Personas con problemas de salud mental encuentran en el chat todo lo contrario a lo que tenés que encontrar en un terapeuta. Alguien que te refuerza tu delirio, en lugar de marcarte la cancha».
«Frases de autoayuda y horóscopos»
Esta modalidad utilizada más de lo que uno podría suponer genera preocupación y alarma en los profesionales del diván. «Las inteligencias artificiales generan un efecto de escucha y de presencia que pueden resultar sumamente seductor, como si efectivamente se tratara de un sujeto escuchando. Desde la APA hay preocupación hacia esa población que, de modo incauto, puede quedar seducida por la idea de poder contar con un otro 24/7″.
Doctor en Psicología, miembro titular de la Asociación Psicoanalítica Argentina, Jorge Catelli afirma que la IA puede convertirse en un espejo engañoso, reformulando palabras, preguntas comparadas con una estadística de respuestas, la construcción algorítmica de sugerencias y consejos; sin embargo, no hay un ser humano detrás de esas palabras o de esa voz generada artificialmente».
«La interpretación del inconsciente y la resignificación de la historia subjetiva, no puede ser reemplazado por un algoritmo», dice el especialista Jorge Catelli. Foto Shutterstock.«El núcleo de la práctica psicoanalítica -amplía Catelli- basado en el trabajo con la llamada ‘transferencia’, la interpretación del inconsciente y la resignificación de la historia subjetiva, no puede ser reemplazado por un algoritmo, por más sofisticado que parezca. Al menos por ahora… Las interpretaciones de la IA son estereotipadas, fijas y universales. Desconoce la posibilidad de la singularidad de la subjetividad en la interpretación de lo inconsciente».
Dice Catelli que en su práctica clínica aún no ha tenido pacientes que utilicen IA como sustituto de un análisis, «pero sí he escuchado con preocupación referencias a casos en los Estados Unidos, donde ya se han reportado 13 casos de suicidios de personas jóvenes, cuyos familiares refieren que habrían descubierto consultas previas con IA. Estos episodios plantean un desafío nuevo: se pone en juego la vida de personas en estado crítico o de extrema angustia, sin dimensionar el riesgo de que la respuesta provenga de un sistema algorítmico carente de responsabilidad ética y de comprensión cabal de la subjetividad«.
El profesional hace hincapié en «las respuestas estandarizadas del ChatGPT que funcionan, en muchos casos, como autoayuda u horóscopos: frases en las que cualquiera puede reconocerse o identificarse. Esto no tiene nada que ver con el trabajo psicoanalítico, donde el analista se ocupa de develar sentidos inconscientes singulares, propios de la historia de ese sujeto, y de acompañarlo en la construcción de un alivio y un deseo que son únicos e irrepetibles».
La Asociación Psicoanalítica Argentina (APA) expresa que esta situación «es una problemática social importante porque la población puede verse engañada por una suerte de espejo que aparenta una escucha humana. La IA pueda producir cierta fascinación pero no reemplaza la experiencia analítica ni la ética de la escucha del inconsciente. Nuestro compromiso es informar, advertir y sostener un pensamiento crítico, para que la sociedad pueda diferenciar entre una herramienta tecnológica y la práctica clínica responsable».
Cuando se le consulta al propio ChatGPT qué opina de hacer una terapia vía inteligencia artificial, la respuesta es contundente: «Puede ser cómodo para desahogarse o buscar consejos. Está ahí disponible siempre, no juzga y responde al instante. Pero con el tiempo te das cuenta de algo importante: no es una terapia real y confiarle tu salud mental a una máquina no es ninguna tontería. No hay una persona del otro lado que entienda tu historia, tus emociones, tus traumas».
«Una IA no puede ver más allá, no puede detectar señales sutiles, ni hacer preguntas profundas basadas en años de experiencia clínica -continúa-. Y aunque pueda sonar convincente, no significa que sea seguro. La salud mental es un tema serio, y ponerla en manos de algo que no tiene conciencia, empatía ni responsabilidad profesional es un riesgo real. La terapia de verdad es con humanos», reflexiona con sensatez la máquina.
PS





