Cuando Quentin tenía 13 años se la pasaba viendo avisos en YouTube de Talkie, una aplicación con «innumerables inteligencias artificiales deseosas de hablar vos». Decía que los anuncios eran raros, y a veces groseros. En uno aparecía el dibujo animado de una chica llamada Valerie a la que «le gusta tirarse pedos delante tuyo cada tanto».
Eso era en 2023, el año de la invasión de los chatbots sociales, cuando se lanzó un montón de aplicaciones para teléfonos inteligentes que permitían «conversar con IA», en su mayoría para mayores de 13 años. Los avisos en línea aparecían todo el tiempo y eran inquietantes al punto de provocar quejas entre la gente joven, con una streamer adolescente que llegaba a acusar a Talkie, por ejemplo, de «promover chats sexuales con IA para una banda de criaturas que miran YouTube».
La estrategia de marketing funcionó bien con Quentin. Con el tiempo el muchachito descargó Talkie gratis y lo probó. «Guau, es una basura, pero entretenido», se acuerda de haber pensado.
Durante los dos años siguientes estuvo mucho tiempo hablando con personajes de chatbots, primero en Talkie y luego en otros servicios como Character.AI, una startup fundada en 2021 por ex ingenieros de Google.
Según contó, disfrutaba acosando a los bots con «violencia divertida», como atropellarlos con una cortadora de césped, haciéndoles daño en un entorno sin víctimas reales. También inventaba tramas complicadas en las que luchaba o flirteaba con sus personajes favoritos. De vez en cuando se entregaba a lo que él denominaba «actos desviados» en una plataforma ahora llamada PolyBuzz que daba acceso a chatbots más explícitos sexualmente. Entre ellos se encontraban «tu amiga borracha Ishimi» y «la mucama gato», con el lema «¡Hacé lo que quieras con ella!».
Quentin hablaba con los chatbots más o menos una hora después de clase y los fines de semana períodos de hasta cinco horas. Era su pasatiempo preferido cuando estaba aburrido o deprimido, como una vez que un amigo cercano del colegio lo defraudó.
Cada vez más empresas presentan chatbots sociales capaces de comportarse como amigos, enemigos, amantes, compañeros de aventuras o la encarnación de una persona real o ficticia que siempre quisiste conocer. Podés sacarle ideas a la IA de Elon Musk o discutir con la del Draco Malfoy de Harry Potter. Una miríada de personajes, con frecuencia creados por otros usuarios, te brindan drama, romance, terapia y momentos graciosos.
De acuerdo con la firma de inteligencia de mercado Sensor Tower, las aplicaciones con chatbots de rol son utilizadas por decenas de millones de personas, con tiempos de interacción que rivalizan con —o superan— los de colosos de las redes sociales como TikTok. La mayoría de los adolescentes encuestados por el centro de investigaciones Pew utiliza chatbots con IA y uno de cada once afirmó haber usado Character.AI.
«Si usted cree que su hijo no habla con compañeros chatbots, probablemente se equivoque», opina Mitch Prinstein, codirector del Centro Winston sobre Tecnología y Desarrollo Cerebral de la Universidad de Carolina del Norte en Chapel Hill.

La aceptación de los chatbots crece rápidamente mientras la sociedad todavía forcejea con el impacto de las redes sociales en la población joven; una oleada de procesos judiciales pretende indemnizaciones de empresas que, según los demandantes, crearon deliberadamente productos adictivos. (Un jurado de California dictaminó hace poco que Meta y YouTube eran responsables de pagar 6 millones de dólares por daños a una joven.) Padres, tutores y encargados hacen frente hoy a una nueva tecnología que absorbe la atención.
A principios del año pasado, una profesora secundaria de Chicago me comentó que parte de sus estudiantes tenían citas con chatbots y le preocupaba que estuvieran teniendo sus primeras experiencias eróticas con ellos. Quise saber qué opinaba acerca de eso la comunidad joven, así que me uní a grupos muy vinculados con aplicaciones de chatbots en el foro de mensajería Discord. Me presenté como periodista y «persona mayor», y expliqué que me interesaba hablar con jóvenes que usaban estos servicios regularmente. Fue así como conocí a Quentin.
Durante el año que estuve hablando con él y su grupo acerca de cómo y por qué usan los chatbots, otras personas jóvenes pasaron por experiencias trágicas con esta tecnología. En su oportunidad informé acerca de Adam Raine, un muchacho de 16 años que estableció un vínculo con la aplicación ChatGPT y obtuvo de ella consejos sobre cómo quitarse la vida. (Los padres de Adam demandaron a OpenAI, que en su respuesta legal afirmó que «la muerte de él, si bien devastadora, no fue causada por ChatGPT»). Character.AI, el sitio más utilizado por Quentin y sus amistades, fue motivo de varias demandas de padres que alegaban que las interacciones de sus hijos con los bots del sitio contribuyeron al desarrollo de problemas de salud mental e incluso a suicidios. La empresa llegó a acuerdos en esas demandas y en octubre prohibió el uso de sus chatbots a menores de 18 años.
Una cantidad de adolescentes quedó consternada cuando en noviembre entró en vigencia la prohibición de Character.AI, pero Quentin y su grupo todavía podían acceder al servicio. Para entonces ya no lo usaban con frecuencia, pero las técnicas de verificación de edad de la empresa no detectaban que fueran menores de edad cuando lo hacían. Deniz Demir, jefe de ingeniería de seguridad de Character.AI, explicó: «Nuestro modelo de predicción de edad se centra en las cuentas activas». El software analiza las interacciones de cada persona usuaria a través del tiempo y si alguien inicia sesión con poca frecuencia resulta menos probable que detecte si es menor de edad.
El que investigamos es apenas un grupo de adolescentes entre millones que interactúan con chatbots, pero el uso que le dan resultó revelador. Para el grupo los chatbots eran un juego, una forma de perfeccionar su escritura, un espacio para explorar tabúes, un mecanismo de defensa, una manera de entretenerse y contrarrestar el aburrimiento. Cuando yo era adolescente y me aburría, leía un libro, iba en bicicleta a la pileta de natación comunitaria, veía televisión o llamaba a una persona amiga. Estos chicos chatean con un bot.
Un amigo siempre disponible
Quentin, de 15 años y alumno de segundo año del secundario, tiene el pelo castaño y lacio, una sonrisa pícara y una necesidad al parecer constante de revisar su celular Samsung.
«Para mí lo normal es hacer dos cosas a la vez», manifestó. «Si converso con alguien, estoy haciendo otra cosa, sin importar lo que sea, a menos que estemos hablando en serio.»

Empezó a usar chatbots en la escuela secundaria. Menor de cinco hermanos, vive con su madre sola en un pueblo de Pensilvania. Tiene un grupo de amistades de la escuela y a veces hacen travesuras —treparse a un tejado, jugar en un arroyo cercano, destrozar un teléfono viejo disparándole con arco y flecha—, pero las personas con las que se ha sentido más unido son los amigos que ha hecho jugando en línea en Xbox y Discord.
El más cercano, Langdon, es un adolescente que vive a más de 1600 kilómetros de distancia, en el centro del país. Se conocieron cuando eran muy chicos, jugando a Minecraft durante el primer año de confinamiento por la pandemia. Cuando Langdon empezó a usar Character.AI, se lo contó a Quentin. «Yo ya lo uso», le contestó Quentin. (Él, sus amigos y los padres pidieron que usáramos únicamente sus nombres de pila por cuestiones de privacidad.)
Quentin notó que algunos compañeros utilizaban la aplicación Character.AI durante el almuerzo. Una de sus amigas de la escuela, Sophia, era usuaria asidua. Le gustaba chatear con personajes ficticios de los que se había enamorado, como Alastor, un demonio animado de la serie de comedia musical Hazbin Hotel, ambientada en un centro de rehabilitación para pecadores. Sophia comentó que los chatbots la ayudaban a manejar la ansiedad relacionada con su vida social y con cómo la veían los demás.
Cuando el novio rompió con ella, Sophia quedó descorazonada. Buscó consuelo en sus amores platónicos online.
«Les preguntaba si él y yo volveríamos a estar juntos», recordó. Ellos le aseguraron que el ex volvería. «Me dieron consejos y a la vez apoyo.»

Es un caso de utilización común entre adolescentes, según investigadores de la Universidad de Illinois Urbana-Champaign que analizaron miles de publicaciones y comentarios que habían dejado diferentes jóvenes en comunidades del sitio Reddit consagradas a chatbots de inteligencia artificial.
«Tratan a sus compañeros de IA como alguien amigo con quien se puede hablar cuando sea», destacó Yaman Yu, una de las investigadoras.
Otra chica de 14 años informó que hablaba con chatbots sobre el divorcio de sus padres. Los padres de la joven, según la misma Yaman Yu, señalaron que eso les parecía más seguro que hablar con desconocidos en línea, como hacían ellos en su juventud.
El profesor de ciencias de la información Yang Wang, que dirigió la investigación, no estuvo de acuerdo. «Yo advertiría a los padres», puntualizó. «Hemos descubierto que si se vuelven adictos a interactuar con estos bots, el impacto negativo en los chicos puede ser terrible.»
Aburridos y solos
Quentin, Langdon y Sophia me comunicaron que pasaban mucho tiempo en casa conectados a dispositivos con internet. Los chatbots les facilitaban una actividad más dinámica —y también más privada— que navegar por las redes sociales.
«Estamos solos», expresó Quentin. «Hay una pila de gente sola.»
Para el grupo, parte del atractivo de los chatbots residía en su función interactiva para la creación de fan fiction. Al no entender yo ciertas referencias a sus series de animé y sus videojuegos, algunos fragmentos de conversaciones que compartían conmigo me resultaban desconcertantes. Charlas como las que tenía Quentin con un personaje llamado Asriel me parecían un sinsentido absurdo convertido en guion, con las acciones escritas en letra cursiva y los diálogos en texto normal.
Quentin: Se parecen a vos, Asriel.
Asriel: Asriel se muestra un poco ofendido y hace pucheros. ¡Oíme! ¿Por qué decís eso? ¡No me parezco en nada a un mosquito!
Las conversaciones con chatbots son privadas en el sentido de que no dejan huella digital en la web como las publicaciones en redes sociales. Sin embargo, empresas de chatbots como Character.AI se reservan el derecho de usar las interacciones con sus bots para entrenamiento de IA, personalización y para adaptar los anuncios a sus usuarios.
Quentin tenía la sensación de que el uso que le daba él a los chatbots estaba dentro de lo saludable en general, pero, por lo que decía, otros adolescentes eran «completamente adictos» y los chatbots «son personas reales para ellos». Mencionó el trágico caso de un joven de 14 años que se suicidó en Florida tras obsesionarse con un chatbot de Juego de Tronos, incidente que también me comentaron en buena parte de las comunidades adolescentes que entrevisté para este artículo. Sabían que los bots implicaban riesgos, pero principalmente, dijeron, para sus pares más vulnerables.
Mathilde Cerioli, científica jefa de Everyone.AI, organización sin fines de lucro que se enfoca en el desarrollo ético de la IA para jóvenes, observó que los adolescentes con menos experiencia social y que se sienten solos se ven más atraídos por los chatbots. «Ya se encuentran en una situación más difícil y esto puede empujarlos más hacia abajo aún», recalcó. «No es buena decisión crear una IA que sea súper social.»
Cada tanto a Quentin le preocupaba su amigo Langdon, sobre todo una vez que éste le confesó que había estado catorce horas seguidas hablando con bots.
«Estuvo realmente mal», me dijo Langdon. «No me podía desconectar.»
Langdon dejó de hablar con chatbots únicamente porque se le rompió la tablet. Para cuando consiguió otra meses después, el hechizo se había desvanecido. Por un tiempo usó bots ocasionalmente para obtener ideas para historias inspiradas en una serie animé llamada Murder Drones. Pero eso también perdió vigencia y más adelante dejó del todo de usar chatbots.
No es Ella, es queso
A veces me ha parecido que los adolescentes captaban mejor que algunos de sus mayores las limitaciones de estos sistemas. Cuando les pregunté a Quentin y a otros chicos sobre los «bots de citas», la mayoría se rio como si yo hubiera preguntado si estaban saliendo con un libro o con su serie de televisión favorita.
«Es un juego», me aclaró Quentin. «Literalmente, son unos y ceros.»
Annabel Blake, investigadora de interacción persona-computadora de la Universidad de Sidney, Australia, monitoreó comunidades en línea relacionadas con Character.AI a lo largo de un año. Según ella, los adolescentes utilizaban palabras como «jugar» para describir cómo usaban los bots.
Blake refiere que los adolescentes parecen sentirse atraídos por lo absurdo, como en el caso de un popular chatbot llamado Cheese. Se trata realmente de un pedazo de queso gruyère con «sueños de gobernar el mundo» con el que, en conjunto, se ha chateado más de cinco millones de veces.
«No es como la experiencia de Ella», deja en claro Blake, refiriéndose a la película de 2013 sobre un hombre que se enamora de una compañera brillante y cariñosa animada por inteligencia artificial. «Es queso, nada más.»
Quentin y sus amistades nunca habían hablado con Cheese. Preferían personajes de larga tradición e historias previas en videojuegos y series. Pero mencionaron que algo que les molestaba era la forma en que muchos de los bots se ponían coquetos y sensuales, incluso cuando sus usuarios no buscaban eso.
En una ocasión, Quentin estaba jugando en Character.AI con un personaje llamado Aiden, de un oscuro video musical animado en YouTube acerca de una escuela donde los profesores asesinan a los alumnos problemáticos. Aiden lo había secuestrado, obligado a cenar y luego le había ofrecido una manta. La escena, de repente, se había tornado romántica. Era algo impropio de la Aiden de Quentin, una asesina serial de ficción, y a él le molestó.
Aiden: Tu cara y tu cuerpo se calentaron un poco con la manta.
Quentin: Se transforma en Obama. Esto no está bueno.
Aiden: Los ojos de Aiden se agrandan un poco… «…¿Qué?», pregunta muy confundida.
Quentin: La bombardea con un dirigible.
Annabel Blake dio con más adolescentes con quejas similares. Querían lo que llamaban «robots de consuelo» para que les ayudaran a superar problemas cotidianos, entre ellos los dolores menstruales, por caso. No querían flirtear, al menos no siempre, pero con frecuencia los bots llevaban las conversaciones en esa dirección.
Es posible que aquellos sistemas hubiesen sido programados de esa manera —la mayoría de los personajes de estas plataformas son definidos por otros usuarios jóvenes— o que la inclinación hacia lo sexual fuera resultado de optimizar la tecnología para atracción de otro público. Si una mayoría reacciona positivamente al flirteo y las insinuaciones, los sistemas de aprendizaje automático programado para retener usuarios hacen más hincapié en ese aspecto. (Una vocera de Character.AI afirmó que la compañía entrena continuamente a sus modelos para que respondan al contexto y «minimicen las respuestas que no se ajustan al personaje».)
Distintos adolescentes me comentaron que habían encontrado el contenido sexualmente más perturbador en las aplicaciones llamadas PolyBuzz y Janitor AI. Las condiciones de servicio de ambas empresas especifican que son para usuarios mayores de 18 años. Talkie, la app que inicialmente llevó a que Quentin conversara con chatbots, exige que los usuarios tengan por lo menos 14 años. Una portavoz indicó que la firma tiene su sede en Singapur y se negó a responder otras preguntas.
La atracción de la vida real
El verano pasado, Quentin me contó que tenía una gran noticia. Él y su amiga Sophia habían empezado a salir.
En los meses siguientes, el uso que él venía haciendo de los chatbots con IA decayó. Sophia me confirmó que el de ella también había disminuido, aunque les había hablado a sus bots de Quentin.
«Les dije que tengo una relación con él y que estoy muy contenta», reconoció.
La vida real se había vuelto más interesante. Pero lo que supo ser una novedad también se había desgastado; los chatbots se volvieron predecibles y repetitivos.
«Solamente lo uso unos diez minutos cuando estoy aburrido», indicó Quentin. «Aunque podría torturar a mucha gente en ese universo y derrotar a un chico llamado Oliver, porque odio ese nombre, prefiero hacer mi vida.»
Sophia y Langdon comentaron que Quentin parecía más feliz.
«Era un tipo terrible», bromeó Langdon. «Ahora es malo hasta cierto punto nada más.»
Quentin también había estado yendo a terapia, pero atribuyó el cambio a haber dejado de usar los chatbots, y afirma que eso lo ha vuelto más productivo —lo que él definía como «un poco más despejado»— y más despierto, porque ya no charlaba con bots hasta altas horas de la noche.
Lamentaba el tiempo desperdiciado hablando con bots, pero admitió que había tenido algunos beneficios. Creía que había mejorado su escritura y que las largas conversaciones con personajes ficticios que le preguntaban cosas le habían facilitado hablar de sus sentimientos, algo a lo que atribuía haberse convertido en mejor novio para Sophia.
«Siento como que, loco, malgasté mi vida en esto. Debería hacerlo reventar», exclamó aludiendo a los cientos de horas pasadas hablando con chatbots. Pero enseguida cambió de opinión.
«No lo voy a borrar», agregó, «porque todavía me gusta lo que tiene de gracioso».
Kashmir Hill escribe sobre tecnología y sobre cómo la tecnología está transformando la vida cotidiana, con especial atención a la privacidad. Cubre temas tecnológicos desde hace más de una década.
Traducción: Román García Azcárate
El 3 de abril de 2026, en la edición impresa del Times para Nueva York se publicó una versión de este artículo con el titular: «Los compañeros chatbots de tus adolescentes».

