Si lo que afirma ChatGPT es cierto, 400 millones de usuarios semanales utilizan este servicio de inteligencia artificial generativa en el mundo. Y 175 millones lo usan en la palma de la mano, con el celular. El 45 por ciento de ese universo tiene menos de 24 años. “Con este ritmo de crecimiento, OpenAI prevé llegar a los mil millones de usuarios a fin de 2025”, asegura el bot. Para entonces cumplirá sólo tres años.
Ante el aumento exponencial de usuarios (en enero de 2023 eran sólo 30 millones), el índice de veracidad de la información que brinda ChatGPT se vuelve cada vez más importante. Sin embargo, por ahora es difícil poner las manos en el fuego por el algoritmo: son comunes las experiencias en las que la información que se recibe no se ciñe a la verdad. O lo que es peor, el engaño puede ocurrir sin que el interesado siquiera se percate.
La relevancia de la certeza que puede esperarse de ChatGPT crece, además, a medida que la gente recurre a este tipo de tecnología con fines diversos, tanto lúdicos como laborales o escolares. Su incidencia ha llegado al punto de que, como contó Clarín en una nota reciente, la herramienta ya se utiliza hasta de sostén psicólogo.
Ante este panorama complejo, Clarín puso a ChatGPT frente al espejo. El objetivo fue que midiera qué porcentaje de respuestas falsas puede estar produciendo hoy en día, costo al que los usuarios deciden eventualmente exponerse en función de simplificar tareas que de otra manera demandarían más tiempo y destreza.
Como eficaz replicante, ante la inquietud de este medio el bot primero relativizó su respuesta y ponderó, ante todo, su máxima fortaleza: “El porcentaje de respuestas falsas que da ChatGPT depende mucho del contexto, del tipo de pregunta y de cómo se formule. Para temas bien establecidos y objetivos, como matemáticas básicas, definiciones científicas, historia conocida o gramática, la precisión puede superar el 90-95%”.

Aunque un principio básico del derecho es que ningún acusado está obligado a declarar en su contra, en este caso el interrogado admitió: “En temas complejos, ambiguos o muy específicos, como preguntas técnicas avanzadas, temas legales, médicos o con múltiples interpretaciones, la tasa de error puede aumentar notablemente, a veces superando el 20-30% si no se verifica con fuentes externas”.
Luego agregó: “Cuando ChatGPT no tiene acceso a Internet o a fuentes actualizadas, puede dar respuestas obsoletas o incorrectas sin advertirlo, especialmente en temas de actualidad. OpenAI –N. de la R: la compañía que lo desarrolló– trabaja para reducir los errores, pero no se recomienda usar ChatGPT como única fuente para decisiones críticas, especialmente en áreas como salud, derecho, finanzas o seguridad”.
Interlocutores pasivos
El riesgo es alto cuando los interlocutores del chatbot son creyentes pasivos. Según una encuesta internacional difundida en las últimas horas por el sitio web de la emisora Deutsche Welle, sólo el 31 por ciento de los usuarios dijo que chequea que los resultados generados en consultas a ChatGPT -u otros chatbots de inteligencia artificial como Google Gemini y Microsoft Copilot- se correspondan con la verdad.
La encuesta incluyó a 15 mil personas en 15 países, entre diciembre de 2024 y febrero de 2025. La disposición a verificar los datos es mayor en Corea del Sur (42%), China y la India (40%). En Alemania es del 27%, mientras en Francia y Suecia la proporción baja al 23%.
El mismo ChatGPT no desconoce su naturaleza y -ajeno a la lógica del escorpión y la rana– alerta a los usuarios para que no caigan en su trampa, aun cuando muchos sigan confiando sin matices en sus habilidades. Dicho de otro modo, ChatGPT no sólo advierte que gran parte de lo que dice es falso, sino que además da algunas pautas sobre cómo descubrirlo.

“Cuando la IA da una respuesta categórica sobre un tema debatido o especializado sin citar fuentes o estudios, hay que dudar”, recomienda el chatbot y agrega: “Si la respuesta parece un resumen muy amplio y no entra en detalles clave, puede que esté “rellenando” con información poco precisa.
También explica que “a veces, ChatGPT mezcla información correcta con pequeños errores, lo que puede hacer que una respuesta parezca válida aunque tenga fallas sutiles”. Y que “si la respuesta se contradice a sí misma o dice algo y luego lo niega más adelante, probablemente hay un error de razonamiento”.
Lo anterior es un modo simple de corroborar, como una primera instancia de cotejo, si lo que dice el robot es cierto o no. Sucede que tras brindar una información, si se le vuelve a preguntar exactamente lo mismo puede a veces resolver la respuesta en otra dirección, incluso la opuesta. Ahí surge entonces una punta de la que tirar para desactivar posibles equivocaciones.
La situación se vuelve especialmente delicada cuando determinada información que ofrece el bot es verosímil pero no cierta. “OpenAI ha reconocido que modelos como ChatGPT pueden ‘alucinar’ (dar respuestas incorrectas pero aparentemente convincentes)”, explica la herramienta, aunque asegura que en versiones anteriores como GPT-3.5 este fenómeno era bastante común y que, según evaluaciones internas, GPT-4 tiene una tasa de ‘alucinación’ “significativamente menor”.
Uno de los objetivos de la empresa es, evidentemente, afinar la puntería de su creación para volverla menos permeable a las falsedades. Eso es lo que se ha anunciado con la reciente salida al mercado de la versión GPT-4.5, aunque por ahora para acceder a ese mundo que acota el grado de incertidumbre hay que pagar. En su defecto, mejor enmarcar la cuestión en cierto patrón rector de la Internet libre y desobedecer el refrán, el del caballo regalado y su aspecto dental.
PS