21.7 C
Buenos Aires
domingo, abril 13, 2025

Médicos truchos por TikTok: alertan por videos falsos hechos con Inteligencia artificial

Más Noticias

La inteligencia artificial generativa se convirtió en una de las tecnologías más disruptivas de los últimos años. Desde la escritura automática hasta la creación de imágenes, su uso se expandió a casi todos los rincones de internet. Pero como suele suceder, también se volvió una herramienta útil para los ciberdelincuentes.

Diversas compañías de seguridad vienen advirtiendo sobre estos problemas. Desde los laboratorios de ESET Latinoamérica, la compañía especializada en ciberseguridad, alertaron sobre una campaña de desinformación que circula en redes sociales como TikTok e Instagram: se trata de videos en los que avatares generados con inteligencia artificial simulan ser médicos y recomiendan tratamientos o suplementos que no cuentan con aval científico.

Desde Kaspersky, otra de las compañías referentes en ciberseguridad a nivel global, también advierten sobre el avance de las deepfakes como una herramienta cada vez más común entre actores maliciosos.

En un informe reciente, la empresa alertó sobre el uso de esta tecnología en campañas de ingeniería social, donde los estafadores utilizan videos falsos para suplantar identidades y manipular emocionalmente a las víctimas. “Las deepfakes ya no son solo un recurso de entretenimiento o sátira: ahora se utilizan para fraudes financieros, chantajes y campañas de manipulación a gran escala. Su realismo plantea nuevos desafíos para la verificación de la información en internet”, explicaron desde el equipo de Kaspersky Lab.

El objetivo detrás de estos videos es claro: inducir a los usuarios a comprar productos, algunos de ellos potencialmente peligrosos, presentados como si fueran parte de un tratamiento médico legítimo.

Avatares médicos falsos: cómo funciona la campaña

Los videos siguen una lógica similar: en un recuadro dentro de la pantalla, aparece un avatar con apariencia humana que se presenta como un profesional de la salud con años de experiencia. La estética es prolija, la voz suena convincente y el contenido se presenta como una recomendación de salud. Pero todo es falso.

«Se valen de una estrategia de marketing desleal en la que intentan generar una validación falsa de supuestos especialistas para hacer creer que el mensaje está dado por una persona con conocimientos del tema«, explica Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica.

Según ESET, la técnica se basa en el uso de plataformas que permiten crear videos con avatares personalizados. El creador solo tiene que grabar unos minutos de material base (hablando o posando), y luego el sistema permite generar clips en los que el avatar repite cualquier mensaje, con sincronización labial incluida.

Promociones engañosas y productos dudosos

Ozempic, uno de los tópicos calientes de TikTok. Foto Reuters
Ozempic, uno de los tópicos calientes de TikTok. Foto Reuters

Uno de los casos más llamativos detectados por ESET muestra a una supuesta médica recomendando un “extracto natural” que, según dice el video, sería más efectivo que Ozempic, el medicamento originalmente indicado para la diabetes tipo 2 que se popularizó por sus efectos para bajar de peso.

El enlace del video dirige al usuario a una página de Amazon, pero el producto que se vende allí no tiene relación con el medicamento mencionado: son simplemente “gotas de relax” con propiedades que no están debidamente sustentadas.

Esta estrategia mezcla el engaño tecnológico con la presión emocional y el marketing agresivo. Y como el formato está diseñado para parecer una recomendación médica, el riesgo de caer en la trampa aumenta.

Redes sociales y algoritmos: terreno fértil para la desinformación

Desinformación a la orden del día. Foto ReutersDesinformación a la orden del día. Foto Reuters

La mayoría de estos contenidos circula en redes de videos cortos como TikTok e Instagram. Según ESET, se identificaron más de 20 cuentas que utilizan este formato, todas con un patrón similar: avatares profesionales, un relato convincente, y un producto “milagroso” detrás.

Muchos de estos avatares están generados por programas que ofrecen a cualquier persona convertirse en “actor IA”. La persona graba unos clips, los sube a la plataforma y, a cambio, puede recibir dinero por los videos generados con su imagen.

Aunque en muchos casos el uso de este tipo de contenido viola los Términos y Condiciones de las plataformas, el problema sigue creciendo debido a la rapidez con la que se puede producir y difundir este material.

“Este tipo de videos no solo puede inducir a errores de salud, sino que también representan un riesgo mayor en contextos de desinformación masiva”, advierten desde ESET.

En la misma línea, Palo Alto Networks identificó un crecimiento sostenido en el uso de deepfakes como parte de ataques dirigidos, incluso también en contextos corporativos y políticos.

Según un informe de su unidad especializada en amenazas, Unit 42, ya se están registrando casos donde se utilizan voces clonadas o videos falsos de ejecutivos para autorizar transferencias bancarias o influir en decisiones estratégicas dentro de organizaciones.

“Los deepfakes están migrando del espacio público al privado, con técnicas cada vez más difíciles de detectar. Esta evolución plantea un riesgo creciente para empresas y gobiernos que todavía no cuentan con protocolos específicos para validar la autenticidad de audios o videos”, asegura el reporte de la compañía.

Consejos para detectar deepfakes médicos y no caer en estafas digitales

Hay que tomar a las redes sociales con cautela. Foto AFPHay que tomar a las redes sociales con cautela. Foto AFP

En tiempos de desinformación viral, identificar cuándo estamos ante un contenido falsificado es fundamental. ESET recomienda prestar atención a una serie de señales que pueden ayudar a desenmascarar estos engaños.

  • Desincronización de labios y voz: cuando el audio no coincide exactamente con el movimiento de la boca.
  • Expresiones faciales rígidas o poco naturales: los gestos no se ven fluidos o parecen forzados.
  • Artefactos visuales: bordes borrosos, cortes mal editados o iluminación que cambia sin lógica.
  • Voz artificial: tono monótono, robótico o sin inflexiones emocionales.
  • Cuentas recientes y sin historial: perfiles nuevos, con pocos seguidores o sin publicaciones anteriores.
  • Lenguaje sensacionalista: frases como “cura milagrosa”, “lo que los médicos no quieren que sepas” o “100% garantizado”.
  • Falta de evidencia científica: afirmaciones sin respaldo o referencias a estudios poco confiables.
  • Urgencia para comprar: mensajes que presionan, como “oferta por tiempo limitado” o “últimas unidades”.

“Si encontramos este tipo de contenidos, es vital no compartir o creer antes de verificar el origen o propósito de las afirmaciones de los videos. Además, y en el caso de identificar un contenido engañoso, debemos denunciar la publicación ante la red social que estemos usando”, recomienda Gutiérrez Amaya.

En plena era de la inteligencia artificial, la desinformación ya no requiere bots torpes ni cuentas falsas mal armadas. Ahora puede venir con rostro humano, tono profesional y apariencia confiable. El desafío, como siempre, es no dejarse engañar.

Redacción

Fuente: Leer artículo original

Desde Vive multimedio digital de comunicación y webs de ciudades claves de Argentina y el mundo; difundimos y potenciamos autores y otros medios indistintos de comunicación. Asimismo generamos nuestras propias creaciones e investigaciones periodísticas para el servicio de los lectores.

Sugerimos leer la fuente y ampliar con el link de arriba para acceder al origen de la nota.

 

- Advertisement -spot_img

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

- Advertisement -spot_img

Te Puede Interesar...

El boom de los hongos adaptógenos: prometen una cura contra el estrés moderno, son furor en las redes y llegaron al streaming

"¡Es terrible! No tengo ganas de hacer los deberes. ¿Por qué no venderán pastillas para despertar la voluntad?", se...
- Advertisement -spot_img

Más artículos como éste...

- Advertisement -spot_img