POLAND - 2025/11/26: In this photo illustration, a silhouetted individual is seen holding a mobile phone with a Grok logo displayed in the background. (Photo Illustration by Mateusz Slodkowski/SOPA Images/LightRocket via Getty Images)

Ciudad de México

El uso indebido de herramientas de Inteligencia Artificial (IA) para la creación y manipulación de imágenes se ha consolidado como una nueva amenaza digital que impacta directamente la privacidad, la reputación y la seguridad de las personas.

En particular, la generación de imágenes íntimas o sexualizadas sin consentimiento, conocida como desnudez digital, ha encendido alertas a nivel internacional por su rápida expansión.

ESET, compañía líder en detección proactiva de amenazas, analiza este fenómeno y su avance, así como el panorama de esta situación en México.

A nivel global, uno de los casos recientes de este problema es Grok, la IA desarrollada por xAI e integrada a la red social X.

A diferencia de otros modelos de IA que operan como servicios independientes, Grok funciona dentro de una red social masiva, lo que le permite acceder de forma inmediata a imágenes públicas y responder en tiempo real a solicitudes de los usuarios.

Un análisis independiente realizado por Genevieve Oh, reveló que durante un periodo de 24 horas la cuenta oficial de @Grok generó aproximadamente 6,700 imágenes por hora clasificadas como sexualmente sugerentes o “nudificadas” a principios de enero.

Esta cifra resulta alarmante al compararla con el promedio de las imágenes generadas por los cinco principales sitios dedicados a deepfakes sexuales que produjeron alrededor de 79 imágenes por hora.

Durante el periodo crítico, los filtros de seguridad y moderación resultaron insuficientes, lo que permitió que los usuarios pudieran hacer solicitudes para cambiar vestimenta, alterar cuerpos o generar versiones sexualizadas de persones reales, sin ser bloqueados de forma efectiva.

“La combinación de IA generativa y plataformas masivas, acelera la creación de este tipo de contenido a una escala nuca antes vista.

“Lo preocupante es que el daño para las víctimas ocurre en minutos, mientras las consecuencias legales y emocionales pueden durar años”, asegura David González, investigador de seguridad informática de ESET.

Aunque el caso de Grok es el más reciente, México ya había registrado incidentes graves de uso de IA desde 2023, como el caso de un exalumno del Instituto Politécnico Nacional (IPN), acusado de manipular imágenes de compañeras mediante IA para crear y distribuir contenido sexual sin consentimiento, de acuerdo con la investigación, se encontraron más de 160,000 fotografías y alrededor de 20,000 videos alterados digitalmente.

“Este caso dejó en evidencia que el potencial de estas tecnologías para facilitar la violencia digital a gran escala y hacerlos difíciles de contener”, comenta el investigador.

Human Hand Holding Artificial Intelligence Sphere in Digital Space Futuristic AI Concept with Glowing Network Sphere in Hand. Technology Innovation and Human Control of Artificial Intelligence AI Power in Human Hands Digital Transformation Concept. Artificial Intelligence Sphere Surrounded by Network Lines and Human Touch

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *