CERRAR

La Capital - Logo

× El País El Mundo La Zona Cultura Tecnología Gastronomía Salud Interés General La Ciudad Deportes Arte y Espectáculos Policiales Cartelera Fotos de Familia Clasificados Fúnebres
Tecnología 8 de marzo de 2026

8M: La IA potencia el arsenal de desinformación degradante contra las mujeres

Deepfakes sexuales, videos falsos y aplicaciones que “desnudan” personas con un clic muestran cómo nuevas herramientas de IA se usan para cosificar y hostigar a mujeres en redes sociales.

Por Cristina Ondó y Angélica Rodríguez

Crear videos sintéticos que muestran a las mujeres como productos en vitrinas o aprovechar herramientas como Grok, la IA de X, para generar imágenes de falsos desnudos son una muestra del uso creciente de la inteligencia artificial (IA) para producir contenidos desinformadores que degradan y cosifican a la mujer en internet.

A finales de 2025, Elon Musk anunció una nueva función que permitía usar Grok para editar imágenes. Poco después, la herramienta empezó a usarse para crear deepfakes (ultrafalsos, en español) sexuales de mujeres sin su consentimiento.

La dimensión del problema quedó plasmada en un informe del Centro para la Lucha contra el Odio Digital (CCDH, por sus siglas en inglés) que estimó que entre el 29 de diciembre del pasado año y el 8 de enero de 2026 se generaron aproximadamente tres millones de imágenes sexualizadas con Grok, entre ellas de mujeres y niños.

Otro ejemplo reciente del uso de la IA para generar contenido engañoso que sexualiza a la mujer es un video creado artificialmente, que acumula más de un millón de reproducciones en X, y que supuestamente muestra a mujeres de la ciudad colombiana de Medellín exhibidas en urnas de cristal como si fuesen mercancía.

Secuencias similares se comparten y viralizan en las redes sociales con rótulos y banderas que hacen referencia a otras ciudades del mundo.

Karen Vergara Sánchez, directora de la ONG chilena Amaranta e investigadora en tecnología, sociedad y género, señala que este tipo de contenidos representan “una forma de violencia digital contra las mujeres” y acaban “reforzando estereotipos de género”.

Fabricación masiva de desnudos en “un solo clic”

“Si yo subo una foto en bikini es porque quiero y lo consiento. Si le pides a la IA que me desnude no hay consentimiento y no es lo mismo (sic)”, reclamaba a inicios de enero una usuaria de la red social X al percatarse de que una de sus fotografías fue manipulada con Grok para mostrarla semidesnuda.

El informe que publicó el CCDH titulado ‘Grok inunda X con imágenes sexuales de mujeres y niños’ señala que entre los millones de deepfakes generados por esta herramienta de IA aparecen mujeres que usan bikini o están cubiertas de fluidos.

También se indica que hay material de figuras como la exvicepresidenta de Estados Unidos Kamala Harris, la ministra sueca de Industria, Ebba Busch, o la cantante Taylor Swift.

“La exposición pública de fotografías íntimas de una mujer (creadas con IA o no) le da una señal a ella pero también a todas las otras mujeres que están en esa red social; una señal de disciplinamiento y acallar voces, ya sea de activistas, de periodistas, de artistas y de otras personas visibles en internet”, explica Vergara.

Tras la polémica por la creación de imágenes sexualizadas, países como Indonesia, Malasia y Filipinas bloquearon temporalmente el acceso a este chatbot y se abrieron investigaciones a X por parte de la Comisión Europea y del regulador de comunicaciones del Reino Unido.

El pasado 15 de enero Grok anunció que limitaba a todos los usuarios del sistema, incluidos los de pago, la posibilidad de editar fotografías, según informó la Agencia EFE.

La IA usa a las mujeres: de seres humanos a productos

“Mira esto: prostitución industrializada en Medellín, Colombia”, comenta en inglés un usuario de la red social X que comparte, como si fuera real, el video citado al inicio de esta información, en el que aparecen al menos cinco mujeres usando vestidos cortos y saludando desde un mostrador.

Sin embargo, un análisis del material muestra que algunas de las mujeres no tienen piernas o presentan deformidades en su cuerpo, errores típicos de contenidos generados con IA.

Para la directora de la ONG Amaranta, estos videos que se crean para satisfacer o cumplir arquetipos machistas combinan formas de violencia, digital y simbólica, porque “existe un refuerzo de los estereotipos de género”.

Agregó que “este tipo de contenidos que aluden a exhibir mujeres asociadas a la prostitución buscan incentivar el clickbait para monetizar, sobre todo en plataformas como X”.

Aplicaciones específicas para desnudar mujeres

En medio de este panorama quedó en evidencia otro problema: las principales tiendas digitales han ofrecido aplicaciones que pueden desnudar a las personas.

Un análisis llevado a cabo por el centro de información e investigación Proyecto de Transparencia Tecnológica (TTP, por sus siglas en inglés) encontró 55 aplicaciones disponibles en la tienda de aplicaciones de Google y 47 en la de Apple con la función de desvestir parcial o totalmente a mujeres.

Las aplicaciones identificadas, que aparecen al buscar palabras clave como “desnudar” o “desvestir”, se han descargado en conjunto más de 705 millones de veces en todo el mundo y han generado 117 millones de dólares en ingresos, según la firma analítica de aplicaciones AppMagic.

“Al igual que lo que ocurre con la pornografía, se va perdiendo el impacto o el asombro, por lo cual las mismas personas luego van explotando más y más herramientas de este tipo; y exponiendo a personas de su círculo íntimo”, advierte la investigadora.

En el documento también se menciona que Google y Apple solicitaron la lista de aplicaciones identificadas por TTP. Apple declaró al medio CNBC que había eliminado 28 de ellas.

Ese mismo medio también informó que Google suspendió varias aplicaciones citadas en el informe.

EFE.