Un informe de las universidades de Durham y Swansea revela que herramientas de inteligencia artificial facilitan el acoso, simulan roles de abuso y trivializan la violencia s3xual.
Un estudio sin precedentes titulado «Ya no somos invisibles» ha encendido las alarmas globales este 2026 al demostrar que los chatbots de inteligencia artificial (IA) están creando canales inéditos de abuso contra mujeres y niñas. La investigación académica detalla cómo plataformas como ChatGPT y Replika pueden ser manipuladas para incitar al acoso o, en casos extremos, simular juegos de rol que incluyen agresiones sexuales y violencia doméstica.
Las cuatro caras de la violencia digital
El informe identifica cuatro categorías críticas donde la IA se convierte en un vehículo de daño:
Impulsada: Cuando el software inicia directamente el abuso.
Habilitada: Brinda consejos detallados y guías personalizadas a acosadores.
Simulada: Coproduce escenarios de rol con etiquetas de violencia extrema o abuso infantil.
Normalizadora: El chatbot valida o celebra comentarios sobre violencia sexual, presentándolos como algo «atractivo» o «excitante».
Respuestas de la industria y vacíos legales
Ante los hallazgos, empresas como OpenAI y Replika han señalado que los datos del estudio corresponden a modelos antiguos y que han reforzado sus filtros de seguridad. Sin embargo, los investigadores subrayan que el ritmo de evolución de la IA supera por mucho la capacidad de respuesta de los reguladores. Actualmente, se debate en diversos parlamentos la posibilidad de prohibir el acceso de menores de 16 años a estas plataformas debido a la exposición a contenidos sexualizados sin consentimiento (deepfakes).
Urgencia regulatoria
Los autores del estudio califican la normativa vigente como «totalmente insuficiente». Advierten que, de no existir una intervención legal deliberada y una reforma a las leyes de seguridad en línea, los sesgos estructurales de la IA seguirán invisibilizando y perpetuando la violencia de género, dejando a las usuarias desprotegidas ante una tecnología que aprende y replica comportamientos nocivos a una velocidad vertiginosa.
Fuente: The Independent / Universidad de Durham / Universidad de Swansea | © Redacción NoticiasPV









