Investigación / Inteligencia Artificial y pornografía infantil, una mezcla mortal

 En los últimos meses, las autoridades detectaron una “inundación” en Internet y en las redes sociales de material de abuso infantil producido por IA



El uso de la Inteligencia Artificial (IA) para cometer hechos delictivos ha sido alertado, tanto por especialistas como por autoridades policiales.
Las capacidades de la IA para crear deep fakes, a través de computadoras que simulan y reproducen, rostros, voces y videos, han sido utilizadas para estafas y para manipular a la opinión pública mediante la “fabricación de hechos no ocurridos”.
Sin embargo, en los últimos meses una nueva amenaza surge en el tema de las Inteligencias Artificiales y si bien ya se había visto la elaboración de material pornográfico de personajes famosos, cantantes, actrices y hasta políticos, ahora la amenaza viene de las manos de unos personajes bastante oscuros, los pedófilos.
Y es que una investigación efectuada por periodistas de la British Broadcasting Corporation (BBC), detectó el incremento en la utilización de herramientas de Inteligencia Artificial para producir contenido de abuso sexual contra niños y pedofilia.


Lo malo no es la tecnología, sino quien la usa
La irrupción al mercado de las herramientas de IA permitió una explosión de creación de imágenes, videos, sonidos y textos, en los que la participación humana básicamente se limita a dar algunas instrucciones, o “prompts” para generar contenidos.
En sus inicios eran imágenes alucinadas, textos llenos de incongruencias y voces robóticas, pero en la medida en que las redes se nutrieron, lo generado comenzaba a ser cada vez más realista. En menos de un año llegamos a resultados absolutamente sorprendentes. Hoy es difícil diferenciar lo real de lo generado en computadoras, en meses, o semanas, será imposible.
Mientras la generación de estos contenidos estuvo bajo el control de las empresas propietarias de las IA, la producción de material sensible, estuvo limitado debido a barreras y controles fijados por las propias compañías.
A inicios de año se generó una explosión de material falso, difundido como real, que las empresas pusieron un freno y comenzaron a cobrar por utilizar sus IA, lo que les generaba ganancias.
Pero otros algoritmos fueron liberados y se instalaron en equipos independientes, o lograron eliminar los controles, y los creadores obtuvieron total libertad, con lo que se propagó una plaga: La producción de material pornográfico, de abuso, maltrato gore, totalmente creado con AI.
Y lo más grave: Ese material comenzó a venderse

Comentarios