El nombre de Almendralejo, una pequeña localidad de Badajoz, España, se dio a conocer en el mundo entero por un escándalo que involucra a la inteligencia artificial con la pornografía infantil. Al menos 11 personas crearon fotos de niñas sin ropa, con una app de aprendizaje automático que desnuda a las personas sin ningún tipo de restricción.
PUBLICIDAD
La aplicación en cuestión funciona de una manera muy simple. Solo hay que poner una foto de una persona, en la que esta no porte ninguna prenda de abrigo. No es gratis, pero con el cobro de un solo token (moneda virtual que usa la app) te da como resultado el desnudo exacto.
Es el uso de la inteligencia artificial de manera negativa. Quienes hicieron las fotos de estas menores de edad las extorsionaron por las redes sociales. Pidieron dinero a cambio de no difundir estos deep fakes. El Confidencial informa que hay 18 denuncias en la policía de esta localidad, pero que las víctimas ascienden a 20.
“El Código Penal en su artículo 189 castiga con hasta cinco años de cárcel a quien cree material pornográfico infantil”, destacó el medio citado.
Por su parte, El País reseña que hay 11 personas identificadas como los presuntos autores de esta extorsión. Lamentablemente son inimputables, ya que tendrían entre 11 y 14 años.
El escándalo se hizo viral en las redes sociales, tras la publicación de un video de una reconocida ginecóloga de la ciudad, llamada Miriam Al Adib, pues su hija está entre las víctimas de la fotos sin ropa, creadas por la inteligencia artificial.