Hombre de Alaska Denuncia Material de Abuso Infantil Generado por IA y Termina Arrestado por Poseerlo
27 Dic. 2024
-
Al contactar a la policía, Anthaney O’Connor permitió que revisaran sus dispositivos, donde supuestamente encontraron material de abuso sexual infantil generado por inteligencia artificial, lo que llevó a su arresto
Redacción / CAMBIO 22
Si vas a contactar a la policía para denunciar a alguien porque expresó interés en material de abuso sexual infantil (CSAM, en inglés), quizá no sea buena idea que tengas ese material en tus propios dispositivos. O que consientas a que las fuerzas de la ley revisen lo que tienes para obtener más información. Pero eso es lo que se supone que hizo un hombre de Alaska. Y acabó arrestado. 404 Media informó esta semana que el hombre, Anthaney O’Connor, fue arrestado después de que la policía revisara sus dispositivos y supuestamente encontrara material de abuso sexual infantil generado por IA (CSAM).
Según nuevos documentos en el archivo, Anthaney O’Connor había contactado a las fuerzas de la ley en agosto, alertándoles de un hombre no identificado que había compartido material de abuso sexual infantil (CSAM) con O’Connor. Mientras investigaban el delito, y con el consentimiento de O’Connor, las autoridades federales analizaron su teléfono buscando información adicional. Y hallaron que O’Connor supuestamente había ofrecido producir CSAM de realidad virtual para el hombre, según la denuncia. Según la policía, el hombre no identificado compartió con O’Connor una imagen que tomó de un niño en un mercado, y ambos hablaron de cómo podían superponer al menor en un mundo explícito de realidad virtual.

Denunció a otro, pero lo arrestaron a él.
Las fuerzas de la ley afirman haber hallado al menos seis imágenes explícitas de material de abuso sexual infantil generado por IA en los dispositivos de O’Connor, que él dijo haber descargado intencionalmenate junto con varias otras imágenes “reales” que sin intención se habían mezclado. Al revisar la casa de O’Connor, hallaron una computadora unto con varios discos duros ocultos en un respiradero.l Y al revisar la computadora supuestamente hallaron un video de 41 segundos de la violación de un niño.
En una entrevista con las autoridades O’Connor dijo que regularmente denunciaba el contenido de abuso sexual infantil a los proveedores de servicios de Internet, “pero que le gratificaban sexualmente las imágenes y videos”. No se sabe por qué decidió reportar al hombre no identificado. Quizá, por tener la conciencia con culpa, o porque tal vez creía que su material de abuso sexual infantil generado por IA no violaba la ley.
Los generadores de imágenes den IA suelen entrenarse usando fotos reales, y eso significa que las imágenes de niños “generadas” por IA fundamentalmente se basan en imágenes reales. No hay forma de separar ambas cosas. Las imágenes de abuso sexual infantil generadas por IA no son un delito sin víctimas en ese aspecto. En mayo hubo un primer arresto como este, de alguien que tenía imágenes de abuso sexual infantil generadas por IA, y el FBI arrestó a un hombre por usar Stable Diffusion para crear “miles de imágenes realistas de menores prepúberes”.
Las herramientas de IA hacen que sea mucho más fácil crear imágenes explícitas de menores, en comparación con el uso de Photoshop. Una de cada seis mujeres miembros del Congreso han sido víctimas de porno falso generado por IA. Hay muchos productos que tienen salvaguardias para impedir los peores usos, como sucede con impresoras que impiden fotocopiar dinero. La implementación de vallas y obstáculos al menos logra prevenir parte de estas conductas.
Fuente: Gizmodo
GPC/AGF




















