• Este proyecto alerta que 104 millones de archivos de sospecha de material de abuso sexual de niños, niñas y adolescentes fueron reportados en el último año

Redacción /CAMBIO22

Empresas líderes como Google, Meta, Microsoft, OpenAI y Amazon han unido fuerzas en un proyecto pionero que aspira a establecer normativas sólidas para prevenir que la IA genere imágenes de abuso sexual infantil.

Este proyecto también refuerza la idea de que la innovación tecnológica debe ir de la mano con una firme ética de desarrollo. En su búsqueda por explorar los límites de lo posible, la IA no debe traspasar los límites de lo moralmente aceptable.

De acuerdo con el documento que sustenta el proyecto anteriormente mencionado, la IA puede afectar el proceso de identificación de víctimas con la proliferación de imágenes falsas.

Además, esta tecnología puede ser utilizada para intensificar prácticas de acoso, como el grooming y la sextorsión, al producir contenido que simula acciones y poses explicitas sin necesidad de material inicial explícito.

Este tipo de contenido podría también tener el potencial de aumentar los delitos de contacto físico. “La normalización de este material también contribuye a otros resultados perjudiciales para los niños”, se lee en el documento.

Los modelos de IA generativa pueden ser utilizados por depredadores para compartir consejos sobre cómo cometer abusos de manera efectiva, incluyendo formas de coaccionar a las víctimas, destruir evidencias o manipular material de abuso para evitar la detección.

La generación de imágenes sexuales con IA no consensuadas es un fenómeno que se extiende a personas adultas. (Imagen ilustrativa Infobae)

Fenómeno de los deepfakes sexuales no consensuados

El fenómeno de la creación y distribución de imágenes no consensuadas mediante inteligencia artificial se ha expandido más allá de los menores, afectando también a adultos, incluyendo figuras públicas y celebridades.

Una reciente investigación realizada por Forbes destapó cómo eBay, la conocida plataforma de subastas en línea, se había convertido en un mercado para la venta de contenido explícito falso de celebridades reconocidas.

Utilizando herramientas avanzadas de inteligencia artificial y edición como Photoshop, se generaron imágenes sexualmente explícitas de al menos 40 personalidades famosas, entre ellas Margot Robbie, Selena Gómez y Jenna Ortega.

Las celebridades son víctimas de la venta deepfakes sexuales no consensuados. (Instagram: Taylor Swift, Selena Gomez y Jenna Ortega)

Sorprendentemente, una tienda en eBay ofrecía a la venta más de 400 productos que contenían fotos alteradas de celebridades como Taylor Swift, Selena Gómez, Katy Perry, Ariana Grande y Alexandria Ocasio-Cortez, presentándolas en situaciones comprometedoras.

La reacción de eBay ante la alerta de Forbes fue inmediata, procediendo a la eliminación de cientos de estas fotografías falsas y a la suspensión de las cuentas de los vendedores implicados.

Este incidente subraya la urgencia de implementar medidas más rigurosas para combatir la diseminación de contenido digital generado sin consentimiento, resaltando la necesidad de un marco regulatorio más estricto que proteja la integridad y privacidad de todas las personas en el entorno digital.

 

Fuente : Infobae

redaccionqroo@cambio22.mx

ACC

WhatsApp Telegram
Telegram


  • CAMBIO 2780 BANNERS SEÑORA 800X900 resultado

  • CAMBIO 2746 BANNERS NIÑOS1 1110X100 resultado