Redacción/ CAMBIO 22

Las imágenes de niños con inteligencia artificial (IA) en TikTok e Instagram se están convirtiendo en imanes para muchas personas con interés sexual en menores, pero cuando este contenido es legal y muestra personas falsas, cae en una zona gris confusa y preocupante.

Las niñas de las fotos en TikTok e Instagram parecen tener cinco o seis años. En el extremo mayor, no llegaban a los trece años.

Aparecen en encaje y cuero, bikinis y blusas cortas. Están vestidas sugerentemente como enfermeras, superhéroes, bailarinas y sirvientas francesas. Algunos llevan orejas de conejo o cuernos de diablo; otros, coletas y gafas oversize. Son negros, blancos y asiáticos, rubios, pelirrojos y morenos. Todos fueron creados con IA y se han convertido en imanes para la atención de una audiencia inquietante en algunas de las aplicaciones de redes sociales más importantes del mundo: los hombres mayores.

“La IA hace grandes obras de arte: me gustaría tener una pequeña virgen bonita como esa en mis manos para hacerla mía”, comentó un usuario de TikTok en una publicación reciente de jóvenes rubias vestidas de sirvienta, con lazos alrededor del cuello y flores en el pelo.

“Si esto es generado por IA, ¿me hace mal decir que ella es sexy en conjunto?”, escribió otro usuario en una presentación de diapositivas de niñas completamente vestidas con disfraces de Spider-Man. “Ella no es real, pero tengo una gran imaginación”, agregó.

“No debería estar mal de ninguna manera”, respondió otro, cuyo nombre de usuario contenía “p3do”, que puede ser algo en lenguaje codificado para “pedo”.

“No puedes violarla porque es una imagen de IA”, dijo uno más.

Comentarios similares inundaron fotos de niños con IA en Instagram. “Me encantaría asumir su inocencia incluso si es una imagen falsa”, escribió una persona en una publicación de una niña pequeña y pálida vestida de novia.

En otro, de una joven con pantalones cortos, el mismo usuario comentó sobre “su lindo par de (pechos) pequeños”, representados como dos emojis de manzana, “y su perfecta e inocente rebanada de pastel de cerezas debajo”.

Y en una foto de un preadolescente con tirantes finos, alguien llamado “Gary” dijo: “Bonitos capullos. Cuando crezca serán melones de buen tamaño”.

“Se ve sabroso.” “¿Hacen entregas a domicilio?” “La edad perfecta para aprovecharse”. “Quiero ese dulce bebé”. “¿Puedes hacer una prueba en la que ella salte de mi teléfono a mi cama?” dijeron otros en TikTok e Instagram.

Etiquetadas para volverse virales

Forbes encontró cientos de publicaciones y comentarios como estos en imágenes de niños generadas por IA en las plataformas solo desde 2024. Muchos fueron etiquetados con éxitos musicales, como Texas Hold ‘Em‘ de Beyoncé, Shake It Off de Taylor Swift y Fast Car de Tracy Chapman, para hacerlos más virales.

Los depredadores infantiles han rondado la mayoría de las principales aplicaciones de redes sociales, donde pueden esconderse detrás de pantallas y nombres de usuario anónimos, pero la popularidad de TikTok e Instagram entre adolescentes y menores los convierte en ambos destinos principales.

Y aunque la lucha de las plataformas para acabar con el material de abuso sexual infantil (CSAM, por sus siglas en inglés) es anterior al auge actual de la IA, los generadores de texto a imágenes de IA están haciendo que sea aún más fácil para los depredadores encontrar o crear exactamente lo que buscan.

Las herramientas impulsan un aumento de CSAM generado por IA, que es ilegal incluso si es falso; sin embargo, las imágenes descubiertas en el reportaje de esta historia caen en un área gris. No son explícitos, pero están sexualizados. Presentan menores de edad, pero no reales. Parecen ser legales, pero los comentarios que se hacen sobre ellos sugieren intenciones peligrosas.

Los expertos forenses y en seguridad infantil los describen como portales a actividades mucho más oscuras y potencialmente criminales. Esto plantea interrogantes en la tecnología y las fuerzas del orden sobre cómo se debe abordar la irrupción de imágenes sugerentes y falsas de niños que no existen, o sí, si no son explícitas y legales, se debe abordar en absoluto.

Las empresas de tecnología están obligadas, según la ley federal, a denunciar sospechas de CSAM y explotación sexual infantil en sus plataformas al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, en inglés), una organización sin fines de lucro que canaliza información sobre esa actividad ilegal a las autoridades.

Pero no están obligados a marcar ni eliminar imágenes como las descritas en esta historia. Aun así, el NCMEC dijo a Forbes que cree que las compañías de redes sociales deberían eliminarlas, incluso si son legales.

“Todos estos están siendo entrenados a partir de imágenes de niños reales, ya sea que estén representados con total semejanza o no, por lo que el NCMEC realmente no ve ese lado del argumento de que hay un mundo en el que esto está bien”, dijo Fallon McNulty, director del CyberTipline de la organización.

Un estudio reciente realizado por el Observatorio de Internet de Stanford encontró que una de las herramientas de inteligencia artificial generativa de texto a imagen más populares en el mercado hoy en día, Stable Diffusion 1.5, había sido entrenada en CSAM, de niños reales, extraídos de toda la web.

“Especialmente teniendo en cuenta algunos de los comentarios que atraen las imágenes, no parece que la audiencia que revisa, ingiere y consume esas imágenes sea inocente”, añadió McNulty. “Me gustaría ver que eliminen ese contenido y no creen un espacio en sus plataformas para que las personas sexualicen a los niños”.

TikTok e Instagram eliminaron permanentemente las cuentas, vídeos y comentarios a los que se hace referencia en esta historia después de que Forbes preguntara sobre ellos; Ambas plataformas dijeron que violaron las reglas de la aplicación.

“TikTok tiene políticas estrictas contra el contenido de menores generado por IA para proteger a los jóvenes y mantener a TikTok inhóspito ante comportamientos que buscan dañarlos”, dijo el portavoz Jamie Favazza.

La política de medios sintéticos de la compañía, instituida hace más de un año y actualizada el viernes, prohíbe dicho contenido si contiene la imagen de cualquier persona menor de 18 años, y TikTok elimina las publicaciones que infringen sus reglas, independientemente de si fueron alteradas con IA.

Sophie Vogel, portavoz de Meta (matriz de Instagram), declaró que la empresa no permite ni elimina material real y generado por IA que sexualice o explote a niños.

En los casos en que el contenido parece benigno, igualmente eliminan cuentas, perfiles o páginas dedicadas a compartir imágenes de niños o comentar sobre su apariencia, dijo Vogel.

Tanto TikTok como Meta informan al NCMEC sobre CSAM generado por IA que encuentran en sus plataformas.

Una ‘puerta de entrada’ al contenido ilegal

Un creador popular de niños generados por IA tenía 80,000 seguidores en TikTok e Instagram, un número que aumentó a miles mientras Forbes informaba esta historia.

La biografía de la cuenta, escrita en mandarín, decía “Mujer con palillos”. Forbes no pudo determinar quién lo publicaba, pero sus publicaciones más virales fueron vistas casi medio millón de veces, recibieron más de 10,000 me gusta, se guardaron o compartieron miles de veces y generaron cientos de comentarios.

Muchos de sus seguidores, según sus fotos de perfil, nombres o alias, biografías y comentarios, parecían ser hombres mayores.

La experta en forense digital Heather Mahalik Barnhart comentó que en su trabajo anterior en estos casos de “erótica infantil”, los seguidores a menudo ofrecían pistas claras que podrían señalar a los investigadores hacia posibles depredadores.

“La erótica infantil es la puerta de entrada y cuando miras quién la sigue, no es normal”, apuntó.

Este tipo de cuentas también exponen más a los posibles infractores porque se les envalentona abiertamente. “La gente se siente más segura porque no se trata de niños completamente expuestos y, por lo tanto, no del CSAM”, dijo Mahalik, quien dirige el trabajo de la empresa de software Cellebrite para ayudar al NCMEC y a las autoridades a utilizar su tecnología en investigaciones de explotación infantil.

Señaló que es imperativo que las autoridades examinen más de cerca quién sigue estas cuentas y busque un patrón de comportamiento.

La cuenta de TikTok compartió un video instructivo que muestra a sus seguidores cómo generar y perfeccionar sus propias fotografías de niñas, hasta los dientes.

“Aunque soy muchos años mayor que tú, en cuanto vi tus ojos me enamoré de ti”, comentó un seguidor de la cuenta de TikTok, que seguía otros identificadores con imágenes de niños aún más sugerentes.

Otro comentarista frecuente, que hacía comentarios como “abierto de par en par”, tenía una cuenta con publicaciones de chicas reales haciendo estiramientos en leotardos.

Algunos comentaristas de las publicaciones de TikTok e Instagram de “Woman With Chopsticks” preguntaron qué modelo de IA se utilizó para crear niños con IA, sugiriendo que podrían estar interesados ​​en producir más.

“Esto es increíble, me gustaría poder encontrar una aplicación que pudiera crear esto”, escribió un hombre hace una semana en Instagram de una joven rubia escasamente vestida con un bralette.

En enero, la cuenta de TikTok compartió un video de tres minutos. Video instructivo que muestra a los seguidores cómo generar y perfeccionar sus propias fotografías de niñas, hasta los dientes de las niñas.

Otros comentaristas no parecían saber que las imágenes eran falsas; aunque el creador etiquetó algunas de las publicaciones como “generadas por IA”, como exige TikTok, puede ser difícil a simple vista saber que no son reales, lo que también dificulta que las fuerzas del orden identifiquen a las víctimas reales.

Meta está creando herramientas que podrán identificar imágenes creadas con OpenAI, Midjourney, Microsoft, Google, Adobe y Shutterstock y luego comenzará a etiquetar el contenido generado por IA publicado en Facebook, Instagram y Threads, según la portavoz Vogel.

Lloyd Richardson, director de TI del Centro Canadiense para la Protección Infantil, declaró que independientemente de si estas imágenes dudosas son reales o de IA, son una “puerta de entrada” a contenidos más graves o ilegales, a menudo en otras plataformas, que luego plantean ” un claro riesgo para la seguridad de los niños”.

“El problema subyacente es que este subconjunto de imágenes genera oportunidades para establecer contactos con los delincuentes”, afirmó Richardson, señalando que a menudo trasladan sus conversaciones a mensajes directos privados. “Estas imágenes pueden actuar como señales para promover vínculos hacia CSAM en otros canales”, añadió.

Una presentación de diapositivas en TikTok del 13 de enero de niñas en pijamas de seda mostró este tipo de ida y vuelta en acción. “Esto funciona para mí”, escribió una persona en los comentarios, a lo que otra respondió: “Acabo de enviarte un mensaje”.

“Esta es la razón por la que las empresas no pueden simplemente moderar el contenido de forma aislada mirando únicamente las imágenes”, añadió Richardson.

“Deben tomarse en el contexto más amplio de cómo se comparten, ven y siguen. Por supuesto, esto es más desafiante ya que puede requerir una evaluación contextual que puede requerir personal de moderación humana”, puntualizó Favazza, el portavoz de TikTok.

Recomendación del algoritmo

El poderoso algoritmo de TikTok también facilita que aquellos con interés sexual en niños encuentren aún más imágenes de este tipo.

Mientras Forbes informaba esta historia, TikTok comenzó a recomendar mensajes adicionales, como “niños generados por IA” y “chica de fantasía con IA”. Y el “Para ti” de la platadorma, donde los usuarios acceden cuando abren la aplicación y que muestra videos virales que la red social cree que les gustarán, garantiza que lleguen a aún más de los mil millones de usuarios de la aplicación.

McNulty, del NCMEC, dijo que uno de los mayores riesgos de que los niños con IA tengan estos momentos virales en las redes sociales, incluso si las imágenes no son criminales, es que las personas pueden volverse insensibles a lo peligrosos que pueden ser.

“Como sociedad, ¿nos acostumbraremos a este tipo de contenido y diremos que está bien?”, cuestionó.

Fuente: Forbes Mexico

redaccionqroo@cambio22.mx

GFB

WhatsApp Telegram
Telegram