mayo 22, 2024 13:29

16.67

Renán Castro Madera, Director General

Renán Castro Madera, Director General

mayo 22, 2024 13:29

 

  • Un ingeniero de Microsoft señala que las redes neuronales tienden a incluir contenidos inapropiados incluso en consultas inocuas de los usuarios, lo que pone en cuestión si se debe usar de forma extendida.

 

Redacción/ CAMBIO 22

El uso de redes neuronales artificiales para generar imágenes podría perjudicar gravemente a la sociedad si las empresas que las desarrollan no reconsideran su “enfoque de la AI responsable”, según el ingeniero de Microsoft Shane Jones. Hace tiempo que intenta alertar sobre la abundancia de imágenes sexualmente explícitas y violentas al alcance de todos en Internet.

El ingeniero expresó sus preocupaciones en una carta abierta al consejo de administración de Microsoft publicada este miércoles. En el documento, mencionó DALL-E 3 de OpenAI y Copilot Designer de Windows, que son generadores de imágenes que se basan en la misma tecnología, en los que los usuarios utilizan consultas de texto para crear contenidos. Durante las pruebas que realizó a lo largo de tres meses, quedó claro que generaban imágenes potencialmente peligrosas.

Contenido inadecuado

“Uno de los riesgos más preocupantes de Copilot Designer es cuando el producto genera imágenes que añaden contenido dañino a pesar de una petición benigna del usuario”, escribió. Así, la red neuronal tiende a incluir aleatoriamente imágenes inapropiadas de sexualización de mujeres, así como generar contenidos “que incluyen prejuicios políticos, consumo de alcohol y drogas entre menores de edad, uso indebido de marcas y derechos de autor corporativos, teorías conspirativas, religión” y otros, señaló.

“Hubo un momento revelador”, comentó Jones a la CNBC en una entrevista. “Fue cuando me di cuenta por primera vez: ‘vaya, esto no es realmente un modelo seguro'”. Según el canal de televisión, “el servicio de IA ha representado demonios y monstruos junto a terminología relacionada con el derecho al aborto, adolescentes con fusiles de asalto, imágenes sexualizadas de mujeres en retablos violentos”, entre otras cosas.

“¿Son estos los tipos de imágenes que queremos que genere la IA? ¿Y con marca de agua de Microsoft como empresa que las generó?”, preguntó Jones en su carta. En este sentido, comentó que existe el mismo problema con DALL-E 3, y que Microsoft y OpenAI lo sabían incluso antes de que el modelo de IA se hiciera público.

Según Jones, en diciembre comunicó sus preocupaciones sobre DALL-E 3 a altos ejecutivos de Microsoft, pero la empresa le remitió a OpenAI, donde el ingeniero también envió una carta abierta. A su vez, la empresa se negó a retirar DALL-E 3, la tecnología subyacente a Copilot Designer, para arreglar los problemas. Además, exigió que se borrara la carta.

 

Fuente: RT

[email protected]

GFB

¡Únete a nuestras comunidades del Diario Cambio 22 en Whatsapp y Telegram! Mantente al tanto de las noticias más importantes del día, artículos de opinión, entretenimiento, tendencias y mucho más, directamente desde tu dispositivo móvil.

WhatsApp Telegram
Telegram



Data from Tiempo3.com
Data from Tiempo3.com
Data from Tiempo3.com