• Revistas, Tribunales, Universidades Y Medios Enfrentan Un Aluvión De Contenidos Automatizados Que Supera La Capacidad Humana De Revisión

 

  • Expertos Alertan Que La IA Democratiza La Escritura Pero También Facilita El Fraude Y Pone En Riesgo La Confianza En Sistemas Académicos, Judiciales Y Democráticos

 

Redacción/CAMBIO22

En 2023, la revista literaria de ciencia ficción Clarkesworld dejó de aceptar nuevos envíos debido a que muchos de ellos eran generados por inteligencia artificial (IA). Según pudieron comprobar los editores, muchos de los participantes copiaron las detalladas directrices de la revista en una IA y enviaron los resultados. Y no fueron los únicos. Otras revistas de ficción también reportaron un alto número de envíos generados por IA.

Este es solo un ejemplo de una tendencia generalizada. Un sistema heredado dependía de la dificultad de la escritura y la cognición para limitar el volumen. La IA generativa satura el sistema porque los humanos que la reciben no pueden seguir el ritmo.

Esto está sucediendo en todas partes. Los periódicos, al igual que las revistas académicas, se ven inundados de cartas al editor generadas por IA. Los legisladores se ven inundados de comentarios de sus electores generados por IA. Los tribunales de todo el mundo se ven inundados de presentaciones de IA, especialmente por personas que se representan a sí mismas.

Las conferencias sobre IA se ven inundadas de artículos de investigación generados por la misma IA. Las redes sociales están inundadas de publicaciones sobre IA. En la música, el software de código abierto, la educación, el periodismo de investigación y la contratación, la historia es la misma.

Al igual que la respuesta inicial de Clarkesworld, algunas de estas instituciones cerraron sus procesos de envío de solicitudes. Otras respondieron a la ofensiva de las aportaciones de IA con una respuesta defensiva, que a menudo implica un uso contraproducente.

Los revisores académicos utilizan cada vez más la IA para evaluar trabajos que podrían haber sido generados por ella. Las plataformas de redes sociales recurren a moderadores de esta misma herramienta. Los sistemas judiciales la utilizan para clasificar y procesar volúmenes de litigios impulsados ​​por la IA.

Los empleadores recurren a herramientas de IA para revisar las solicitudes de los candidatos. Los educadores utilizan la IA no solo para calificar trabajos y administrar exámenes, sino también como una herramienta de retroalimentación para los estudiantes.

Todo esto son carreras armamentísticas: iteraciones rápidas y adversarias para aplicar una tecnología común a fines opuestos. Muchas de estas carreras armamentísticas tienen efectos claramente perjudiciales. La sociedad sufre si los tribunales se saturan con casos frívolos, fabricados por IA.

También existe el riesgo de que las medidas establecidas de rendimiento académico (publicaciones y citas) beneficien a los investigadores más dispuestos a presentar fraudulentamente cartas y artículos escritos con IA, en lugar de a aquellos cuyas ideas tienen mayor impacto.

El temor es que, a la larga, el comportamiento fraudulento facilitado por la IA debilite los sistemas e instituciones en los que se basa la sociedad.

Ventajas de la IA

Sin embargo, algunas de estas carreras armamentísticas de la IA presentan sorprendentes ventajas ocultas, y se espera que al menos algunas instituciones puedan cambiar para fortalecerse.

Es probable que la ciencia se fortalezca gracias a la IA, pero se enfrenta a un problema cuando esta comete errores. Consideremos el ejemplo de la filtración de frases sin sentido generadas por IA en artículos científicos.

Que un científico utilice una IA para ayudar a escribir un artículo académico puede ser beneficioso, si se usa con cuidado y transparencia. La IA se convirtió en una herramienta cada vez más importante en la investigación científica: para revisar la literatura, programar, codificar y analizar datos. Y para muchos, se convirtió en un soporte crucial para la expresión y la comunicación científica.

Antes de la IA, los investigadores con mayor financiación podían contratar a personas para que les ayudaran a escribir sus artículos académicos. Para muchos autores cuya lengua materna no es el inglés, contratar este tipo de asistencia ha sido una necesidad costosa. La IA la ofrece a todos.

En ficción, las obras generadas por IA enviadas fraudulentamente causan daño, tanto a los autores humanos, ahora sujetos a una mayor competencia, como a los lectores que pueden sentirse defraudados tras leer, sin saberlo, el trabajo de una máquina.

Sin embargo, algunos medios pueden aceptar las obras asistidas por IA con la debida divulgación y bajo directrices específicas, y utilizar la IA para evaluarlas según criterios como originalidad, idoneidad y calidad.

Otros pueden rechazar las obras generadas por IA, pero esto tendrá un coste. Es improbable que un editor o tecnología humana pueda mantener la capacidad de diferenciar la escritura humana de la automática. En cambio, los medios que deseen publicar exclusivamente a humanos deberán limitar las obras a un grupo de autores en quienes confíen que no utilicen IA.

Si estas políticas son transparentes, los lectores pueden elegir el formato que prefieran y leer con gusto de uno o ambos tipos de medios.

Tampoco vemos ningún problema si una persona que busca empleo utiliza la IA para pulir su currículum o redactar mejores cartas de presentación: las personas adineradas y privilegiadas tuvieron acceso desde hace mucho tiempo a la asistencia humana para estas tareas. Pero se pasa de la raya cuando se utilizan IA para mentir sobre la identidad y la experiencia, o para hacer trampa en entrevistas de trabajo.

De igual manera, una democracia exige que sus ciudadanos puedan expresar sus opiniones a sus representantes o entre sí a través de un medio como el periódico. Los ricos y poderosos llevan mucho tiempo contratando escritores para convertir sus ideas en prosa persuasiva, y que las IA proporcionen esa asistencia a más personas es positivo, en nuestra opinión.

En este caso, los errores y sesgos de la IA pueden ser perjudiciales. Los ciudadanos podrían estar utilizándola para algo más que un simple atajo para ahorrar tiempo; podrían estar ampliando sus conocimientos y capacidades, generando declaraciones sobre factores históricos, legales o políticos que no se puede esperar razonablemente que verifiquen de forma independiente.

Impulsor del fraude

Lo que no queremos es que los grupos de presión utilicen IA en campañas de propaganda, escribiendo múltiples cartas y haciéndolas pasar como opiniones individuales. Este también es un problema antiguo que la IA está agravando.

Lo que diferencia lo positivo de lo negativo no es ningún aspecto inherente a la tecnología, sino la dinámica de poder. La misma tecnología que reduce el esfuerzo que requiere un ciudadano para compartir su experiencia con su legislador también permite que los intereses corporativos tergiversen la representación pública a gran escala. La primera es una aplicación de la IA que iguala el poder y mejora la democracia participativa; la segunda es una aplicación que concentra el poder y la amenaza.

En general, creemos que la asistencia para la escritura y la cognición, disponibles desde hace tiempo para los ricos y poderosos, debería estar disponible para todos. El problema surge cuando la IA facilita el fraude. Cualquier respuesta debe equilibrar la adopción de esta nueva democratización del acceso con la prevención del fraude.

No hay forma de desactivar esta tecnología. Las IA de alta capacidad están ampliamente disponibles y pueden ejecutarse en un portátil. Las directrices éticas y unos límites profesionales claros pueden ayudar a quienes actúan de buena fe. Pero nunca habrá forma de impedir por completo que escritores académicos, solicitantes de empleo o ciudadanos utilicen estas herramientas, ya sea como ayuda legítima o para cometer fraude. Esto significa más comentarios, más cartas, más solicitudes, más envíos.

El problema es que quienquiera que se vea afectado por este aluvión de información impulsada por la IA no puede gestionar el aumento del volumen. Lo que sí puede ayudar es desarrollar herramientas de IA de asistencia que beneficien a las instituciones y a la sociedad, a la vez que limiten el fraude. Y eso puede significar adoptar el uso de la asistencia de la IA en estos sistemas adversarios, aunque la IA defensiva nunca alcanzará la supremacía.

Equilibrando los perjuicios con los beneficios

La comunidad de ciencia ficción ha estado lidiando con la IA desde 2023. Clarkesworld finalmente reabrió los envíos, afirmando que tiene una forma adecuada de separar las historias escritas por humanos de las escritas por IA. Nadie sabe cuánto tiempo ni qué tan bien seguirá funcionando esto.

La carrera armamentística continúa. No hay una forma sencilla de determinar si los beneficios potenciales de la IA superarán sus perjuicios, ahora o en el futuro. Pero como sociedad, podemos influir en el equilibrio entre los perjuicios que causa y las oportunidades que presenta a medida que avanzamos en el cambiante panorama tecnológico.

*Bruce Schneier es profesor adjunto de Políticas Públicas en la Escuela Kennedy de Harvard y Nathan Sanders es afiliado del Centro Berkman Klein para Internet y Sociedad de la Universidad de Harvard.

 

 

Fuente: The Conversation

redaccionqroo@diariocambio22.mx

AFC/GCH

WhatsApp Telegram
Telegram