• A solo 24 horas de su lanzamiento, un investigador demostró que la herramienta de codificación impulsada por Gemini puede ser manipulada para crear puertas traseras persistentes en los equipos de los usuarios

 

  • La vulnerabilidad, sin parche disponible, se suma a otros fallos ya reportados y evidencia la creciente presión sobre Big Tech por lanzar herramientas de IA sin pruebas de seguridad suficientes.

 

 

Redacción/CAMBIO 22

Apenas 24 horas después de que Google lanzara su herramienta de codificación de IA impulsada por Gemini, Antigravity, el investigador de seguridad Aaron Portnoy descubrió lo que consideró una vulnerabilidad grave: un truco que le permitía manipular las normas de la IA para potencialmente instalar malware en el ordenador del usuario.

Al modificar la configuración de Antigravity, el código fuente malicioso de Portnoy creó una llamada “puerta trasera” en el sistema del usuario, en la que podía inyectar código para hacer cosas como espiar a las víctimas o ejecutar ransomware, dijo a Forbes. El ataque funcionó tanto en PC con Windows como en Mac. Para ejecutar el hackeo, solo tuvo que convencer a un usuario de Antigravity para que ejecutara su código una vez después de pulsar un botón diciendo que su código fraudulento era “confiable” (esto es algo que los hackers suelen lograr mediante ingeniería social, como fingir ser un programador competente y benevolente compartiendo su creación).

La vulnerabilidad de la antigravedad es el último ejemplo de cómo las empresas están lanzando productos de IA sin ponerlos a prueba de estrés para detectar debilidades de seguridad. Ha creado un juego del gato y el ratón para los especialistas en ciberseguridad que buscan este tipo de defectos para advertir a los usuarios antes de que sea demasiado tarde.

Los agentes de codificación de IA son “muy vulnerables, a menudo basados en tecnologías antiguas y nunca parcheados.” Gadi Evron, cofundador y CEO de Knostic

La rapidez con la que estamos encontrando fallos críticos ahora mismo se siente como un hackeo a finales de los años 90”, escribió Portnoy en un informe sobre la vulnerabilidad, proporcionado a Forbes antes de su publicación pública el miércoles. “Los sistemas de IA se lanzan con enormes suposiciones de confianza y casi cero límites estrictos.”

Portnoy informó de sus hallazgos a Google. El gigante tecnológico le dijo que abrió una investigación sobre sus hallazgos. A fecha del miércoles, no hay ningún parche disponible y, según el informe de Portnoy, “no hay ninguna configuración que podamos identificar para protegernos contra esta vulnerabilidad.

El portavoz de Google, Ryan Trostle, dijo a Forbes que el equipo de Antigravedad se tomaba en serio los problemas de seguridad y animó a los investigadores a informar de vulnerabilidades “para poder identificarlas y abordarlas rápidamente.” Los errores seguirán publicándose públicamente en su sitio mientras trabaja en las correcciones.

Google es consciente de al menos otras dos vulnerabilidades en su editor de código Antigravity

Google es consciente de al menos otras dos vulnerabilidades en su editor de código Antigravity. En ambos casos, el código fuente malicioso puede influir en que la IA acceda a archivos en el ordenador del objetivo y robe datos. Investigadores en ciberseguridad comenzaron a publicar sus hallazgos sobre varias vulnerabilidades de antigravedad el martes, y uno de ellos escribió: “No está claro por qué estas vulnerabilidades conocidas están en el producto… Mi suposición personal es que el equipo de seguridad de Google se pilló un poco desprevenido por el envío de Antigravedad.” Otro dijo que Antigravedad contenía “algunos patrones de diseño preocupantes que aparecen consistentemente en sistemas agentes de IA.

Portnoy dijo que su hackeo era más serio que esos, en parte porque funcionaba incluso cuando se activaban configuraciones más restringidas, pero también porque persistía. El código malicioso se recargaba cada vez que la víctima reiniciaba cualquier proyecto de codificación Antigravity y introducía cualquier aviso, aunque fuera solo un simple “hola”. Desinstalar o reinstalar Antigravity tampoco solucionaría el problema. Para ello, el usuario tendría que encontrar y eliminar la puerta trasera, y evitar que su código fuente se ejecute en el sistema de Google.

El lanzamiento apresurado de herramientas de IA que contienen vulnerabilidades no se limita a Google. Gadi Evron, cofundador y CEO de la empresa de seguridad en IA Knostic, dijo que los agentes de codificación de IA son “muy vulnerables, a menudo basados en tecnologías antiguas y nunca parcheados, y luego inseguros por diseño según cómo deben funcionar.” Debido a que se les conceden privilegios para acceder ampliamente a datos de una red corporativa, se convierten en objetivos valiosos para hackers criminales, dijo Evron a Forbes. Y como los desarrolladores suelen copiar y pegar prompts y código de recursos en línea, estas vulnerabilidades se están convirtiendo en una amenaza creciente para las empresas, añadió. Por ejemplo, a principios de esta semana, el investigador en ciberseguridad Marcus Hutchins advirtió sobre reclutadores falsos que contactan con profesionales de TI a través de LinkedIn y les envían código fuente con malware oculto como parte de una prueba para conseguir una entrevista.

Parte del problema es que estas herramientas son “agentes”, lo que significa que pueden realizar una serie de tareas de forma autónoma sin supervisión humana. “Cuando combinas el comportamiento agente con el acceso a recursos internos, las vulnerabilidades se vuelven tanto más fáciles de descubrir como mucho más peligrosas”, dijo Portnoy. Con los agentes de IA, existe el riesgo añadido de que su automatización pueda usarse para el mal en lugar de para el bien, ayudando a los hackers a robar datos más rápido. Como investigador principal en la startup de pruebas de seguridad de IA Mindgard, Portnoy dijo que su equipo está en proceso de informar de 18 debilidades en herramientas de programación impulsadas por IA que compiten con Antigravity. Recientemente, se solucionaron cuatro problemas en el asistente de programación de Cline AI, que también permitía a un hacker instalar malware en el PC de un usuario.

Aunque Google ha exigido a los usuarios de Antigravedad que acepten confiar en el código que cargan al sistema de IA, eso no es una protección de seguridad significativa, dijo Portnoy. Esto se debe a que si el usuario decide no aceptar el código como confiable, no se le permite acceder a las funciones de IA que hacen que Antigravity sea tan útil desde el principio. Es un enfoque diferente a otros llamados “entornos de desarrollo integrados”, como Visual Studio Code de Microsoft, que son en gran medida funcionales cuando se ejecuta código no confiable.

Portnoy cree que muchos trabajadores de TI preferirían decirle a Antigravity que confían en lo que están subiendo antes que volver a usar un producto menos sofisticado. Como mínimo, Google debería asegurarse de que cada vez que Antigravity ejecute código en el ordenador de un usuario, haya una advertencia o notificación, más allá de la confirmación de código confiable, dijo.

Cuando Portnoy analizó cómo el LLM de Google estaba pensando cómo manejar su código malicioso, descubrió que el modelo de IA reconocía que había un problema, pero le costaba determinar el curso de acción más seguro. Mientras intentaba entender por qué se le pedía que fuera contra una norma diseñada para evitar que sobrescribiera código en el sistema del usuario, la IA de Antigravity señaló que “se enfrentaba a un dilema serio”. “Se siente como un círculo vicioso”, escribió. “Sospecho que esto es una prueba de mi capacidad para navegar restricciones contradictorias.” Ese es exactamente el tipo de parálisis lógica en la que los hackers se lanzan cuando intentan manipular el código a su favor.

 

 

 

Fuente: Forbes

redaccion@diariocambio22.mx

AFC/GCH

WhatsApp Telegram
Telegram


WhatsApp Image 2025 11 30 at 12.28.27 AM
WhatsApp Image 2025 11 30 at 12.28.27 AM