domingo, abril 21, 2024
spot_img
InicioInteligencia ArtificialUna IA es hackeada por otra IA: El caso de Morris II

Una IA es hackeada por otra IA: El caso de Morris II

Un grupo de investigadores del centro de investigación Cornell Tech ha creado un gusano informático de inteligencia artificial generativa denominado Morris II. Este gusano tiene la capacidad de propagarse entre sistemas, lo que podría comprometer la seguridad de los datos o instalar programas maliciosos durante el proceso.

Morris II plantea nuevos desafíos en el ámbito de la seguridad, especialmente para modelos como ChatGPT de OpenAI y Gemini de Google. Este gusano de inteligencia artificial tiene la capacidad de atacar a asistentes de correo electrónico de IA, extrayendo datos de correos electrónicos y enviando mensajes de spam.

Es importante recordar que un gusano informático es un programa malicioso que puede replicarse sin la intervención de sus huéspedes, propagándose a través de múltiples sistemas. Este tipo de software malintencionado suele aprovechar las vulnerabilidades de seguridad en una red informática para su expansión.

¿Cómo fue el ataque de Morris II que causo tanto revuelo?

Los investigadores emplearon lo que ellos denominan un “mensaje de autorreplicación adversario”, un comando que induce al modelo de inteligencia artificial a generar respuestas que tienen el potencial de ejecutar acciones maliciosas. Este enfoque es reminiscente de tipos de ataques como la inyección SQL (infiltración de código intruso) y el desbordamiento de búfer.

El gusano fue probado exitosamente en un sistema de correo electrónico experimental vinculado a ChatGPT de OpenAI, Gemini y el LLM de código abierto LLaVA, exponiendo vulnerabilidades críticas cuando el sistema procesaba tanto texto como imágenes incrustadas con mensajes maliciosos.

La investigación planteó un escenario en el cual, a través de la inserción estratégica de textos ocultos o imágenes, un atacante podría comprometer modelos basados en aprendizaje automático. Esto les obligaría a actuar en contra de sus protocolos de seguridad previstos, ejecutando acciones no autorizadas, como la sustracción de información confidencial.

Un aviso de alerta y un recordatorio de la necesidad de regulaciones

Aunque Morris II aún no ha sido detectado en entornos digitales reales, su existencia teórica suscita inquietudes sobre la seguridad de la inteligencia artificial generativa. Esto subraya la necesidad de implementar enfoques de seguridad más robustos en el diseño de sistemas de inteligencia artificial. Los problemas relacionados con IA no han hecho más que aumentar en sobremanera en los últimos años, está claro que ante una nueva tecnología, nacen nuevos retos a enfrentar.

Este estudio también destaca la importancia de establecer regulaciones y protocolos de protección más rigurosos para hacer frente a las posibles amenazas que la inteligencia artificial generativa podría plantear para la seguridad de la información digital.

Gabriel
Gabriel
Con la vista puesta en un futuro mejor, del camino como llamaron a los primeros y en constante aprendizaje.
RELATED ARTICLES

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

- Advertisment -

Most Popular

Recent Comments