LeftoverLocals: la vulnerabilidad que roba datos de las GPUs

Una nueva vulnerabilidad afecta a las GPUs de NVIDIA, AMD, Apple y Qualcomm y puede extraer datos de la memoria

¿Qué es LeftoverLocals y cómo funciona?

LeftoverLocals es el nombre de una vulnerabilidad descubierta por el investigador de seguridad Trail of Bits, que puede extraer datos de la memoria de las GPUs de NVIDIA, AMD, Apple y Qualcomm. Esta vulnerabilidad afecta especialmente a las GPUs que se utilizan en modelos de aprendizaje automático (ML) y de lenguaje de gran escala (LLM), ya que estos implican el uso de datos sensibles.

LeftoverLocals se basa en el hecho de que las GPUs no aíslan su memoria de la misma forma que las CPUs, lo que permite a un atacante que tenga acceso compartido a una GPU a través de una interfaz programable robar datos de la memoria dentro de la GPU. Esto tiene varias consecuencias de seguridad, ya que podría permitir la reconstrucción de modelos completos, el robo de información personal o el sabotaje de los resultados.

LeftoverLocals se divide en dos procesos: un Escuchador y un Escritor, que funcionan de la siguiente manera:

  • El Escritor almacena valores de señuelo en la memoria local de la GPU, que son números aleatorios que sirven para identificar los datos que se quieren extraer.

  • El Escuchador lee la memoria local no inicializada de la GPU para buscar los valores de señuelo y copiar los datos asociados a ellos.

¿Qué GPUs están afectadas y qué impacto tiene esta vulnerabilidad?

Según Trail of Bits, la vulnerabilidad LeftoverLocals ha impactado a los principales proveedores de GPUs, como NVIDIA, AMD, Apple, Qualcomm, Arm, Intel e Imagination. Estos proveedores ya han sido informados de la vulnerabilidad y se espera que publiquen parches de seguridad para mitigarla.

El impacto de esta vulnerabilidad es alto, sobre todo en el campo de la inteligencia artificial, donde la extracción de datos de los modelos puede tener efectos devastadores para las empresas y los individuos que los utilizan. Por ejemplo, se podría robar la propiedad intelectual, la información privada o la ventaja competitiva de los modelos, o se podría manipular su comportamiento para fines maliciosos.

Trail of Bits ha demostrado que LeftoverLocals puede filtrar alrededor de 5,5 MB por invocación de GPU de datos en la Radeon RX 7900 XT de AMD al ejecutar un modelo de siete mil millones de parámetros. Según Trail of Bits, esta tasa de filtración es suficiente para recrear el modelo completo, lo que supone un gran riesgo para la seguridad de los modelos de LLM.

¿Cómo se puede prevenir o solucionar esta vulnerabilidad?

Trail of Bits ha publicado una serie de recomendaciones para prevenir o solucionar la vulnerabilidad LeftoverLocals, que se resumen a continuación:

  • Usar GPUs dedicadas para ejecutar modelos de ML y LLM, y evitar el uso compartido de recursos con otros usuarios o aplicaciones.

  • Aplicar los parches de seguridad que publiquen los proveedores de GPUs lo antes posible, y estar atentos a las actualizaciones de software.

  • Inicializar la memoria local de la GPU antes de usarla, y borrarla después de cada invocación, para evitar que queden datos residuales que puedan ser leídos por el Escuchador.

  • Usar técnicas de cifrado o anonimización de los datos que se usan para entrenar o ejecutar los modelos, para reducir el valor de la información que se pueda extraer.

Estas medidas pueden ayudar a proteger los datos y los modelos de la vulnerabilidad LeftoverLocals, pero no garantizan una seguridad absoluta. Por eso, es importante estar alerta y seguir las mejores prácticas de seguridad en el uso de las GPUs.

Conclusión

LeftoverLocals es una vulnerabilidad que afecta a las GPUs de NVIDIA, AMD, Apple y Qualcomm, y que puede extraer datos de la memoria de la GPU. Esta vulnerabilidad es especialmente peligrosa para los modelos de ML y LLM, que usan datos sensibles y que pueden ser reconstruidos o manipulados por los atacantes. Para prevenir o solucionar esta vulnerabilidad, se recomienda usar GPUs dedicadas, aplicar los parches de seguridad, inicializar y borrar la memoria local de la GPU, y cifrar o anonimizar los datos. Estas medidas pueden ayudar a proteger los datos y los modelos, pero no son infalibles, por lo que se debe estar atento y seguir las mejores prácticas de seguridad.

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Visitas: 0
Ads Blocker Image Powered by Code Help Pro

¡Bloqueador de anuncios detectado!

Hemos detectado que estás utilizando extensiones para bloquear anuncios.
Apóyanos desactivando este bloqueador de anuncios.
Powered By
100% Free SEO Tools - Tool Kits PRO