En un mundo donde la inteligencia artificial (IA) es cada vez más omnipresente, los cibercriminales han puesto el foco en atacar estos sofisticados modelos debido a su alto valor y relevancia en diversas industrias. ESET, una reconocida firma dedicada a la seguridad informática, ha alertado sobre la creciente tendencia de ataques dirigidos a modelos de IA. Estos ataques no solo buscan robar propiedad intelectual, sino que también pueden llevar a la manipulación de los resultados producidos por estos modelos, generando sesgos peligrosos que podrían afectar decisiones críticas en ámbitos como la salud, la justicia y la seguridad pública.
Ejemplos recientes de ataques a modelos de IA muestran la vulnerabilidad de estas tecnologías. Un caso emblemático fue el de Tay, el chatbot de Microsoft que, tras ser expuesto a interacciones maliciosas, adoptó rápidamente una serie de discursos de odio. Otro incidente relevante se dio con el conocido GPT-3 de OpenAI, donde intentos de extracción de datos confidenciales evidencian los riesgos que corren las plataformas de IA al interactuar con usuarios. Estos ejemplos resaltan la necesidad urgente de crear protocolos de seguridad más robustos para salvaguardar estos sistemas.
Fabiana Ramírez Cuenca, investigadora de seguridad en ESET Latinoamérica, subraya que es vital abordar la seguridad de la inteligencia artificial desde una perspectiva integral. Esto incluye la protección de los datos de entrenamiento, así como la implementación y el acceso posterior a los modelos. Cada fase del ciclo de vida de un modelo de IA puede ser susceptible a ataques, y es responsabilidad de los desarrolladores mantenerse un paso adelante de los cibercriminales. Se deben implementar medidas rigurosas para mitigar riesgos y asegurar la fiabilidad de estas tecnologías.
Para entender cómo los modelos de IA pueden ser vulnerados, ESET explora elementos clave de estos sistemas y sus posibles debilidades. Los datos de entrenamiento son esenciales; un ciberatacante podría introducir información maliciosa para modificar el comportamiento del modelo o sus resultados. Además, las APIs que permiten la interacción con los modelos son un punto crítico, ya que podrían ser manipuladas para extraer información sensible. Sin una protección adecuada, incluso las bases de datos e infraestructuras donde operan los modelos pueden ser objetivo de ataques que interrumpan su funcionalidad.
Entre las principales modalidades de ataque a modelos de IA destacan el ‘data poisoning’ o envenenamiento de datos, los ataques adversariales, y la extracción o inversión de modelos. Estas tácticas representan serias amenazas para la integridad de los sistemas de inteligencia artificial. Por ejemplo, un ataque de evasión podría permitir que un archivo malicioso sea clasificado como seguro, lo que comprometería la efectividad de los sistemas de detección de fraudes. La existencia de malware específico para servidores también pone en riesgo la operatividad de los modelos, haciendo urgente la creación de un marco de seguridad que garantice su correcto funcionamiento.