Advierten que inteligencia artificial es vulnerable a los ciberataques

 Advierten que inteligencia artificial es vulnerable a los ciberataques

Roma - La inteligencia artificial (IA) está cambiando profundamente la sociedad, pero dada su rápida adopción, es legítimo preguntarse si los sistemas basados en esa tecnología son inmunes a los ciberataques. Así lo plantea Pierluigi Paganini, Ceo de Cyberhorus y profesor de Ciberseguridad en la Universidad Luiss Guido Carli.

El uso de la IA se encuentra en los más diversos sectores como la automatización industrial, la medicina y las finanzas.

También se cree que hace una contribución importante al desarrollo de nuevas tecnologías al cambiar la forma en que la gente vive y trabaja. De ahí la pregunta a su permeabilidad a los ataques informáticos.

Las técnicas y los objetivos de los ciberdelincuentes avanzan constantemente y, a menudo, aprovechan los eventos actuales o los temas emergentes. Con el aumento de la popularidad del software de Inteligencia Artificial ChatGpt, se ha observado la creación de nuevos virus y malware, así como la creación de correos electrónicos de distribución de phishing.

Según Pagani, se pueden reagrupar los ataques a la IA en dos macrocategorías: aquellos contra los sistemas y los que van contra los modelos de inteligencia artificial.

La primera categoría incluye ataques a la infraestructura en la que se basa un sistema de inteligencia artificial, por ejemplo, a las redes o servidores que lo alojan, a las comunicaciones entre los componentes y al acceso no autorizado a los datos y al propio modelo.

Los ataques pertenecientes a la segunda categoría se dirigen específicamente al modelo de IA utilizado por el sistema. Un ejemplo es la manipulación de datos de entrenamiento o el cambio de parámetros del modelo.

Ataque

En un ataque de manipulación de datos, el atacante modifica o manipula los conjuntos de datos utilizados para entrenar o alimentar un modelo de IA con la intención de interferir con su comportamiento.

“Imaginemos, por ejemplo -observó Paganini- que entrenamos un sistema para el reconocimiento de un ciberataque, si un atacante fuera capaz de proporcionar información falsa sobre los ataques en el conjunto de entrenamiento, esto podría llevar al modelo a no reconocer correctamente un ataque cuando ocurre”.

En realidad, los modelos pueden ser atacados no sólo durante el entrenamiento, sino también durante la operación, es decir, al proporcionar a los sistemas basados en IA datos diseñados para influir en su comportamiento e inducir al sistema a tomar decisiones incorrectas.

Otra técnica de ataque de datos, conocida como ataque de inferencia, es un intento de obtener información confidencial del modelo de IA a través de una serie de consultas ad hoc.

Otra técnica de ataque podría tener como objetivo envenenar el modelo de inteligencia artificial utilizado por un sistema. Puede llevarse a cabo en diferentes etapas del proceso de capacitación, desde la recopilación de datos hasta la capacitación misma.

La conclusión es que los sistemas basados en inteligencia artificial, como cualquier otro sistema tecnológico, son vulnerables a los ciberataques.

El experto en seguridad Pierluigi Paganini recomienda mantenerse alerta ante el panorama de amenazas en evolución y proteger sus dispositivos y la infraestructura en la que se trabaja.

Agenia ANSA

Recomendar A Un Amigo
  • gplus
  • pinterest
Commentarios
No hay comentarios por el momento

Tu comentario