La información surge de una reciente investigación para medir las capacidades de la inteligencia artificial.
Un grupo de investigadores que realizó pruebas y demostró que los desarrollos de Inteligencia Artificial como GPT-4, son capaces de explotar vulnerabilidades de un día lo que representa una amenaza en materia de ciberseguridad.
Los riesgos asociados a las herramientas de IA generativa que ya son utilizadas por millones de usuarios, siguen en plena investigación. A través de ellas, los ciberdelincuentes podrían servirse de estas tecnologías. Algunas de ellasvan desde la redacción de correos falsos hasta el hackeo de contraseñas.
En este contexto, un grupo de expertos de la Universidad de Illinois Urbana-Champaign en Estados Unidos realizó una investigación. Anteriormente ya se habían realizado experimentos para probar la capacidad de los agentes de IA. Estos se usan para “piratear sitios web de forma autónoma”.
De esta manera demostraron que, en ciertos casos, “los LLM pueden explotar de forma autónoma vulnerabilidades de un día en sistemas del mundo real”. Durante su trabajo, los autores del estudio recopilaron un conjunto de datos de 15 vulnerabilidades de un día categorizadas como de gravedad.
Además el estudio concluyó que utilizar LLM para explotar vulnerabilidades es más barato y más eficiente que el trabajo humano.
NOTA RELACIONADA
Comentarios