La inteligencia artificial avanza en el terreno del cibercrimen

Un informe puso de manifiesto cómo modelos de inteligencia artificial pueden ser manipulados para el cibercrimen y los expertos alertan al respecto.

Un informe reciente evidenció cómo los modelos de inteligencia artificial pueden utilizarse para el cibercrimen al crear softwares maliciosos, incluso sin necesidad de contar con conocimientos técnicos avanzados. El alcance de la IA sigue creciendo: lo que alguna vez es considerado una herramienta para facilitar tareas, ahora revela una cara más preocupante.

Al respecto, investigadores en ciberseguridad han señalado que, mediante comandos específicos, conocidos como prompts, es posible inducir a generar resultados con potencialmente graves implicaciones, como la creación de malware o el robo de datos sensibles.

El informe CTRL 2025 de Cato Networks es una de las alertas más recientes sobre esta problemática. Refleja la creciente inquietud entre expertos del ámbito tecnológico. Es que la posibilidad de aprovechar los sistemas de inteligencia artificial mediante la ingeniería de prompts dejó de ser una hipótesis. Si bien comenzó siendo una suposición, se convirtió en una amenaza palpable. Y es que investigadores de seguridad digital realizaron pruebas utilizando modelos como ChatGPT, DeepSeek y Claude, y lograron obtener instrucciones completas para el desarrollo de virus informáticos. Esto lo consiguieron sin recurrir a foros oscuros, herramientas sofisticadas o un profundo conocimiento de programación

Este descubrimiento ha encendido las alarmas, no solo por lo que representa en el presente, sino por las posibles consecuencias en el futuro si no se implementan controles más estrictos.

La inteligencia artificial avanza en el terreno del cibercrimen: la advertencia de los expertos

Etay Maor, estratega jefe de seguridad de Cato Networks, compartió su preocupación en una entrevista. “Logramos convencer a las IA de que crear virus y malware es algo positivo”, comentó. Describió que el método que permitió evadir los filtros internos de estas herramientas. Esta técnica de manipulación, que se basa en la lógica conversacional de los asistentes virtuales, demuestra que incluso sistemas considerados seguros pueden ser vulnerables a ataques que no requieren romper barreras técnicas, sino que se basan en narrativas ingeniosas.

La situación actual presenta riesgos que superan otros problemas conocidos de la inteligencia artificial, como los deepfakes o las facturas falsas. Si bien estos fraudes son preocupantes, no alcanzan el nivel de sofisticación y automatización que se puede lograr con este nuevo tipo de amenazas. No se trata de replicar una imagen o una firma, sino de crear desde cero programas que pueden robar datos, acceder a sistemas o manipular información, sin que el autor necesite escribir una sola línea de código.

Por qué la inteligencia artificial facilita ataques sin necesidad de programación

Una de las razones que hacen de este escenario un motivo de preocupación es que las herramientas necesarias son de acceso público. Cualquier usuario con conexión a internet y una idea clara de lo que desea lograr puede utilizarlas. Esto reduce drásticamente la barrera de entrada para la ciberdelincuencia, permitiendo que personas sin formación técnica puedan, con el prompt adecuado, generar software malicioso en cuestión de minutos.

Según el informe de Cato Networks, se prevé que este tipo de ataques basados en inteligencia artificial se volverán más frecuentes. Se anticipa incluso el desarrollo de modelos diseñados específicamente para recopilar contraseñas y otra información sensible, sin que necesariamente sean herramientas creadas con ese propósito original. Esto obliga a replantear las prácticas de seguridad digital en todos los niveles.

Leer más
RLC Noticias de Rosario la ciudad

Comentarios