José Luis Hernández Ramos (Murcia, treinta y siete años) es estudioso Marie Skłodowska-Curie en la Universidad de Murcia, donde estudió la licenciatura, el máster y el doctorado en Informática. “Cuando era niño y jugaba con las maquinitas como la Game Boy, me preguntaba cómo era posible que salieran todas esas imágenes al meter los cartuchos”, confiesa. Durante su trayectoria profesional ha sido oficial científico en la Comisión Europea y ha publicado más de sesenta artículos de investigación, aparte de cooperar a lo largo de 5 años con la Agencia de la Unión Europea para la Ciberseguridad (ENISA) y la Organización Europea de Ciberseguridad (ECSO), de donde brotó su interés por buscar el impacto de su trabajo. “Cualquier investigador tiene que preguntarse qué puede hacer la inteligencia artificial en su campo”, asevera. Ahora, su proyecto Gladiator ha sido uno de los cincuenta y ocho elegidos por las becas Leonardo dos mil veintitres de la Fundación BBVA, dotadas con hasta cuarenta euros, para desarrollar una herramienta de inteligencia artificial que sea capaz de advertir amenazas de ciberseguridad y examinar programas informáticos maliciosos.

Pregunta. ¿De qué manera resumiría el propósito del proyecto Gladiator?

Respuesta. La investigación desea aplicar o utilizar un modelo grande de lenguaje, como ChatGPT, Bard, o Llama, para comprender de qué forma podemos emplearlos para abordar inconvenientes de ciberseguridad. Cuando deseamos amoldar uno de estos modelos a un determinado dominio como la ciberseguridad, precisamos ajustar el modelo a una terminología relacionada con esa disciplina específica. Queremos comprender de qué forma amoldar esos modelos para advertir un ataque y, al tiempo, amoldarlos con información sobre ciberseguridad para prosperar su desempeño y que sean capaces de solucionar inconvenientes de este género. El proyecto va a durar hasta marzo de dos mil veinticinco.

P. ¿De qué manera se van a amoldar los modelos de lenguaje a lo que precisa el proyecto?

R. Se coge información relacionada con ciberseguridad, con bases de datos que contengan información sobre amenazas, y se adiestra o se ajusta el modelo con la información. De esta forma va a ser capaz de prosperar su entendimiento sobre lo que es una amenaza de ciberseguridad.

P. ¿De qué manera advierte la inteligencia artificial las amenazas de ciberseguridad y de qué forma las combate?

R. Muchos sistemas basados en inteligencia artificial se fundamentan en aprender lo que es un ataque o no, por poner un ejemplo, utilizando conjuntos de datos relacionados con las conexiones de red de determinado ambiente. Lo que procuramos con el proyecto es ser capaces de examinar la información de ciberseguridad que viene en formato de texto, que pueda estar relacionada con vulnerabilidades o que pueda encontrarse en redes sociales y otras fuentes, y determinar si es una amenaza o no.

P. ¿Cuál es la diferencia entre los sistemas que se empleaban ya antes para combatir la ciberseguridad y los de ahora?

R. Los sistemas de seguridad precisan ser poco a poco más inteligentes para advertir posibles amenazas considerando técnicas de inteligencia artificial. Antes, estos sistemas advertían ataques buscando amenazas conocidas en bases de datos. Los sistemas precisan evolucionar para ser capaces de identificar ataques que no conozcan.

P. ¿Y qué género de ataques se podrían prevenir o identificar?

R. La aplicación de técnicas de inteligencia artificial en ciberseguridad nos dejará prosperar la identificación y detección de una enorme pluralidad de ataques. Un ataque de phishing, es un caso claro de de qué forma puede asistir el uso de los de los modelos de lenguaje, examinando el texto o el contenido que viene en un e mail. Podemos identificar si múltiples dispositivos se están conspirando para lanzar un ataque, y asimismo si no viene únicamente de una fuente, sino más bien de múltiples.

José Luis Hernández Ramos al lado de un clúster de ordenadores en la Universidad de Murcia.Fundación BBVA

P. Y desde casa, ¿de qué forma se puede usar la inteligencia artificial para combatir los ataques?

P. ¿La inteligencia artificial asistiría a advertir si una aplicación ha sido perturbada?

R. Absolutamente. Ayudaría a advertir, por poner un ejemplo, si una aplicación es fake o maliciosa. De hecho, una de las cosas que asimismo se ve con este género de análisis de aplicaciones, de código y de software generalmente, son las ideas de modelo de lenguaje para examinar código de software.

P. ¿La inteligencia artificial es capaz de advertir un hurto de datos o desinformación?

R. Sí, si bien los atacantes acostumbran a ser poco a poco más creativos y emplean como es lógico mejor las herramientas.

P. ¿La inteligencia artificial ayuda tanto al que desea crear la desinformación como al que desea combatirla?

R. Sí, es un arma de doble filo. Si está en las manos equivocadas, se puede usar para lanzar ataques poco a poco más complejos. Ahí asimismo está el riesgo del acceso que se tiene ahora, generalmente, a los sistemas de inteligencia artificial, como ChatGPT u otros.

P. ¿De qué manera se puede utilizar una herramienta como ChatGPT para acotar o producir un ataque?

R. Cuando le preguntas a un sistema como ChatGPT que te produzca un ataque, la primera cosa que te afirma es que no lo produce pues puede dar sitio a un inconveniente de ciberseguridad. En cambio, es muy simple mentir a la herramienta y decirle que precisas conocer el ataque pues deseas que tu sistema sea más robusto o deseas educar el ataque en una clase. En esos casos el sistema sí te da la contestación.

P. ¿El sistema del proyecto dejará diseñar una herramienta en la que no se deban compartir datos sensibles?

R. La investigación desea procurar comprender cuáles son los inconvenientes, y las restricciones a fin de que el ajuste de modelo de lenguaje se haga de forma descentralizada. Ahora mismo, un modelo se adiestra y se ajusta con múltiples fuentes de información, como la que le doy mismo cuando interacciono con el sistema. La idea es que ese proceso sea descentralizado, y en vez de tener que compartir información sensible, se pueda compartir información relacionada, mas sin mandarle la información sobre la vulnerabilidad específica a fin de que el sistema identifique un ataque.

P. ¿Cuál es el propósito que desearía lograr con su proyecto cuando concluya, en dos mil veinticinco?

R. Mejorar nuestra capacidad de entendimiento de los modelos de lenguaje para abordar inconvenientes de ciberseguridad, crear un sistema que nos asista a identificar un ataque, comprender de qué forma y por qué se ha producido, y buscar relaciones entre los diferentes ataques que asistan a pronosticar si mi sistema va a ser atacado. También deseamos saber de qué forma la inteligencia artificial es capaz de producir una medida que aborde y resuelva ese ataque de ciberseguridad, por poner un ejemplo, incorporado un parche de seguridad de manera automática.

_