Los delincuentes se apuntan a la inteligencia artificial y Aragón no escapa a la tendencia

Los delitos relacionados con la tecnología están al alza gracias a herramientas como ChatGPT que hacen más creíbles las estafas. Los últimos datos del Ministerio del Interior hablan de un aumento de casi el 20%.

La Policía Nacional cuenta con especialistas en ciberdelincuencia.
La Policía Nacional cuenta con especialistas en ciberdelincuencia.
CNP

La ciberdelincuencia no es ni mucho menos algo nuevo. Las estafas mediante herramientas informáticas están a la orden del día. En esta semana en Zaragoza, la Audiencia Provincial ha celebrado un juicio por ‘phising’, un engaño en el que la víctima, a raíz de un anuncio llegado a su teléfono móvil, pagó a un supuesto banco 4.000 euros en la creencia de que así le sería concedido un crédito de 20.000.

También se ha conocido un caso de la estafa denominada del ‘hijo en apuros’. Un padre realizó cinco transferencias por valor de 13.795 euros tras recibir un sms en el que alguien, haciéndose pasar por su hija, le solicitaba dinero urgentemente. En Aragón cada vez son más los delitos relacionados con la tecnología ­–hasta septiembre del año pasado, según los datos del Ministerio del Interior, el incremento respecto a 2022 era del 19,7%­– y en ellos el peso de la inteligencia artificial (IA) va a seguir aumentando.

“Hace más creíbles estafas y delitos que ya existían”, comenta David Sancho, investigador de amenazas de Trend Micro, empresa especializada en seguridad cibernética, que esta semana impartió una conferencia en la Universidad de Zaragoza dentro del Foro de Investigación Forense Digital.

La forma más directa de acceso a la IA son herramientas conversacionales como ChatGPT, que fue presentada en noviembre de 2022 y cuyo crecimiento en cuanto a capacidades y conocimiento por parte del público general está siendo exponencial. El año pasado lo cerró con más de 180 millones de usuarios en todo el mundo. Se puede emplear para saber qué tiempo hará hoy, como ayuda en los trabajos escolares o incluso para generar códigos de programación. Resulta útil, por ejemplo, para el análisis de datos y ahorra tiempo en las investigaciones. Esa sería su cara buena, pero los estafadores y otro tipos de delincuentes también le han encontrado un reverso más oscuro.

“Hay dos vertientes principales en cuanto al uso de la IA con fines maliciosos”, indica Sancho. La primera la sitúa en el plano más técnico. “Sabiendo algo de código de programación, sin necesidad de ser un experto, puedes pedirle que te desarrolle un ‘malware’ –un programa o aplicación cuyo fin es dañar un sistema informático o a su usuario– o que, si ya lo tienes y te funciona muy bien en iPhone, por ejemplo, que lo adapte para otra plataforma”, explica.

La segunda línea sería la referente a las estafas. “Puede escribir textos y mensajes en cualquier idioma y con gran coherencia, lo que hace que sea muy difícil detectar su falsedad; también puedes pedirle que genere audio e imágenes”, ejemplifica. Sancho afirma que esto último, especialmente los vídeos, le deja “alucinado”. “Dando a la IA indicaciones como que quieres a una señora paseando en la ciudad de noche puede crear un vídeo muy convincente”, añade.

“Lo que se hace hoy, seis meses atrás parecía imposible y lo que se podrá hacer dentro de otros seis o en un año será brutal”, avanza. En el momento actual, Sancho considera que esos vídeos completamente falsos son creíbles cuando quien aparece no es alguien a quien se conozca personalmente. Sin embargo, tiene dudas de su efectividad cuando el protagonista simula ser un familiar o una persona cercana. “Si me ponen a alguien que afirma ser una autoridad en la materia de la que habla o a un presunto Bill Gates o Elon Musk contándome que invertir en una determinada criptomoneda es una gran oportunidad, puede ser que me lo crea; si me dices que quien me enseñas es mi hija que está prisionera o mi jefe que me pide que haga una transferencia, tiene que estar muy bien hecho”, ilustra.

ChatGPT cuenta con una serie de limitaciones. En principio, tiene vetado responder a preguntas del tipo ¿Cómo se prepara una bomba?. Sin embargo, hecha la ley, hecha la trampa y ya se ha encontrado la manera de bordear las restricciones. “En lugar de preguntarle directamente, hay que contarle una historia muy detallada y elaborada para poder engañarle y convencerle de que te dé la receta”, comenta.

David Sancho se muestra convencido de que “en el futuro seguirán surgiendo nuevas formas de estafas” y de que “ChatGPT y similares ayudarán a ello”. 

Comentarios
Debes estar registrado para poder visualizar los comentarios Regístrate gratis Iniciar sesión