La inteligencia artificial, arma de doble filo con los fraudes

Óscar Fraile
-

Esta herramienta ha dado origen a nuevas estafas, con suplantación de voces y manipulación de imágenes, entre otras cosas, aunque Policía Nacional y Guardia Civil también la utilizan para combatir la delincuencia

Una mujer utiliza ChatGPT. - Foto: Óscar Solorzano

Aliada y enemiga al mismo tiempo. La inteligencia artificial se está empezando a convertir en un quebradero de cabeza para las Fuerzas y Cuerpos de Seguridad del Estado a medida que los delincuentes están empezando a aprovechar todo el potencial de esta herramienta para perpetrar los delitos de toda la vida, pero con nuevos métodos. Y otros hasta ahora inéditos. Por ejemplo, hace poco menos de un mes la Guardia Civil detuvo en San Agustín de Guadalix (Madrid) a tres menores por distribuir a través de sus móviles fotografías de falsos desnudos de hasta 13 chicas, también menores, generadas con inteligencia artificial. Según informó la propia Guardia Civil, los jóvenes habían utilizado diferentes aplicaciones y páginas web capaces de 'desnudar' a cualquier persona que aparezca en una fotografía vestida.

Hay ejemplos mucho más duros y más cercanos. En la provincia de Valladolid, sin ir más lejos. A finales de 2022 la Policía Nacional detuvo a un hombre con avanzados conocimientos de informática que utilizaba la inteligencia artificial para crear material de abuso sexual infantil «de extrema dureza». Los archivos que se encontraron en su ordenador, y que estaban siendo compartidos, mostraban imágenes de niñas de muy corta edad que estaban siendo violadas con juguetes sexuales «desproporcionados». Según explicó la Policía Nacional en su día, el investigado utilizaba una herramienta informática de licencia libre que cuenta con una base de datos de millones de imágenes a partir de las cuales, y tras añadir una descripción de texto, se generan nuevas imágenes. En este sentido, el autor de los hechos «producía pornografía infantil a partir de imágenes reales sintetizadas de menores y de acuerdo a preferencias que él mismo introducía mediante texto».

Son solo dos ejemplos de casos que, poco a poco, están dejando de ser excepcionales. Actualmente, los delitos relacionados con la inteligencia artificial que son más habituales son los de suplantación de voz. Los delincuentes consiguen un audio de una persona concreta y, a través de una serie de programas, son capaces de generar las frases que ellos quieran con ese mismo tono de voz. De este modo, realizan grabaciones en las que esa persona, supuestamente, pide dinero a sus familiares al estar en problemas. Y después envían ese audio a padres, madres, hermanos o amigos para ver si alguno de ellos pica e ingresa el dinero en una cuenta que, evidentemente, no es la de su familiar. 

Ruth García, técnica de Conocimiento y Concienciación del Instituto Nacional de Ciberseguridad (Incibe) avisa de que ya hay «herramientas que están al alcance de cualquier usuario, y otras que son de pago, que permiten de una forma relativamente sencilla falsear la voz de una persona». Además, recuerda que al propio Incibe llegó hace pocas semanas el caso de una mujer que había recibido un mensaje de audio de su marido en el que decía: «¡Hola! No te puedo llamar, envíame un mensaje a este número: xxxxxxxxx». Aunque la mujer reconoció la voz de su marido, en lugar de enviar ese mensaje, le llamó. El hombre confirmó que no había enviado ningún audio y ambos se pusieron en contacto con el Incibe. Al parecer, el origen de intento de estafa podría haber sido esas llamadas telefónicas que muchos ciudadanos reciben y que concluyen de forma abrupta cuando el receptor contesta. Con eso les puede servir a los delincuentes para suplantar la voz. En estas llamadas tiene su origen también el conocido como 'fraude del sí', que puede afectar a las personas que contestan con esa palabra las llamadas, ya que los delincuentes pueden utilizar esa grabación en operaciones que requieran una autorización por voz. «Se recomienda responder de otra manera», avisa Ruth.

Aliada y amenaza

La técnica del Incibe señala que la inteligencia artificial puede ser una aliada, pero también una enemiga. «Aunque ya hay muchas herramientas muy potentes para frenar amenazas y ataques, también pueden ser utilizadas por los ciberdelincuentes para generar mensajes, webs o cualquier otro tipo de información falsa de manera muy ágil», señala. Y avisa de que este fenómeno «irá a más».

Cuando se recibe un audio de este tipo, además de comprobar que la persona que dice haberlo enviado lo ha hecho, el Incibe recomienda avisar a otros contactos de lo sucedido para que estén alerta en caso de recibir alguna llamada similar, bloquear el teléfono y avisar a la Policía. Además, incide en la conveniencia de acordar una «palabra clave» con los contactos más cercanos  para poder corroborar su identidad en comunicaciones sospechosas. Otra técnica es preguntar al que envía el audio algún dato que solo ambos conozcan. Por ejemplo, el nombre de una mascota o el colegio al que fue de pequeño.

Más allá de estos consejos 'domésticos', las Fuerzas y Cuerpos de Seguridad del Estado también utilizan la inteligencia artificial en la lucha contra el crimen. Una de las herramientas más novedosas que recientemente ha empezado a utilizar la Policía Nacional es el sistema ABIS de reconocimiento facial, que permite identificar el rostro de una persona de la que se tenga registro solo mediante una imagen o vídeo en el que aparezca  mucha gente. Un sistema que ya está muy consolidado en otros países y se ha empezado a utilizar en varias ciudades de España, entre las que se encuentra Valladolid.

Otros usos que da la Policía Nacional a la inteligencia artificial es el reconocimiento de voz, la predicción y evaluación de riesgos en casos como los de violencia de género, así como en la automatización de procesos, realización de peritajes y la agilización de trámites.

Otro proyecto basado en la inteligencia artificial es el Guardia Civil virtual,  que consiste en la creación de pantallas con avatares con los que los ciudadanos pueden interactuar y hacer consultas. Un sistema que pretende ser una solución al problema de falta de agentes en la España vaciada, pero que ya ha recibido críticas de los sindicatos de la Guardia Civil.

Bien es cierto que el campo de investigación en esta incipiente materia todavía es muy amplio. Y en ello están algunas universidades. Por ejemplo, la de Granada está trabajando en un sistema «pionero en el mundo» que permita diferenciar las voces falsas de las que están generadas por inteligencia artificial. Una herramienta que permitiría mejorar la lucha contra los fraudes y la desinformación.

En este sentido, la Universidad de Valladolid aprobó el pasado mes de febrero la creación de un centro de inteligencia artificial para potenciar las actividades de investigación, docencia, transferencia de conocimiento y divulgación.