Buenos días, hoy he querido compartir contigo un artículo publicado en Togas.biz consistente en un informe elaborado por la consultora KPMG, en el que se analiza la forma en que la Inteligencia Artificial (IA) ha cambiado el panorama del fraude en España.
Destacando lo delgada que ha quedado la línea que separa el fraude profesional del fraude ocasional, producido por la fácil accesibilidad a la alta tecnología basada en IA para favorecer la capacidad de falsear documentos, imágenes y todo tipo de datos por parte de cualquier ciudadano con ánimo de cometer un fraude.
Ya no es necesario una organización profesional de estafadores, cualquier persona con conocimientos medios sobre el uso cotidiano de tecnología basada en IA, puede falsear prácticamente lo que desee. No hay límites en el engaño como manifiestan en KPMG.
No solo permite mejorar fraudes conocidos y habituales hasta ahora, si no que también es capaz de generar nuevos fraudes.
Las organizaciones han optado por defenderse de los fraudes con componentes de IA con sistemas de detección también basados en IA. Lo que provoca una guerra tecnológica de IA contra IA.
Pero lo más destacable en mi opinión de este interesantísimo artículo, es la conclusión que efectúa KPMG sobre la tendencia que se está estableciendo por parte de las empresas para detener el avance del fraude con IA y no es precisamente contar con la mejor tecnología, sino integrar personas, procesos y tecnología en una arquitectura coherente. El fraude del siglo XXI no es solo contable, financiero y no es solo digital: es híbrido, transversal y evolutivo. Por ello, la defensa también ha de serlo.
Una vez más se pone de manifiesto que la IA por si sola no es suficiente para resolver problemas, es necesario generar equipos multidisciplinares que sepan interpretar los datos aportados por la IA y saber actuar en consecuencia de la manera más acertada.
El estudio de KPMG confirma lo que hace tiempo vengo afirmando, que la IA sirve para que los profesionales puedan hacer mejor su trabajo, solo resuelve por si sola algunos aspectos más bien de carácter administrativo y por tanto sirve para poner de manifiesto que la labor del perito de seguro adquiere actualmente más importancia, eso si, una vez actualizados los conocimientos y adaptados a las nuevas tecnologías.
En J. Martínez y asociados, Gabinete Técnico de Peritaciones y en SOLPER, Soluciones Periciales, somos conscientes de la importancia de mejorar los conocimientos tecnológicos adaptados a la pericia y como gabinetes especializados en detección del fraude en automóviles y en diversos (IRD), apostamos por una formación continua de calidad.
Un saludo
Fraude en la era tecnológica: ¿a qué nos
enfrentamos?
Lo que hace pocos años requería habilidades técnicas
sofisticadas – crear documentos falsos, suplantar voces, automatizar ataques
cibernéticos o manipular identidades – hoy está al alcance de casi cualquier
usuario con conexión a Internet. ¿La causa? La irrupción de la inteligencia
artificial generativa y los modelos avanzados de machine learning ha
transformado profundamente la realidad empresarial y, en particular, el
panorama del fraude.
Y es que la IA no solo ha reducido drásticamente las
barreras de entrada al fraude, sino que ha multiplicado su escala y difuminado
la frontera entre el crimen organizado y el oportunismo digital. Pero es
importante recordar que el fraude no es un fenómeno nuevo: lo que ha cambiado
es la velocidad, capacidad de automatización y sofisticación con que ahora
puede ejecutarse, así como la mayor dificultad para atribuir responsabilidades.
El fraude del siglo XXI es híbrido, transversal y evolutivo,
y por ello, la defensa también ha de serlo
La evolución del fraude tradicional: de manual a algorítmico
Muchos de los esquemas de fraude clásicos siguen siendo los
mismos, pero ahora la IA les aporta una capacidad de personalización, volumen y
llegada antes inimaginable. Algunos ejemplos que ilustran este cambio:
1- Suplantación de identidad mediante voz y/o imagen
Los deepfakes han pasado de ser curiosidades tecnológicas a
convertirse en herramientas operativas de fraude.
Un ejemplo real más o menos reciente fue un empleado de
finanzas que autorizó la transferencia de más de 25 millones de dólares tras
participar en una videollamada con deepfakes que imitaban a su CFO y otros
compañeros. La estafa utilizó IA para recrear rasgos faciales y sincronización
labial prácticamente perfectos.
2- Documentación falsa o manipulación documental en procesos
de onboarding, contratos, gastos de viaje y representación, justificación de
cuentas bancarias, etc.
Los modelos generativos permiten crear DNIs, pasaportes,
nóminas, facturas, albaranes, contratos, estados financieros y otros documentos
que superan los controles básicos. Las técnicas actuales combinan IA generativa
para imágenes y textos, plantillas reales filtradas en la dark y deep web y la
manipulación automatizada de metadatos.
3- Phishing hiperpersonalizado
Ya no hablamos de correos genéricos identificables con
facilidad. La IA analiza publicaciones en redes, trayectorias laborales,
agendas públicas y patrones de escritura para generar mensajes extremadamente
verosímiles.
IA Ofensiva: la industrialización del fraude
Por otro lado, la aparición de modelos entrenados
deliberadamente con fines maliciosos ha marcado un punto de inflexión.
Plataformas como FraudGPT o WormGPT, disponibles en mercados de la dark web,
ofrecen a cualquier usuario capacidades avanzadas para ejecutar fraude o
ciberataques:
• FraudGPT
es un modelo entrenado sin restricciones éticas destinado a crear scripts de
phishing altamente convincentes, generar malware básico o diseñar campañas
completas de fraude financiero. Su mayor peligro no es su sofisticación, sino
su facilidad de uso.
• WormGPT
es un modelo orientado a automatizar ataques BEC (Business Email Compromise),
redactar correos de ingeniería social imitando estilos específicos, escribir
código malicioso sin limitaciones o ejecutar ataques adaptativos que aprenden
de los fallos de intentos previos.
La IA abre la puerta a nuevas modalidades de fraude
Actúa hoy y protege tu organización
Ambas plataformas representan la democratización del fraude
algorítmico: la capacidad de daño no depende tanto del talento del delincuente,
sino del modelo de IA que tenga a su disposición.
El fraude del presente y futuro: ataques autónomos,
identidades sintéticas y cadenas de manipulación
Más allá de los deepfakes o el phishing, la IA abre la
puerta a nuevas modalidades de fraude. Destacamos a continuación algunas de las
más destacadas:
• Identidades
sintéticas de nueva generación: Un simple prompt como el siguiente: “Genera una
fotografía de carnet de una persona no real” genera el siguiente resultado*:
Si adicionalmente, solicitamos “Genera una imagen de su
documento de identidad” obtendremos un resultado como el siguiente*:
Como observamos, sin mucho esfuerzo la IA permite generar
imágenes hiperrealistas de personas inexistentes, documentación falsa,
historias profesionales creíbles o actividad en redes sociales que sea simulada
por bots.
• Fraude
documental aumentado por IA: Los manipuladores de contenido ya generan PDFs sin
trazas aparentes de edición, variaciones infinitas de justificantes bancarios o
capturas de pantalla indistinguibles de las reales.
• Ataques
autónomos: El futuro contempla escenarios de fraude gestionados por agentes de
inteligencia artificial, con capacidad para identificar vulnerabilidades,
diseñar vectores de ataque optimizados, modificar estrategias según las
defensas detectadas y tomar decisiones de manera completamente independiente,
sin intervención humana.
La respuesta empresarial: IA contra IA
Frente a este nuevo ecosistema delictivo, las organizaciones
están adoptando soluciones basadas en IA defensiva, entre las que destacan:
1. Detección
de anomalías mediante modelos de machine learning que alertan de desviaciones
tanto relevantes como más sutiles que en conjunto supongan un riesgo
importante.
2. Sistemas
de autenticación reforzada, siendo la tendencia hacia los modelos de
autenticación continua, dinámicos y basados en comportamiento más allá del
clásico mecanismo de autenticación multifactor (MFA).
3. Modelos
de análisis de comportamiento (UBA/UEBA) que permiten identificar cambios en
los patrones de actuación.
4. Mecanismos
automatizados de detección de deepfakes que analizan microexpresiones faciales,
irregularidades en el parpadeo, artefactos en el audio, patrones de compresión
o anomalías en la distribución de píxeles.
5. Monitorización
OSINT y de dark web: La vigilancia automatizada de fuentes abiertas y foros
clandestinos permite identificar identidades falsas, detectar filtraciones de
datos corporativos o anticipar campañas dirigidas.
Pero la defensa contra el fraude en la era de la
inteligencia artificial no puede apoyarse únicamente en tecnología, que, por
supuesto, es necesaria, pero no suficiente. La sofisticación de los ataques
exige un enfoque holístico, que combine el análisis y evaluación de riesgos, la
redefinición de procesos, los controles técnicos con procedimientos robustos,
el fraud by design, gobernanza clara, formación transversal y una comunicación
interna fluida. En otras palabras, un modelo de gestión del riesgo de fraude
integral, capaz de anticipar, detectar, responder y recuperarse.
La clave no es disponer de la tecnología más avanzada, sino
integrar personas, procesos y tecnología en una arquitectura coherente
Actualmente, numerosas organizaciones han comenzado a
establecer unidades de Inteligencia Antifraude compuestas por analistas de
OSINT, especialistas en inteligencia artificial defensiva, ciberinvestigadores,
peritos forenses y profesionales de cumplimiento normativo. El objetivo
principal de estos equipos es correlacionar señales débiles y generar alertas
tempranas ante posibles incidentes.
En definitiva, la clave no es disponer de la tecnología más
avanzada, sino integrar personas, procesos y tecnología en una arquitectura
coherente. El fraude del siglo XXI no es solo contable, financiero y no es solo
digital: es híbrido, transversal y evolutivo. Por ello, la defensa también ha
de serlo.
La IA ha cambiado el terreno de juego. Ahora nos toca
cambiar la forma de jugar.
*Estas imágenes han sido creadas por inteligencia
artificial.
Fuente : Maria Barcenilla Torres - Directora Smart Forensic de KPMG
en España
Artículo elaborado por KPMG, publicado en Togas.biz


