viernes, 28 de noviembre de 2025

Semana 48

Buenos días, uno de los aspectos que preocupan a la sociedad es lo relativo a la ética de la Inteligencia Artificial (IA) y en lo que respecta a este asunto dentro del sector asegurador, el mercado regulador quiere que el uso de esta tecnología sea lo más fiable y trasparente. 

Para ello el sector asegurador fomenta protocolos y recomendaciones para un uso correcto de la IA, además de contar con controles reglamentarios de supervisores para constatar que se cumplen los requisitos normativos de la UE en esta materia. 

Hoy he querido compartir un artículo, en el que explica de forma clara las perspectivas del sector asegurador y las medidas regulatorias de la utilización de la IA por parte de las aseguradoras. 

El artículo publicado por la revista digital del CCS, Consorseguros, está redactado por un asesor jurídico de UNESPA que en su calidad de Inspector de Seguros del Estado, hace que el artículo sea de gran fiabilidad por venir de un profesional altamente cualificado para opinar sobre la materia. 

En lo que respecta a la actividad profesional que me ocupa, la de perito de seguros, el autor de artículo, Lázaro Cuesta Barberá, expresa claramente que en la gestión de siniestros, la IA puede hacer una estimación preliminar del importe de los daños, pero un perito podrá intervenir para confirmar dicho importe o ajustarlo. Lo cual quiere poner de manifiesto que la IA sirve para aportar datos que ayuden a los profesionales a realizar mejor su trabajo y que por tanto sirva para que el consumidor pueda confiar en las decisiones de las aseguradoras. Ahora bien para que la confianza del mercado sea real, todos deberemos ser conscientes de la importancia del uso racional de la IA, evitando y denunciando los casos de malas prácticas que por afán de tomar atajos o de un ahorro en los procesos, se utilice la IA de una forma diferente a la acordada y deseada por todo el sector asegurador. 

El artículo es extenso, pero tras su lectura quedarán aclaradas muchas dudas respecto al uso ético de la IA en el sector asegurador. 

Un saludo

Josu Martínez                                          

--------------------------------------------------------------------------------------------------------------------------------

Inteligencia artificial en el sector asegurador: perspectivas de mercado y regulatorias






Dentro del intenso proceso de transformación digital en el que se encuentran inmersas la economía y la sociedad en general, observamos cómo en el sector financiero y, dentro de él, en el ámbito asegurador, se ha producido en los últimos años un notable avance en la utilización de nuevas tecnologías que han llegado para quedarse.

Es el caso del cloud computing o computación en la nube, que empezó a ser utilizada por los grandes operadores y las empresas insurtech y que en la actualidad se utiliza prácticamente por la totalidad de las entidades aseguradoras en España. Y es el caso también de la inteligencia artificial (en adelante, IA), que sin llegar a esa cuota de mercado todavía, nos atrevemos a vaticinar que en muy poco tiempo formará parte de la operativa habitual de todo el sector. No es una predicción demasiado arriesgada, pues los últimos datos disponibles ya apuntan a una extensa implantación de la IA entre las compañías de seguros.      

Las aseguradoras parten con cierta ventaja a la hora de subirse al carro de la IA en comparación con las empresas de otros sectores y es que, como suele decirse, los datos constituyen la materia prima del seguro. Las entidades cuentan con una extensa experiencia en el diseño, la calibración y la validación de modelos matemáticos, experiencia particularmente valiosa de cara a sacar el máximo partido a las nuevas tecnologías en la gestión de datos. Ello explica que una amplia mayoría de entidades aseguradoras ya tengan implantados proyectos de IA y que, entre las que aún no los tienen, muchas estén iniciando desarrollos o los tengan previstos a corto plazo. Además, cabe destacar que cada vez son más las entidades que cuentan con una estrategia definida en materia de IA, para cuya implantación se asignan presupuestos con carácter anual y se crean equipos o departamentos específicos.   

En relación con el grado de implantación de la IA en seguros, resulta muy ilustrativo el reciente Informe sobre la digitalización del sector asegurador europeo, publicado por EIOPA el 30 de abril de 2024, que incluye los resultados de una encuesta entre aseguradores de toda la UE. Los resultados señalan que el 50 % de las entidades están ya aplicando la IA en los ramos de seguro de no vida y el 24 % en el ramo de vida; adicionalmente, un 30 % y un 39 % de las entidades encuestadas esperan utilizar la IA en el negocio de seguros de no vida y vida respectivamente. Con estas cifras, y teniendo en cuenta los desarrollos que se están produciendo, por ejemplo, en cuanto a la IA generativa, no cabe sino esperar que el uso de la IA por parte de las entidades aseguradoras siga aumentando de forma notable en los próximos años.



Para la puesta en marcha de proyectos en materia de IA se observan en el mercado distintos enfoques. Encontramos numerosos ejemplos de proyectos desarrollados internamente por las compañías, normalmente los que tienen que ver con la esencia de la actividad aseguradora, como la suscripción y la tarificación. Para otros proyectos, como los relacionados con el marketing digital o los chatbots, las entidades aseguradoras suelen confiar en proveedores de servicios tecnológicos. Y finalmente existen múltiples proyectos que se llevan a cabo con un enfoque mixto, que implica desarrollos por la propia compañía con el apoyo fundamental de empresas insurtech o proveedores especializados, por ejemplo, en el ámbito de la gestión de siniestros y la prevención del fraude.

Perfiles profesionales como científicos de datos, desarrolladores de aplicaciones, administradores de bases de datos y otros empleados expertos en big data e IA están cada vez más presentes en el sector. Y aquí nos enfrentamos con un reto común a otros sectores económicos, la dificultad de encontrar talento cualificado en ámbitos tan novedosos y especializados como las operaciones de machine learning o la percepción cognitiva.

Las aplicaciones de la IA en el sector asegurador son múltiples y abarcan a toda la cadena de valor del seguro. Como señalaron UNESPA y AEFI en su Informe sobre la digitalización de la industria aseguradora, publicado en marzo de 2023, la IA está siendo probablemente la tecnología más disruptiva en la operativa interna de la industria aseguradora, ofreciendo numerosas oportunidades tanto para las empresas del sector como para los consumidores.

Actualmente las áreas que presentan una mayor implantación de la IA son la atención al cliente, la detección del fraude y la gestión de siniestros; pero la IA también está muy presente en otros ámbitos, como el de la suscripción, la tarificación o la distribución de productos de seguro.    

En el área de atención al cliente, cabe destacar el uso de chatbots y asistentes virtuales impulsados por técnicas de procesamiento de lenguaje natural (NLP), que las entidades utilizan, por ejemplo, para ayudar a los clientes a navegar por su página web o para resolver dudas recurrentes.

En la detección del fraude, la IA permite a las compañías multiplicar exponencialmente su capacidad para la identificación de situaciones anómalas y proceder a su investigación de manera más ágil. Por ejemplo, con la IA se pueden detectar más fácilmente casos de manipulación en los documentos o en las imágenes que se gestionan en la tramitación de siniestros. Asimismo, a través del análisis de patrones de comportamiento, la IA permite establecer alertas para detectar casos sospechosos. La mayor capacidad de detección del fraude se traduce en un ahorro importante para las entidades aseguradoras, pero también en primas más bajas para los asegurados honestos, que son la amplia mayoría.

En la gestión de siniestros, las aseguradoras están desarrollando gracias a la IA sistemas de valoración de daños basados en el análisis de imágenes. Este tipo de sistemas se aplican especialmente en el ramo de automóviles, pero también en seguros del hogar y de locales comerciales. También hay aseguradoras que utilizan la IA para la segmentación de las reclamaciones por tipo y complejidad o para la automatización a la hora de verificar facturas y pagos de indemnizaciones, sobre todo cuando se trata de pagos de menor cuantía. Con este tipo de soluciones las entidades pueden reducir los costes de gestión y los clientes obtienen una respuesta más rápida tras la declaración de un siniestro.

La IA también está presente en el área de diseño y desarrollo de productos, donde su utilización permite procesar grandes cantidades de datos de cara a que las aseguradoras puedan ofrecer nuevos productos y servicios adaptados a las necesidades y demandas del consumidor. Para ello, se utilizan, por ejemplo, datos históricos de clientes, datos de encuestas de satisfacción o datos provenientes de dispositivos personales o de vehículos u hogares conectados. Así la combinación de la IA con el llamado «internet de las cosas» (Internet of things o IoT) permite ofrecer servicios de prevención de pérdidas o mitigación de riesgos, como aquellos orientados a mejorar el comportamiento al volante de los conductores o a facilitar recomendaciones o sugerencias para la adopción de estilos de vida más saludables.

En el área de fijación de precios y suscripción, el procesamiento de una ingente cantidad de información por parte de sistemas de IA cada vez más sofisticados permite a las aseguradoras suscribir riesgos de manera más eficiente, fijando precios que reflejen el riesgo y las características de cada individuo asegurado de manera más precisa. De esta forma los consumidores con perfiles de riesgo más bajos pueden beneficiarse de primas más bajas y también se posibilita que algunos consumidores de alto riesgo, que anteriormente tenían dificultades para acceder a seguros, encuentren menos dificultades para obtener cobertura (por ejemplo, los conductores jóvenes que instalen dispositivos de telemetría en sus vehículos o consumidores con ciertas patologías que utilizan pulseras portátiles de salud y proporcionan acceso a los datos a las aseguradoras). Obviamente, desde el punto de vista del consumidor, también surge el riesgo de que algunas aseguradoras puedan llevar a cabo prácticas de «optimización de precios», empleando diversos factores no relacionados con el riesgo para estimar la elasticidad del precio del consumidor o la propensión a cambiar de compañía.

Las aseguradoras también pueden ser más precisas en el cálculo de provisiones técnicas gracias a la utilización de sistemas de IA para estimar el valor de las pérdidas, especialmente en líneas de negocio con siniestros de alta frecuencia, donde hay un número suficientemente amplio de puntos de datos disponibles para entrenar al sistema de IA.

En el área de venta y distribución, las técnicas de marketing digital pueden facilitar a las aseguradoras captar la atención del consumidor mediante ofertas personalizadas, aumentando las ventas a través de sus sitios web, aplicaciones u otros canales de distribución digital. Además, hacen que el proceso de compra sea más sencillo para el consumidor.

Con esta amplísima variedad de utilidades no es de extrañar que exista en el sector una apuesta decidida por la IA, pero al mismo tiempo las entidades son plenamente conscientes de que el uso de la IA y la automatización de los procesos puede conllevar un riesgo operacional, por lo que es necesario contar con sistemas robustos de gobierno y de gestión de riesgos. De ahí, que las entidades aseguradoras hayan acogido la IA con entusiasmo, pero también con cautela.

Esta cautela se refleja en el empleo de la IA con un cierto nivel de supervisión humana. Por ejemplo, en el ámbito de la distribución, la IA puede sugerir al agente de seguros que ofrezca al cliente determinados productos o coberturas, correspondiendo la decisión final al propio agente; o en el ámbito de la gestión de siniestros, la IA puede hacer una estimación preliminar del importe de los daños, pero un perito podrá intervenir para confirmar dicho importe o ajustarlo.

También se observa esa cautela en el tipo de algoritmos utilizados. Actualmente predomina el empleo de algoritmos más sencillos, como los árboles de decisión, que son fáciles de entender, explicar y supervisar. Pero lo normal es que, a mayor complejidad de los algoritmos, mayor sea su precisión, por lo que cabría esperar que, a medida que las entidades aseguradoras vayan adquiriendo más experiencia en el uso de la IA, se incremente el uso de algoritmos más sofisticados, como las redes neuronales o el deep learning.

Asimismo, las aseguradoras son conscientes de los riesgos para los consumidores y de la necesidad de reforzar la confianza y el compromiso del sector por un uso ético de la IA y evitar supuestos de desprotección para los clientes, derivados de un eventual mal uso de la misma. Fruto de esa preocupación, el sector asegurador español promovió ya en 2020 la publicación de los Principios de UNESPA sobre el uso ético de la IA en el sector asegurador. Se trata de un documento que recoge los principios de trato justo, proporcionalidad, responsabilidad proactiva, seguridad, transparencia, formación, evaluación y revisión. En base a dichos principios, se promueven, entre otros, los siguientes compromisos:

     • Evitar que el uso de aplicaciones basadas en IA pueda dar lugar a un trato discriminatorio para determinadas personas o colectivos, de forma que únicamente se admitan tratamientos diferenciados cuando estén amparados por la técnica aseguradora y la legislación aplicable y que se establezcan procesos de revisión para detectar y minimizar sesgos no conscientes.

     • Llevar a cabo evaluaciones de impacto para determinar las medidas de gobernanza necesarias para cada uso de la IA.

     •  Establecer procedimientos de control interno, incorporando el control del uso de la IA en el sistema de gestión de riesgos de la entidad.

     • Velar porque las aplicaciones basadas en IA que utilicen las entidades aseguradoras mantengan, en todo momento de su vida útil, un nivel de robustez adecuado que garantice la máxima seguridad en su uso y de los datos que gestione. En el marco de la política de seguridad lógica y física, la entidad tendrá implantadas rutinas de chequeo y comprobación de vulnerabilidades, adoptando las medidas técnicas y organizativas apropiadas que garanticen un nivel de seguridad adecuado al riesgo que el uso de la IA pueda inferir en el respeto de los derechos y libertades de los interesados.

     • Informar sobre el uso que hacen de la misma en su página web, en sus canales habituales de información y en sus políticas escritas.

     • Garantizar que el personal encargado de las aplicaciones basadas en IA tenga conocimiento suficiente, específico y adaptado al perfil de sus funciones y responsabilidades, incluyendo formación específica sobre las limitaciones de los sistemas de IA.

     • Revisar la fiabilidad de las soluciones de IA aplicadas mediante autoevaluaciones periódicas.

Los principios de UNESPA se basan en las recomendaciones emitidas por organizaciones e instituciones internacionales; en particular la labor del Grupo de expertos de alto nivel sobre IA de la Comisión Europea, los principios de la OCDE de 2019 y especialmente en el informe publicado en 2021 por el Grupo Consultivo de Expertos de EIOPA sobre Ética Digital en seguros bajo el título Principios de gobernanza de la inteligencia artificial: hacia una IA ética y confiable en el sector de seguros europeo.

Los trabajos de los expertos comunitarios han cristalizado recientemente en la adopción del Reglamento europeo sobre IA, sobre el que se alcanzó un acuerdo en diciembre de 2023. La norma, pionera a nivel mundial, pretende garantizar que los sistemas de IA usados en el mercado comunitario sean seguros y respeten los derechos fundamentales y los valores de la UE. Se trata de una norma de carácter horizontal que, con la finalidad de proteger a ciudadanos y empresas, prevé el establecimiento de restricciones al uso de la IA y la imposición de especiales requisitos en aquellos supuestos en los que su uso se considere de alto riesgo.

En el ámbito de los seguros cabe destacar como supuesto de alto riesgo el uso de la IA para la evaluación del riesgo y la tarificación en relación con personas físicas en los seguros de vida y salud. Sin perjuicio de que se comparta que los seguros de vida y salud puedan conllevar un mayor riesgo por la sensibilidad de los datos que se manejan, la redacción utilizada en el Reglamento no parece la más acertada. Se trata de una referencia demasiado amplia e imprecisa. En este sentido, hubiera sido más adecuada la redacción propuesta durante la tramitación de la norma por el Parlamento Europeo, que abogaba por incluir dentro de la lista de sistemas de alto riesgo aquellos destinados a ser utilizados en relación con los seguros de salud y de vida para «tomar decisiones o influir materialmente en las decisiones sobre la elegibilidad» de las personas físicas. Tal redacción hubiera sido más precisa y consistente con la inclusión, dentro de la lista de alto riesgo en el ámbito financiero, de los sistemas empleados para llevar a cabo perfilados crediticios y con la preocupación última del legislador de evitar la exclusión financiera.

En todo caso, la inclusión de estos usos de la IA en la lista de alto riesgo ha sido objeto de críticas por diversas voces, incluida EIOPA. Así, la autoridad europea, en una carta de julio de 2022 dirigida a los colegisladores (Comisión, Consejo y Parlamento Europeo), defendía que el uso de la IA en el sector asegurador no fuera calificado como de alto riesgo al no haberse realizado una evaluación de impacto exhaustiva. Considera el supervisor que el Reglamento debería reflejar la relevancia del uso de la IA en el sector financiero y, en particular, en el sector de los seguros, pero su desarrollo y concreción debería realizarse a través de la legislación sectorial, basándose en los actuales sistemas de gobernanza, gestión de riesgos, conducta de mercado y supervisión de los productos.

Para apoyar la aplicación del Reglamento de IA en el ámbito asegurador, EIOPA ha recogido una línea de actuación específica dentro de su plan de trabajo para 2024, incluyendo la posibilidad de emitir directrices para aclarar al mercado cuáles son las expectativas del supervisor y abordar los beneficios y riesgos derivados del uso de la IA en los seguros, incluido el posible trato injusto a los consumidores o prácticas discriminatorias.

Junto con los desarrollos a nivel europeo, en España cabe citar el Real Decreto 817/2023, de 8 de noviembre, que establece un entorno controlado de pruebas para el ensayo del cumplimiento del Reglamento europeo de IA. Este Real Decreto tiene como objeto crear un entorno controlado de pruebas (sandbox) en el que participen diferentes entidades elegidas mediante convocatoria pública en la que seleccionen, a modo de ensayo, algunos sistemas de IA que puedan suponer riesgos para la seguridad, la salud y los derechos fundamentales de las personas. El sandbox constituirá una oportunidad para que las entidades aseguradoras, junto a los proveedores tecnológicos que les presten servicios, puedan testar sus proyectos que impliquen la utilización de la IA en seguros. A estos efectos cabe precisar que el Real Decreto prevé la posibilidad de participar a la vez en el sandbox de IA y en otro espacio controlado de pruebas que esté implementándose por otra autoridad, como sería el sandbox regulatorio de servicios financieros controlado por la Dirección General de Seguros y Fondos de Pensiones (DGSFP) y el resto de los supervisores financieros.

En el ámbito supervisor, la DGSFP ha incluido como uno de los grandes ejes en torno a los que define sus prioridades de supervisión estratégicas para el periodo 2023-2025 la transformación digital en el sector asegurador y de fondos de pensiones y la introducción y utilización de la IA en los diferentes procesos y para la toma de decisiones. Ante la imparable evolución de la IA, el supervisor destaca la necesidad de analizar las áreas en las que interviene, el grado de influencia en las decisiones, los factores que se toman en consideración, especialmente los relativos a la sostenibilidad, y cómo todo ello influye en la calidad de la prestación del servicio, con el objetivo de garantizar que la IA aporte valor no solo a las entidades del sector sino también a los asegurados y partícipes.

En definitiva, queda claro que la IA está llamada a jugar un papel decisivo en lapor los propios avances tecnológicos como por los desarrollos regulatorios y la actuación de los supervisores. En cualquier caso, el compromiso del sector con el uso ético de la IA y, especialmente, la dilatada experiencia en el cumplimiento de los altos estándares de gobernanza y gestión de riesgos incluidos en Solvencia II, sitúan a las entidades aseguradoras en un punto de partida particularmente ventajoso de cara al cumplimiento de los nuevos requisitos legales en materia de IA.



En relación con el grado de implantación de la IA en seguros, resulta muy ilustrativo el reciente Informe sobre la digitalización del sector asegurador europeo, publicado por EIOPA el 30 de abril de 2024, que incluye los resultados de una encuesta entre aseguradores de toda la UE. Los resultados señalan que el 50 % de las entidades están ya aplicando la IA en los ramos de seguro de no vida y el 24 % en el ramo de vida; adicionalmente, un 30 % y un 39 % de las entidades encuestadas esperan utilizar la IA en el negocio de seguros de no vida y vida respectivamente.



viernes, 21 de noviembre de 2025

Semana 47

Buenos días, hoy he querido compartir contigo un artículo publicado en Togas.biz consistente en un informe elaborado por la consultora KPMG, en el que se analiza la forma en que la Inteligencia Artificial (IA) ha cambiado el panorama del fraude en España.

Destacando lo delgada que ha quedado la línea que separa el fraude profesional del fraude ocasional, producido por la fácil accesibilidad a la alta tecnología basada en IA para favorecer la capacidad de falsear documentos, imágenes y todo tipo de datos por parte de cualquier ciudadano con ánimo de cometer un fraude. 

Ya no es necesario una organización profesional de estafadores, cualquier persona con conocimientos medios sobre el uso cotidiano de tecnología basada en IA, puede falsear prácticamente lo que desee. No hay límites en el engaño como manifiestan en KPMG. 

No solo permite mejorar fraudes conocidos y habituales hasta ahora, si no que también es capaz de generar nuevos fraudes. 

Las organizaciones han optado por defenderse de los fraudes con componentes de IA con sistemas de detección también basados en IA. Lo que provoca una guerra tecnológica de IA contra IA. 

Pero lo más destacable en mi opinión de este interesantísimo artículo, es la conclusión que efectúa KPMG sobre la tendencia que se está estableciendo por parte de las empresas para detener el avance del fraude con IA y no es precisamente contar con la mejor tecnología, sino integrar personas, procesos y tecnología en una arquitectura coherente. El fraude del siglo XXI no es solo contable, financiero y no es solo digital: es híbrido, transversal y evolutivo. Por ello, la defensa también ha de serlo. 

Una vez más se pone de manifiesto que la IA por si sola no es suficiente para resolver problemas, es necesario generar equipos multidisciplinares que sepan interpretar los datos aportados por la IA y saber actuar en consecuencia de la manera más acertada. 

El estudio de KPMG confirma lo que hace tiempo vengo afirmando, que la IA sirve para que los profesionales puedan hacer mejor su trabajo, solo resuelve por si sola algunos aspectos más bien de carácter administrativo y por tanto sirve para poner de manifiesto que la labor del perito de seguro adquiere actualmente más importancia, eso si, una vez actualizados los conocimientos y adaptados a las nuevas tecnologías. 

En J. Martínez y asociados, Gabinete Técnico de Peritaciones y en SOLPER, Soluciones Periciales, somos conscientes de la importancia de mejorar los conocimientos tecnológicos adaptados a la pericia y como gabinetes especializados en detección del fraude en automóviles y en diversos (IRD), apostamos por una formación continua de calidad. 

Un saludo

Josu Martínez                      
------------------------------------------------------------------------------------------------------------------

Fraude en la era tecnológica: ¿a qué nos

enfrentamos?


KPMG analiza cómo la Inteligencia Artificial (IA) generativa ha transformado el panorama del fraude, reduciendo las barreras de entrada, multiplicando la escala de los ataques y exigiendo una respuesta empresarial holística.


Lo que hace pocos años requería habilidades técnicas sofisticadas – crear documentos falsos, suplantar voces, automatizar ataques cibernéticos o manipular identidades – hoy está al alcance de casi cualquier usuario con conexión a Internet. ¿La causa? La irrupción de la inteligencia artificial generativa y los modelos avanzados de machine learning ha transformado profundamente la realidad empresarial y, en particular, el panorama del fraude.

Y es que la IA no solo ha reducido drásticamente las barreras de entrada al fraude, sino que ha multiplicado su escala y difuminado la frontera entre el crimen organizado y el oportunismo digital. Pero es importante recordar que el fraude no es un fenómeno nuevo: lo que ha cambiado es la velocidad, capacidad de automatización y sofisticación con que ahora puede ejecutarse, así como la mayor dificultad para atribuir responsabilidades.

El fraude del siglo XXI es híbrido, transversal y evolutivo, y por ello, la defensa también ha de serlo

La evolución del fraude tradicional: de manual a algorítmico

Muchos de los esquemas de fraude clásicos siguen siendo los mismos, pero ahora la IA les aporta una capacidad de personalización, volumen y llegada antes inimaginable. Algunos ejemplos que ilustran este cambio:

1- Suplantación de identidad mediante voz y/o imagen

Los deepfakes han pasado de ser curiosidades tecnológicas a convertirse en herramientas operativas de fraude.

Un ejemplo real más o menos reciente fue un empleado de finanzas que autorizó la transferencia de más de 25 millones de dólares tras participar en una videollamada con deepfakes que imitaban a su CFO y otros compañeros. La estafa utilizó IA para recrear rasgos faciales y sincronización labial prácticamente perfectos.

2- Documentación falsa o manipulación documental en procesos de onboarding, contratos, gastos de viaje y representación, justificación de cuentas bancarias, etc.

Los modelos generativos permiten crear DNIs, pasaportes, nóminas, facturas, albaranes, contratos, estados financieros y otros documentos que superan los controles básicos. Las técnicas actuales combinan IA generativa para imágenes y textos, plantillas reales filtradas en la dark y deep web y la manipulación automatizada de metadatos.

3- Phishing hiperpersonalizado

Ya no hablamos de correos genéricos identificables con facilidad. La IA analiza publicaciones en redes, trayectorias laborales, agendas públicas y patrones de escritura para generar mensajes extremadamente verosímiles.

IA Ofensiva: la industrialización del fraude

Por otro lado, la aparición de modelos entrenados deliberadamente con fines maliciosos ha marcado un punto de inflexión. Plataformas como FraudGPT o WormGPT, disponibles en mercados de la dark web, ofrecen a cualquier usuario capacidades avanzadas para ejecutar fraude o ciberataques:

      • FraudGPT es un modelo entrenado sin restricciones éticas destinado a crear scripts de phishing altamente convincentes, generar malware básico o diseñar campañas completas de fraude financiero. Su mayor peligro no es su sofisticación, sino su facilidad de uso.

      • WormGPT es un modelo orientado a automatizar ataques BEC (Business Email Compromise), redactar correos de ingeniería social imitando estilos específicos, escribir código malicioso sin limitaciones o ejecutar ataques adaptativos que aprenden de los fallos de intentos previos.

La IA abre la puerta a nuevas modalidades de fraude

Actúa hoy y protege tu organización

Ambas plataformas representan la democratización del fraude algorítmico: la capacidad de daño no depende tanto del talento del delincuente, sino del modelo de IA que tenga a su disposición.

El fraude del presente y futuro: ataques autónomos, identidades sintéticas y cadenas de manipulación

Más allá de los deepfakes o el phishing, la IA abre la puerta a nuevas modalidades de fraude. Destacamos a continuación algunas de las más destacadas:

      • Identidades sintéticas de nueva generación: Un simple prompt como el siguiente: “Genera una fotografía de carnet de una persona no real” genera el siguiente resultado*:

 


Si adicionalmente, solicitamos “Genera una imagen de su documento de identidad” obtendremos un resultado como el siguiente*:

 


Como observamos, sin mucho esfuerzo la IA permite generar imágenes hiperrealistas de personas inexistentes, documentación falsa, historias profesionales creíbles o actividad en redes sociales que sea simulada por bots.

      • Fraude documental aumentado por IA: Los manipuladores de contenido ya generan PDFs sin trazas aparentes de edición, variaciones infinitas de justificantes bancarios o capturas de pantalla indistinguibles de las reales.

      • Ataques autónomos: El futuro contempla escenarios de fraude gestionados por agentes de inteligencia artificial, con capacidad para identificar vulnerabilidades, diseñar vectores de ataque optimizados, modificar estrategias según las defensas detectadas y tomar decisiones de manera completamente independiente, sin intervención humana.

La respuesta empresarial: IA contra IA

Frente a este nuevo ecosistema delictivo, las organizaciones están adoptando soluciones basadas en IA defensiva, entre las que destacan:

      1. Detección de anomalías mediante modelos de machine learning que alertan de desviaciones tanto relevantes como más sutiles que en conjunto supongan un riesgo importante.

      2. Sistemas de autenticación reforzada, siendo la tendencia hacia los modelos de autenticación continua, dinámicos y basados en comportamiento más allá del clásico mecanismo de autenticación multifactor (MFA).

      3. Modelos de análisis de comportamiento (UBA/UEBA) que permiten identificar cambios en los patrones de actuación.

      4. Mecanismos automatizados de detección de deepfakes que analizan microexpresiones faciales, irregularidades en el parpadeo, artefactos en el audio, patrones de compresión o anomalías en la distribución de píxeles.

      5. Monitorización OSINT y de dark web: La vigilancia automatizada de fuentes abiertas y foros clandestinos permite identificar identidades falsas, detectar filtraciones de datos corporativos o anticipar campañas dirigidas.

Pero la defensa contra el fraude en la era de la inteligencia artificial no puede apoyarse únicamente en tecnología, que, por supuesto, es necesaria, pero no suficiente. La sofisticación de los ataques exige un enfoque holístico, que combine el análisis y evaluación de riesgos, la redefinición de procesos, los controles técnicos con procedimientos robustos, el fraud by design, gobernanza clara, formación transversal y una comunicación interna fluida. En otras palabras, un modelo de gestión del riesgo de fraude integral, capaz de anticipar, detectar, responder y recuperarse.

La clave no es disponer de la tecnología más avanzada, sino integrar personas, procesos y tecnología en una arquitectura coherente

Actualmente, numerosas organizaciones han comenzado a establecer unidades de Inteligencia Antifraude compuestas por analistas de OSINT, especialistas en inteligencia artificial defensiva, ciberinvestigadores, peritos forenses y profesionales de cumplimiento normativo. El objetivo principal de estos equipos es correlacionar señales débiles y generar alertas tempranas ante posibles incidentes.

En definitiva, la clave no es disponer de la tecnología más avanzada, sino integrar personas, procesos y tecnología en una arquitectura coherente. El fraude del siglo XXI no es solo contable, financiero y no es solo digital: es híbrido, transversal y evolutivo. Por ello, la defensa también ha de serlo.

La IA ha cambiado el terreno de juego. Ahora nos toca cambiar la forma de jugar.

*Estas imágenes han sido creadas por inteligencia artificial.

Fuente : Maria Barcenilla Torres - Directora Smart Forensic de KPMG en España

Artículo elaborado por KPMG, publicado en Togas.biz

 


viernes, 14 de noviembre de 2025

Semana 46

Buenos días, esta semana volvemos a publicar una noticia antigua con intención de conocer la situación actual sobre la posibilidad de acceder por parte de las aseguradoras al EDR (Registrador de Datos de Eventos) o también conocido como caja negra.

El EDR registra una serie de datos que aportan información importantísima para conocer las causas de un siniestro y por tanto también para determinar si hay existencia de un intento de fraude.

Estos datos tan importantes, son velocidad, aceleración, uso de cinturones, activaciones de sistemas de retención, ángulo de giro del volante entre otros, los cuales quedan grabados durante los 30 segundos antes del siniestro y 5 después

Los EDR ya se encuentran instalados en turismos y furgonetas comercializados en la UE desde el 6 de Julio de 2022.

La UE pretende limitar el acceso a estos datos a las autoridades de cada país, con el único motivo de ayudar a la prevención en materia de seguridad vial.

Las aseguradoras europeas tratan de conseguir la autorización para la obtención de los datos de los EDR y un argumento para conseguirlo es la sentencia a la que hace referencia la noticia que hoy publicamos, en la que se indica que los asegurados están obligados a aportar todo lo que sirva para aclarar las causas de un siniestro, en virtud de su obligación de informar, lo cual está relacionado directamente con la actividad pericial.

En estos momentos aunque el acceso a los datos actualmente se limita a las autoridades de forma general, parece ser que ya se está autorizando el acceso a los datos por parte de las aseguradoras cuando forman parte de un proceso judicial, pudiendo en dichos casos solicitar los datos a las autoridades intervinientes en el caso.

Un saludo

Josu Martínez

-----------------------------------------------------------------------------------------------------------------------------

Una sentencia en Alemania permite a las aseguradoras acceder a la nueva caja negra

En el panorama de la industria del automóvil, 2022 será también el año de los asistentes de seguridad a la conducción. Y de entre las novedades destaca la ansiada caja negra. Objeto de discusión sobre la protección de datos, una sentencia en Alemania sienta jurisprudencia al permitir que los seguros puedan acceder a la información.




2022 es uno de los años más importantes en el área de la seguridad. En solo unos días, todos los modelos nuevos del mercado deberán de contar con el asistente inteligente de velocidad «ISA» y también con la caja negra que permitirá recopilar todos los eventos anteriores a un accidente de tráfico. Este dispositivo permitirá facilitar una reconstrucción más fiable de los eventos ocurridos, así como los posibles fallos en los diferentes sistemas.

El EDR, como se conoce al dispositivo de grabación de datos, será obligatorio desde el próximo 6 de julio de 2022. Sin embargo, no ha contentado a todo el mundo, pues el gran problema es quién tendrá acceso a esta información. La Unión Europea vela porque sean las autoridades los que únicamente tengan acceso, de manera que así no se violará la protección de datos. Pero la justicia alemana ha sentado jurisprudencia con una sentencia tan inédita como interesante. Y es que una parte principal en los accidentes de tráfico son las aseguradoras.

Los seguros tendrán acceso a los datos de la caja negra para evaluar con más precisión los accidentes


La obligación de informar al seguro permitirá acceder al EDR

Estas ya avisaron de que la obstaculización a la hora obtener los datos en un siniestro puede ocasionar la pérdida de la cobertura del seguro, por lo que una de las partes implicadas podría verse desamparada. Blanco y en botella, quieren participar también en la información registrada. De hecho, el Tribunal Regional de Colonia, en su sentencia, señala que «los asegurados están obligados a aportar todo lo que sirva para aclarar las causas de un siniestro, en virtud de su obligación de informar». Y no hay problema porque, dado que el propietario del vehículo no sabe dónde se encuentra el «EDR», será un experto -o las autoridades como la DGT- los que faciliten la información.

Esta sentencia abre la puerta de par en par a las aseguradoras en toda Europa, y en relación a la información contenida en el EDR especialmente, dictada en una causa muy similar. Y es que un conductor alemán de una berlina de lujo sufrió un accidente golpeando los quitamiedos de una carretera al perder el control por el asfalto resbaladizo, cuando se le cayó un objeto en el área de los pies y trató de recogerlo.

La caja negra EDR en los coches nuevos llega en 2022, descubrimos sus detalles


Dado que los asistentes de seguridad contienen una pequeña memoria de datos, su seguro trató de acceder a ellos, al tiempo que el conductor se negó tajantemente basándose en su privacidad. El juez entendió que no solo obstaculizó, sino que estas ayudas podrían haber evitado el accidente, por el que reclamaba 15.000 Euros de su seguro a todo riesgo, llegando a apuntar que el vehículo había sido vendido en Polonia por necesidad económica. Un cúmulo de obstáculos que supuso perder la protección.   


viernes, 7 de noviembre de 2025

Semana 45

Buenos días, aunque se trata de una noticia antigua, el porcentaje de fraudes ocasionales consistentes en pasar una avería como siniestro o reclamar daños anteriores al siniestro continúan estando presentes en 3 de cada 4 casos de fraude al seguro. 

Fingir un siniestro para cubrir averías costosas es una práctica cada vez más frecuente, habida cuenta del encarecimiento de las averías mecánicas y electrónicas debido a la mayor tecnificación de los vehículos y del encarecimiento de los recambios. 

La labor pericial en estos casos se presenta más que fundamental, imprescindible, ya que es el profesional más cualificado para la detección de este tipo de fraude. 

Un saludo

Josu Martínez

-----------------------------------------------------------------------------------------------------------------------------

Pasar una avería como siniestro, entre las estafas al seguro más comunes

Daños ajenos al accidente, los montajes o presupuestos inflados, 

Pasar una avería como siniestro, la estafa más común al seguro


El 71% del fraude a las compañías aseguradoras se registra en el ramo de coches, y se ha multiplicado por 3,5 veces respecto a 2009.

Así lo reflejan los datos del ‘Tercer barómetro del fraude en el seguro de autos’ de Línea Directa, que concluye que seis de cada cien siniestros declarados son intentos de estafa.

Según la encuesta, el 94,5% de los intentos de fraude se corresponden con los daños materiales, aunque las cuantías varían según la región.

En este sentido, los daños ajenos al siniestro están presentes en tres de cada cuatro casos, por lo que siguen siendo las estafas más habituales. Por detrás, se sitúan los montajes preparados con antelación (12%), los presupuestos inflados (7%), las averías declaradas como siniestros (1,5%) y los falsos hurtos (1%).