Buenos días, la inteligencia artificial (IA) ya forma parte
de nuestras vidas, en lo profesional y en nuestra vida privada. El grado de
implantación es tal que el parlamento de la UE ya ha elaborado un borrador para
garantizar la ética de los desarrollos de la IA. El pasado 18 de Enero finalizó
el plazo para modificaciones y está previsto que el mes próximo vea la luz la
primera legislación europea en materia de IA. Resulta evidente que la industria
aseguradora no es ajena a la IA, muy al contrario, las características del
sector asegurador se adaptan como un guante a los resultados que puede ofrecer
la IA en muchos o casi todos los campos en los que trabajan las aseguradoras.
Por tanto, este tema será habitual a partir de ahora en este blog. Para
empezar, hoy haremos referencia al apartado del borrador que trata la noticia,
donde hace mención a la competitividad responsable, siendo uno de los dos
factores fundamentales a los que debe ajustarse la IA el de robustez técnica.
De tal forma que la IA deberá garantizar que, incluso siendo usada con buenas
intenciones, la falta de pericia tecnológica en su manejo no causa un daño
involuntario. Este aspecto está muy relacionado con los sistemas de alerta de
detección de fraude, siendo muy importante que el operario que maneje la
aplicación informática no delegue en el propio sistema el resultado obtenido y
por tanto, revise y supervise la acción, este profesional deberá estar
cualificado para interpretar los datos. Esta situación es muy importante sobre
todo al principio, cuando la IA todavía no lleve suficiente tiempo
desarrollado. Este aspecto de robustez técnica afecta claramente también a los
programas de valoración de daños materiales de automóviles y de daños
corporales, basados en la interpretación de fotografías de los daños, siendo
necesario que personal cualificado interprete los resultados para que estos no
generen un perjuicio al asegurado en la propuesta de indemnización. Por tanto,
más que suplir la labor que realizan los peritos de seguros, en todo caso este
sistema debe ser una herramienta que facilite su labor, al ser claramente el
profesional más cualificado para interpretar los datos que generan estos
programas y por tanto asegurar que el resultado sea un resultado justo. Para
otro día dejaremos un aspecto ético que también tratará la normativa y que
también afecta al sector asegurador, se trata de conocer en que momento hay que
informar a un cliente que en la resolución de su caso ha intervenido la IA.
Un saludo.
Josu Martínez
------------------------------------------------------------------------------------------------------------------------------
La UE presenta sus directrices para el desarrollo ético de
la inteligencia artificial
La Unión Europea lleva varios meses trabajando en varias
iniciativas relacionadas con la política tecnológica europea afectan de lleno a
la inteligencia artificial. Durante el último Digital Day (10 de abril), ya se
anunció que tanto la IA como las redes 5G y el blockchain eran tecnologías cuya
regulación querían poner encima de la mesa los comisarios europeos.
Tras eso, el Grupo de Expertos de Alto Nivel en Inteligencia
Artificial de la Comisión empezó a reunirse para debatir un primer borrador de
unas directrices éticas para el desarrollo y uso de la Inteligencia Artificial.
Este grupo lo conforman 52 expertos del ámbito académico,
empresarial y de la sociedad civil del continente (entre los que Cristina San
José, responsable de nuevos negocios de big data del Banco Santander, ha sido
la única española participante).
Este primer borrador fue, finalmente, presentado ayer en
Bruselas. ¿Su objetivo? Garantizar su avance tecnológico al tiempo que se
respetan los derechos humanos y los valores fundamentales de los europeos.
Durante el acto de presentación, el vicepresidente de la
Comisión Europea Andrus Ansip afirmó que "para que las personas acepten y
usen los sistemas basados en inteligencia artificial necesitan poder confiar en
ellos y saber que su privacidad es respetada".
Los desafíos éticos a los que nos tendremos que enfrentar
mientras aprendemos a vivir con robots
No hubo, sin embargo, referencias a los elementos más
polémicos que algunos políticos pusieron sobre la mesa cuando empezó a
debatirse este tema en 2017 (robots con derechos humanos y que paguen
impuestos).
Una IA enfocada hacia la 'competitividad responsable'
Las directrices recogidas en este borrador de 36 páginas
(PDF) señalan dos factores fundamentales a los que debe ajustarse la
inteligencia artificial:
• "Propósito
ético": La IA deberá respetar, como decíamos, los DDHH y la regulación
vigente.
• "Robustez
técnica": La IA deberá garantizar que, incluso siendo usada con buenas
intenciones, la falta de pericia tecnológica en su manejo no causa un daño
involuntario.
Según la Comisión Europea, estas directrices persiguen que
la IA europea (y la de compañías extranjeras que ofrezcan sus servicios en
suelo europeo) haga gala de una "competitividad responsable" y no
pretenden "sofocar la innovación".
En el texto se recoge tanto su utilidad para proteger el
estado de derecho como las aplicaciones más polémicas (armamento autónomo,
vigilancia masiva, etc).
Del mismo modo en que Europa se ha proclamado referente a
nivel mundial en la protección de datos privados, obligando a las grandes
compañías extra-comunitarias a asumir nuestros estándares legales en este
campo, el Ejecutivo europeo confía en lograr un impacto similar en el campo de
la ética para IAs.
¿Y a partir de ahora?
A partir de ahora y por período de un mes, el borrador está
abierto a comentarios de las instituciones y la sociedad civil, y no será hasta
el próximo mes de marzo cuando se presente la versión definitiva.
Incluso entonces, los principios recogidos en el documento
sólo serán orientativos: el objetivo es que guíen la elaboración de leyes
futuras, no que se conviertan ellos mismos en ley.
La Comisión Europea también aprovechó el acto de ayer para
anunciar que impulsará la adopción de estrategias nacionales de IA en cada
estado miembro, así como la creación de una nueva colaboración público-privada
en este campo a nivel europeo.
Su objetivo último es que, en conjunto, gobiernos y empresas
inviertan al menos 20.000 millones de euros al año en investigación para IA a
partir de 2020. Pretenden así, quizá, revertir la situación actual que nos
obliga a permanecer por detrás de Estados Unidos y China en lo que respecta al
liderazgo de la IA.