viernes, 15 de febrero de 2019

Semana 7


Buenos días, la inteligencia artificial (IA) ya forma parte de nuestras vidas, en lo profesional y en nuestra vida privada. El grado de implantación es tal que el parlamento de la UE ya ha elaborado un borrador para garantizar la ética de los desarrollos de la IA. El pasado 18 de Enero finalizó el plazo para modificaciones y está previsto que el mes próximo vea la luz la primera legislación europea en materia de IA. Resulta evidente que la industria aseguradora no es ajena a la IA, muy al contrario, las características del sector asegurador se adaptan como un guante a los resultados que puede ofrecer la IA en muchos o casi todos los campos en los que trabajan las aseguradoras. Por tanto, este tema será habitual a partir de ahora en este blog. Para empezar, hoy haremos referencia al apartado del borrador que trata la noticia, donde hace mención a la competitividad responsable, siendo uno de los dos factores fundamentales a los que debe ajustarse la IA el de robustez técnica. De tal forma que la IA deberá garantizar que, incluso siendo usada con buenas intenciones, la falta de pericia tecnológica en su manejo no causa un daño involuntario. Este aspecto está muy relacionado con los sistemas de alerta de detección de fraude, siendo muy importante que el operario que maneje la aplicación informática no delegue en el propio sistema el resultado obtenido y por tanto, revise y supervise la acción, este profesional deberá estar cualificado para interpretar los datos. Esta situación es muy importante sobre todo al principio, cuando la IA todavía no lleve suficiente tiempo desarrollado. Este aspecto de robustez técnica afecta claramente también a los programas de valoración de daños materiales de automóviles y de daños corporales, basados en la interpretación de fotografías de los daños, siendo necesario que personal cualificado interprete los resultados para que estos no generen un perjuicio al asegurado en la propuesta de indemnización. Por tanto, más que suplir la labor que realizan los peritos de seguros, en todo caso este sistema debe ser una herramienta que facilite su labor, al ser claramente el profesional más cualificado para interpretar los datos que generan estos programas y por tanto asegurar que el resultado sea un resultado justo. Para otro día dejaremos un aspecto ético que también tratará la normativa y que también afecta al sector asegurador, se trata de conocer en que momento hay que informar a un cliente que en la resolución de su caso ha intervenido la IA.

Un saludo.
Josu Martínez


------------------------------------------------------------------------------------------------------------------------------

La UE presenta sus directrices para el desarrollo ético de la inteligencia artificial



 Fuente : MARCOS MERINO



La Unión Europea lleva varios meses trabajando en varias iniciativas relacionadas con la política tecnológica europea afectan de lleno a la inteligencia artificial. Durante el último Digital Day (10 de abril), ya se anunció que tanto la IA como las redes 5G y el blockchain eran tecnologías cuya regulación querían poner encima de la mesa los comisarios europeos.
Tras eso, el Grupo de Expertos de Alto Nivel en Inteligencia Artificial de la Comisión empezó a reunirse para debatir un primer borrador de unas directrices éticas para el desarrollo y uso de la Inteligencia Artificial.
Este grupo lo conforman 52 expertos del ámbito académico, empresarial y de la sociedad civil del continente (entre los que Cristina San José, responsable de nuevos negocios de big data del Banco Santander, ha sido la única española participante).
Este primer borrador fue, finalmente, presentado ayer en Bruselas. ¿Su objetivo? Garantizar su avance tecnológico al tiempo que se respetan los derechos humanos y los valores fundamentales de los europeos.
Durante el acto de presentación, el vicepresidente de la Comisión Europea Andrus Ansip afirmó que "para que las personas acepten y usen los sistemas basados en inteligencia artificial necesitan poder confiar en ellos y saber que su privacidad es respetada".

Los desafíos éticos a los que nos tendremos que enfrentar mientras aprendemos a vivir con robots
No hubo, sin embargo, referencias a los elementos más polémicos que algunos políticos pusieron sobre la mesa cuando empezó a debatirse este tema en 2017 (robots con derechos humanos y que paguen impuestos).

Una IA enfocada hacia la 'competitividad responsable'
Las directrices recogidas en este borrador de 36 páginas (PDF) señalan dos factores fundamentales a los que debe ajustarse la inteligencia artificial:
•             "Propósito ético": La IA deberá respetar, como decíamos, los DDHH y la regulación vigente.
•             "Robustez técnica": La IA deberá garantizar que, incluso siendo usada con buenas intenciones, la falta de pericia tecnológica en su manejo no causa un daño involuntario.

Según la Comisión Europea, estas directrices persiguen que la IA europea (y la de compañías extranjeras que ofrezcan sus servicios en suelo europeo) haga gala de una "competitividad responsable" y no pretenden "sofocar la innovación".
En el texto se recoge tanto su utilidad para proteger el estado de derecho como las aplicaciones más polémicas (armamento autónomo, vigilancia masiva, etc).
Del mismo modo en que Europa se ha proclamado referente a nivel mundial en la protección de datos privados, obligando a las grandes compañías extra-comunitarias a asumir nuestros estándares legales en este campo, el Ejecutivo europeo confía en lograr un impacto similar en el campo de la ética para IAs.

¿Y a partir de ahora?
A partir de ahora y por período de un mes, el borrador está abierto a comentarios de las instituciones y la sociedad civil, y no será hasta el próximo mes de marzo cuando se presente la versión definitiva.
Incluso entonces, los principios recogidos en el documento sólo serán orientativos: el objetivo es que guíen la elaboración de leyes futuras, no que se conviertan ellos mismos en ley.
La Comisión Europea también aprovechó el acto de ayer para anunciar que impulsará la adopción de estrategias nacionales de IA en cada estado miembro, así como la creación de una nueva colaboración público-privada en este campo a nivel europeo.
Su objetivo último es que, en conjunto, gobiernos y empresas inviertan al menos 20.000 millones de euros al año en investigación para IA a partir de 2020. Pretenden así, quizá, revertir la situación actual que nos obliga a permanecer por detrás de Estados Unidos y China en lo que respecta al liderazgo de la IA.

No hay comentarios:

Publicar un comentario