Supervisión de la IA: Encontrar el equilibrio adecuado

Discurso pronunciado por Petra Hielkema, presidenta de la EIOPA, en la conferencia Regulación y Supervisión (PROGRES) 2025: Cerrar las brechas de protección y mejorar los seguros inclusivos mediante la regulación el 16 de septiembre de 2025 

 

Damas y caballeros,

Buenos días desde Frankfurt, o mejor dicho, buenas tardes a todos los presentes en Singapur. Es un placer estar con ustedes hoy, aunque sea de forma remota. 

Conferencias internacionales como ésta son una buena oportunidad para que todos aprendamos más sobre las perspectivas de los demás y compartamos ideas sobre hacia dónde se dirige nuestro sector.

La revolución digital está en pleno apogeo, con la inteligencia artificial pisando a fondo el acelerador. Tenemos una visión clara de cómo queremos que se desarrolle esta revolución digital. Queremos asegurarnos de lograr una versión segura, sostenible y equitativa de las nuevas tecnologías y la IA para nuestras empresas y ciudadanos. Estamos convencidos de que este objetivo solo se puede lograr cuando la innovación y la regulación están en equilibrio.

Y en mi discurso de hoy, quiero compartir con ustedes cómo se puede lograr este equilibrio: dónde vemos los beneficios de la IA, así como las áreas donde se necesita una supervisión y precaución cuidadosas; la regulación y supervisión que tenemos establecidas a nivel europeo y, por último, las iniciativas tomadas a nivel internacional, dentro de la IAIS.

[IA: beneficios y riesgos]

Permítanme comenzar con el gran potencial de la IA.

Cada vez usamos más dispositivos portátiles que miden nuestra salud, conducimos coches con seguimiento GPS, vivimos en hogares con funciones inteligentes y usamos las redes sociales para registrar cada aspecto de nuestra vida. Todo esto genera datos que potencialmente pueden ser aprovechados por las aseguradoras, entre otros. La IA es la última incorporación a esta combinación y tiene el potencial de revolucionar el funcionamiento de nuestras empresas y mercados.

No es de extrañar que estemos presenciando una creciente adopción de esta tecnología en toda la cadena de valor de los seguros. El lanzamiento de ChatGPT a finales de 2022 y la consiguiente difusión de grandes modelos de lenguaje que responden excepcionalmente bien a las consultas humanas han impulsado la adopción de la tecnología de IA. 

Nuestros datos muestran que en Europa aproximadamente la mitad de las aseguradoras de no vida y una cuarta parte de las aseguradoras de vida ya estaban aprovechando la IA en toda la cadena de valor, y esta tendencia solo va en aumento.

No necesito insistir en las posibilidades que nos ofrece la inteligencia artificial. Más bien, estoy aquí para destacar algo igualmente importante: la innovación sin restricciones puede tener un coste, uno que corre el riesgo de erosionar la confianza.

El Informe de tendencias de consumo más reciente de EIOPA destaca no solo los beneficios que acabo de mencionar, sino también varios desafíos relacionados con la adopción de IA.

Algunas de estas desventajas se relacionan con su escasa consideración de las circunstancias específicas de los consumidores o con la excesiva estandarización de los procedimientos de liquidación. En cuanto a la tarificación y la suscripción, si bien las autoridades nacionales europeas han reportado beneficios como una segmentación más precisa y la optimización de precios, que pueden reducir los costos y aumentar la asegurabilidad, también les preocupa que la IA pueda proponer primas más altas y reducir el acceso al seguro para clientes vulnerables o de alto riesgo.

La privacidad, la seguridad y el uso ético de los datos son otro motivo de preocupación. La cantidad de datos recopilados y compartidos con terceros está aumentando. Cuanto más sensibles sean los datos, mayores serán los riesgos que deben gestionarse. Al observar que el 24 % de los consumidores de la UE no confía en que las aseguradoras recopilen y utilicen sus datos personales de forma ética, según nuestra reciente encuesta del Eurobarómetro, nos damos cuenta de que el factor confianza es real y debe analizarse seriamente.

Existe otro riesgo que destacar, que se vincula estrechamente con el tema de la conferencia de hoy sobre la mejora de los seguros inclusivos: si bien la integración de la IA en los servicios financieros impulsa una transformación valiosa, debemos estar atentos a sus implicaciones para la igualdad. Me refiero al riesgo de sesgo algorítmico. Cuando los sistemas de IA se entrenan con datos históricos que reflejan décadas de desigualdad de género, por ejemplo, pueden perpetuar y ampliar estos sesgos. Sin un esfuerzo cuidadoso para desestabilizar tanto los datos como los algoritmos, corremos el riesgo de automatizar patrones de discriminación del pasado. Debemos asegurarnos de que las soluciones de IA sean una fuerza positiva. 

Y, por último, existe la preocupación por la mutualización: la idea de que los riesgos son más manejables cuando se comparten entre un grupo amplio y diverso. Este principio contribuye a que la cobertura sea más asequible, especialmente para quienes, de otro modo, podrían verse excluidos por su mayor riesgo. 

Sin embargo, el auge del big data y la tecnología avanzada está ejerciendo presión sobre este modelo. A medida que las aseguradoras adquieren la capacidad de fijar precios de riesgo con mayor precisión, las pólizas pueden personalizarse más. Si bien esto puede generar una mayor eficiencia y productos más personalizados, también puede fragmentar el conjunto de riesgos, ofreciendo primas más bajas a las personas de bajo riesgo y, potencialmente, excluyendo a las consideradas de mayor riesgo. Es importante garantizar que la personalización no erosione la protección colectiva.

Por este motivo, la EIOPA reunió a un Grupo Consultivo de Expertos que trabaja en el uso de datos en seguros, para explorar cómo se pueden utilizar los datos para promover la equidad, la inclusión y la innovación, salvaguardando al mismo tiempo el principio de mutualización. 

Esto significa que, en lugar de crear divisiones entre las personas, la tecnología debería generar inclusión y oportunidades económicas. En lugar de perpetuar prejuicios, debería tratar a las personas con justicia, independientemente de su orientación sexual, raza, religión, edad o estatus socioeconómico. En lugar de concentrar el poder y la riqueza en manos de unos pocos, la IA debería ayudar a superar las brechas económicas fomentando la innovación que beneficie a las pequeñas empresas y a las comunidades locales. En lugar de alimentar la desinformación y erosionar la confianza, la IA debería mejorar la transparencia y democratizar el acceso a información fiable y a procesos justos.

Sólo podremos lograrlo si nos aseguramos de que exista un conjunto adecuado de reglas y de que todos las respeten. 

Esto me lleva a la segunda parte de mi intervención, que es la regulación y supervisión de la IA.

[El panorama global] 

Permítanme comenzar ofreciéndoles una visión más amplia. 

Lo que vemos es que la gobernanza de la IA está bastante fragmentada y es difícil de comprender a nivel global.

El primer desafío es de carácter geográfico. Gran parte de la infraestructura actual de IA y muchas aplicaciones orientadas al consumidor se concentran en unas pocas regiones del mundo. Para Europa, y de hecho para todas las jurisdicciones, es esencial tener acceso a estos sistemas, no solo para comprender su funcionamiento, dada su complejidad, sino también para evaluar los riesgos que pueden plantear. La realidad es que, si bien los sistemas de IA no se desarrollan localmente, sí requieren supervisión local, de acuerdo con las necesidades y responsabilidades de cada país. 

A esto se suma un marco regulatorio no armonizado en lo que respecta al uso de sistemas de IA. Esto inevitablemente genera desafíos para las empresas que operan a nivel global al navegar en diferentes jurisdicciones, y para los gobiernos al gobernar y supervisar eficazmente los sistemas transnacionales de IA. 

Organizaciones internacionales como las Naciones Unidas, la UNESCO, la OCDE y el G7 han emitido principios y colaboran para fomentar la cooperación internacional y una comprensión compartida de los riesgos de la IA. Sin embargo, estos esfuerzos carecen de aplicabilidad legal, y persisten los desafíos para armonizar estándares y definiciones transfronterizas. 

Lo que vemos es que, a pesar de las diferentes estrategias nacionales y regionales, hay un creciente reconocimiento de la necesidad de contar con marcos de gobernanza sólidos.

[Ley de IA]

Hablando de marcos sólidos, la UE es líder mundial en la regulación de la IA con su histórica Ley de IA , el primer marco jurídico integral sobre IA. 

¿Qué aporta la Ley de IA?

La Ley de IA es la primera legislación horizontal del mundo que regula el desarrollo, la introducción y el uso de sistemas de IA en un acto jurídico independiente. Decimos que es horizontal porque afecta a todos los casos de IA, independientemente de si son utilizados por entidades financieras u otras instituciones, ya sean compañías de aviación, hoteles, fabricantes de automóviles o instituciones públicas como las fuerzas de seguridad, el poder judicial o, incluso, la EIOPA.

La Ley de IA introduce un enfoque basado en el riesgo para todas las aplicaciones de IA en la economía, equilibrando la innovación con la confianza. ¿El objetivo? Crear un entorno centrado en el ser humano donde las nuevas tecnologías puedan prosperar de forma segura, responsable y con la confianza tanto de empresas como de consumidores.

Define cuatro niveles de riesgo para los sistemas de IA, aquellos que plantean:

  • Riesgos inaceptables
  • Alto riesgo
  • Riesgos limitados y
  • Riesgos mínimos o nulos.

Los sistemas con riesgos inaceptables están básicamente prohibidos. 

Para los sistemas de alto riesgo, la Ley de IA establece métodos robustos de gestión de riesgos, como altos estándares de calidad de datos, así como sólidas prácticas de gobernanza de datos y mantenimiento de registros. En el sector asegurador, los sistemas de IA utilizados para la evaluación de riesgos y la fijación de precios en seguros de vida y salud se consideran de alto riesgo según la Ley de IA. Las empresas que utilizan sistemas de IA de alto riesgo deben mantener la supervisión humana, ser capaces de explicar los resultados de forma significativa a los usuarios e informarles con antelación cuando estén sujetos al uso de sistemas de alto riesgo. Esto no debería ser una novedad para las aseguradoras, ya que ya estaban reguladas por Solvencia II e IDD, que tienen las mismas expectativas. Aun así, surgieron dudas sobre la definición y el alcance.

Aclaraciones recientes de la Comisión Europea sugieren que los métodos de optimización matemática y los modelos estadísticos tradicionales que las aseguradoras llevan tiempo utilizando podrían quedar excluidos del ámbito de aplicación de la Ley de IA. Esto indica que su aplicación podría ser más proporcionada de lo previsto inicialmente.

En cuanto al resto de sistemas de IA en seguros que no están directamente prohibidos y no constituyen riesgos elevados, estos siguen funcionando sujetos a la legislación sectorial vigente sin nuevos requisitos, salvo que los usuarios de IA deben garantizar la alfabetización en IA entre su personal e informar a los clientes cuando interactúan con sistemas de IA.

Lo que quiero destacar es que, incluso antes de la adopción de la Ley de IA, su uso en seguros no se producía en un ámbito no regulado. Debido a su carácter horizontal, la Ley de IA debe aplicarse en conjunción con la legislación sectorial vigente. Para las aseguradoras, esto significa que las disposiciones pertinentes de Solvencia II y la Directiva sobre la Divulgación de Información Financiera (IDD) siguen plenamente vigentes, incluidos los requisitos de actuar en el mejor interés de los clientes y de establecer un sistema de gobernanza eficaz que garantice una gestión sólida y prudente del negocio. El principio de proporcionalidad, fundamental en el marco legislativo europeo de seguros, también se aplica al uso de la IA por parte de las entidades aseguradoras.

La EIOPA ha publicado recientemente una Opinión sobre gobernanza de la IA y gestión de riesgos que destaca estos aspectos.

Con su enfoque diferenciado y específico, la Ley de IA sienta las bases para una adopción responsable de toda la IA en Europa. Crea un entorno fiable con un enfoque flexible para los sistemas de IA que no presentan un alto riesgo, lo que supone un auge para la innovación. En combinación con las características de resiliencia de DORA, sienta las bases para un despliegue exitoso, responsable y ético de la IA en Europa.

[Supervisión de la IA: opinión de la EIOPA y documento de solicitud de la IAIS sobre la IA]

Ahora permítanme volver a la supervisión, que es el tema principal de mi intervención de hoy.

Hace tan solo un mes, en agosto de 2025, la EIOPA publicó un dictamen sobre la gobernanza de la IA y la gestión de riesgos para garantizar un uso responsable de los sistemas de IA en el sector de los seguros. Este dictamen no añade regulación a la ya existente. Más bien, aclara a los supervisores de la Unión Europea cómo interpretar las disposiciones de la legislación vigente del sector de seguros en el contexto de la IA. Aclara al sector qué esperan los supervisores de las entidades aseguradoras en relación con el uso de sistemas de IA.

 Cubre consideraciones como la gobernanza de datos, el mantenimiento de registros, la equidad, la ciberseguridad, la explicabilidad y la supervisión humana. 

La opinión aclara los principios existentes de gobernanza y gestión de riesgos y al mismo tiempo sigue siendo flexible para permitir la adaptación a las características específicas de los diferentes sistemas de IA.

Lo más importante es que sigue un enfoque proporcionado y basado en el riesgo, para equilibrar los beneficios y los riesgos de los sistemas de IA, dejando así espacio para la innovación.

Ahora también debemos reconocer que la digitalización es un fenómeno global y que nuestros esfuerzos para aprovechar su potencial y mitigar los riesgos deben coordinarse transfronterizamente. La cooperación internacional es esencial para garantizar que nuestros marcos regulatorios sean coherentes, eficaces y receptivos.

Esto es precisamente lo que estamos haciendo a nivel europeo en EIOPA y a nivel internacional dentro de la IAIS, a la que estoy orgulloso de representar como vicepresidente del Comité Ejecutivo y presidente de su Comité FinTech.

En línea con el trabajo de otros organismos internacionales de normalización, como la OCDE y el G20, la IAIS publicó en julio de este año su Documento de Aplicación sobre la supervisión de la inteligencia artificial. El punto de partida de este documento fue la conclusión de que no era necesario cambiar los PBI de la IAIS para supervisar la IA. Lo que se necesitaba era orientación para los supervisores sobre cómo supervisar en la vida real sobre la base de los PBI. La IAIS reúne un conjunto de principios y requisitos, como la gobernanza de datos, la explicabilidad y la supervisión humana, y explica cómo podrían aplicarse en casos concretos de uso de la IA, considerando las especificidades del sector de seguros. Y eso lo hace realmente relevante, ya que se ha escrito y dicho mucho sobre la IA, pero nos centramos en la IA en el contexto de los seguros.

Al igual que la opinión de la EIOPA, las recomendaciones establecidas en el documento de la IAIS siguen la supervisión basada en el riesgo y el principio de proporcionalidad. 

Permítanme analizar este enfoque más profundamente.

¿Qué implica la supervisión basada en riesgos? En la práctica, significa que las actividades y los recursos de supervisión deben estar alineados con el nivel de riesgo al que están expuestos los asegurados, el sector asegurador o el sistema financiero. En el contexto de los sistemas de IA, sabemos que existen diferentes tipos de sistemas de IA, así como casos de uso con distintos niveles de riesgo. El ejemplo que la IAIS presenta en su documento es elocuente: si se considera un sistema de IA utilizado para la recuperación de documentos, este sistema presenta menos riesgo que uno utilizado para determinar el pago de indemnizaciones a los asegurados. Al considerar los diferentes niveles de riesgo, el documento apoya a los supervisores para que asignen más recursos de supervisión a casos de uso de IA de mayor riesgo, que implican un mayor riesgo de conducta de mercado y prudencial.

Analicemos ahora la proporcionalidad. Con base en este principio, los supervisores deberían exigir a las aseguradoras que implementen medidas de gobernanza y gestión de riesgos acordes con el perfil de riesgo del sistema de IA que utilizan. De hecho, las aplicaciones de IA de mayor riesgo deberían estar sujetas a una supervisión y controles más sólidos, mientras que los sistemas de menor riesgo podrían requerir medidas más proporcionadas. Las expectativas de los supervisores son sensibles al riesgo y se centran en los resultados.

Al centrarse en un enfoque proporcional y basado en el riesgo, el documento de solicitud de la IAIS busca encontrar el equilibrio ideal entre promover la innovación y minimizar el riesgo.

La opinión de la EIOPA y el documento de solicitud de la IAIS son los dos documentos más recientes e importantes que ofrecen recomendaciones sobre cómo supervisar los seguros basándose en la legislación existente. 

[Próximos pasos]

Dado que prevemos una rápida adopción de la IA en el sector asegurador, probablemente no la acabe. La EIOPA planea desarrollar un análisis más detallado de sistemas de IA específicos o de cuestiones emergentes relacionadas con su uso en seguros, y proporcionar orientación cuando corresponda. Asimismo, la IAIS seguirá de cerca los avances y trabajará en un conjunto de herramientas internas que los supervisores podrán aprovechar. En otras palabras, nuestro trabajo se centrará en cómo supervisar en general, ayudando a los supervisores a organizarse, así como en sistemas de IA específicos para aquellos supervisores que observen una evolución más rápida en su mercado, y compartiremos esta información. 

Un área particularmente dinámica es la IA Generativa (GenAI), que presenta distintos desafíos y oportunidades. Estos sistemas pueden generar texto, imágenes o código y abren nuevas fronteras, desde la automatización de procesos internos hasta la comunicación con los clientes. Sin embargo, también plantean inquietudes sobre las alucinaciones, el uso indebido y la inexplicabilidad. 

Para comprender mejor las prácticas emergentes, la EIOPA está realizando una encuesta sobre la adopción de GenAI, la gobernanza y los casos de uso en el sector asegurador. Los resultados preliminares sugieren una rápida adopción, especialmente en funciones administrativas como la recopilación de documentos, el desarrollo de herramientas internas y la asistencia con el código. 

Es probable que el uso de GenAI se expanda, y el desarrollo de conocimientos de supervisión ahora ayudará a garantizar que las empresas adopten las salvaguardias adecuadas desde el principio. El trabajo continuo de la EIOPA busca fomentar un diálogo constructivo entre los supervisores y la industria, combinando la innovación con una sólida protección del consumidor y salvaguardias prudenciales. El Foro Fintech también se centrará en este tema.

[CONCLUSIÓN]

Damas y caballeros, 

Al trabajar juntos en estas cuestiones y compartir nuestras experiencias, podemos desarrollar estándares comunes y mejores prácticas, abordar desafíos comunes y crear un campo de juego más equitativo para que operen las aseguradoras y reaseguradoras. 

Estamos convencidos de que juntos podemos liberar todo el potencial de la digitalización y crear una industria de seguros más segura, más innovadora y más resistente para el futuro y podemos convertir la IA y la revolución digital en los éxitos que merecen ser.

Señoras y señores, muchas gracias por su atención.

16/09/2025-®Fuente: EIOPA

¿quieres saber lo que opinan de nosotros?

¡Aquí tienes alguna de las 1.049 opiniones de nuestros clientes!

 

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. +info
Privacidad