La industria aseguradora ha estado utilizando la Inteligencia Artificial (IA), específicamente el procesamiento del lenguaje natural (NLP), durante muchos años para automatizar procesos complejos y mejorar su eficiencia. Sin embargo, con la llegada de la IA generativa y los grandes modelos de lenguaje (LLM), la adopción de esta tecnología transformadora en el sector se ha acelerado. Según los datos de ICEA, en 2023, tres de cada cuatro aseguradoras en España están trabajando o desarrollando proyectos de IA. Aunque la IA generativa tiene un gran potencial para esta industria, también implica riesgos operativos, éticos y regulatorios. Por lo tanto, es esencial que las organizaciones del sector asegurador tomen medidas para mitigar estos riesgos. Surge la idea de la IA responsable, que se basa en desarrollar y utilizar la IA de manera ética, teniendo en cuenta sus posibles riesgos. La IA ética se basa en los principios de transparencia, justicia, diversidad, responsabilidad, seguridad y solidez. El primer paso para garantizar una IA responsable es definir buenas prácticas, estándares y servicios para evaluar, monitorear y mitigar los riesgos. A medida que la adopción de la IA aumente y entre en vigor la regulación europea en 2026, será necesario cumplir con estas buenas prácticas y garantizar el cumplimiento regulatorio. En diciembre de 2022, la UE aprobó el ‘AI Act’, que establece los requisitos para que una IA sea ética. Esta ley clasifica los sistemas de IA en tres categorías: riesgo inaceptable, alto y limitado. Los sistemas de riesgo inaceptable están prohibidos, mientras que los sistemas de alto riesgo deben evaluarse antes de su comercialización y a lo largo de su ciclo de vida. Por otro lado, los sistemas de IA de riesgo limitado deben cumplir con requisitos mínimos de transparencia. La IA generativa, como ChatGPT, también debe cumplir con requisitos de transparencia, como revelar que el contenido ha sido generado por esta tecnología y diseñar el modelo para evitar generar contenido ilegal. Sin embargo, la Comisión Europea aprobó enmiendas al ‘AI Act’ en junio de 2023, endureciendo las normas y ampliando su alcance. Una de las principales novedades es la inclusión de los modelos fundacionales en la categoría de alto riesgo. Estos modelos son aquellos con propósito abierto, entrenados con grandes cantidades de datos y utilizados para múltiples fines. Las enmiendas también aclaran las responsabilidades de los desarrolladores e implementadores de sistemas de IA. Los desarrolladores son responsables de garantizar que sus modelos cumplan con la ley, mientras que los implementadores son responsables de utilizarlos de manera segura y ética. Afortunadamente, ya existen soluciones, como la plataforma SAS Viya, que ayudan a identificar el sesgo en los modelos de aprendizaje automático y rastrean los datos utilizados para entrenarlos. Esto contribuye a garantizar la ética en los modelos utilizados por las organizaciones y a cumplir con la regulación una vez que entre en vigor. Además, los modelos de alto riesgo deben cumplir con requisitos técnicos para garantizar su seguridad, equidad e imparcialidad. Estos requisitos incluyen la identificación y mitigación de riesgos, el análisis de sesgos y la protección de datos personales, así como el consumo de energía del sistema. La IA generativa, en particular, tiene una huella de carbono significativa debido a la gran cantidad de datos y potencia de cálculo que requiere. Por lo tanto, es importante adoptar un enfoque de “IA verde” que reduzca el consumo energético de esta tecnología y utilice fuentes de energía renovables. Para abordar este problema, España aprobó el Programa Nacional de Algoritmos Verdes en 2022, que busca fomentar el desarrollo de la IA verde en el país. El sector asegurador español también está comprometido con la reducción de su huella de carbono y aplica criterios de sostenibilidad en su cartera de inversiones para combatir el cambio climático. En resumen, la IA es una tecnología poderosa con el potencial de transformar el sector asegurador, pero debe desarrollarse y utilizarse de manera responsable. Las aseguradoras deben comprender los riesgos de la IA, establecer lineamientos para mitigarlos, incorporar criterios ESG en su estrategia de IA e invertir en investigación y desarrollo. Al hacerlo, estarán bien posicionadas para aprovechar el potencial de la IA, mejorar sus operaciones y tener un impacto positivo en la sociedad.
Source link