La IA aumentará la vulnerabilidad de las empresas a los ciberataques y fallos técnicos

La inteligencia artificial aumentará la vulnerabilidad de las empresas a los ciberataques y fallos técnicos, lo que dará lugar a situaciones de interrupción y pérdidas de mayor escala. Esta es una de las conclusiones del informe 'El auge de la inteligencia artificial: perspectivas de futuro y nuevos riesgos', realizado por Allianz Global Corporate & Specialty, en el que identifica tanto los beneficios como los nuevos riesgos asociados a la creciente implementación de la IA en la sociedad y la industria, incluyendo el sector asegurador.

Adaptar las coberturas

Las aseguradoras tienen que desempeñar un papel crucial para contribuir a minimizar, gestionar y transferir los nuevos riesgos asociados a las aplicaciones de IA. Las coberturas tradicionales deben ser adaptadas para proteger tanto a clientes como a empresas. El seguro debe dar un mejor tratamiento a determinados riesgos de las empresas, como los ciberataques, la pérdida de beneficios, la retirada de producto y el perjuicio reputacional. Probablemente se adoptarán nuevos modelos de seguro –en áreas como la conducción autónoma, por ejemplo– que aumentarán la presión sobre los fabricantes y distribuidores de software y reducirán la responsabilidad estricta de los consumidores.

Por otro lado, el sector de seguros ha sido uno de los primeros en adoptar el aprendizaje automático, ya que maneja grandes cantidades de datos y procesos repetitivos. El impulso al análisis de datos por IA ofrecerá también a aseguradoras y clientes una mejor comprensión de los riesgos, de modo que estos podrán ser reducidos de manera más efectiva, mientras que podrán también desarrollarse nuevas soluciones de seguro. Por ejemplo, el análisis basado en IA podría ayudar a las empresas a comprender mejor los riesgos cibernéticos y a mejorar la seguridad. Al mismo tiempo, la tecnología podría ayudar a las aseguradoras a identificar acumulaciones de riesgos cibernéticos. Por último la IA va a cambiar el modo en que las aseguradoras interactúan con sus clientes, permitiendo un servicio 24/7.

Nuevos riesgos de IA

Para identificar los nuevos riesgos de IA, AGCS se ha centrado en cinco áreas de interés, en concreto accesibilidad del software, seguridad, responsabilidad, obligación y ética. En términos de seguridad, por ejemplo, la carrera por llevar sistemas de IA al mercado podría dar lugar a insuficientes o inadecuadas validaciones, que son necesarias para garantizar el despliegue de agentes inteligentes seguros, funcionales y protegidos frente a ataques cibernéticos. Esto podría, a su vez, dar lugar a un incremento de productos defectuosos y de retiradas de producto.

Por lo que respecta a la responsabilidad, los agentes inteligentes podrían en el futuro asumir numerosas decisiones que ahora toman los seres humanos, pero no se les puede hacer legalmente responsables de las mismas. En general, el fabricante o el programador del software de los agentes inteligentes asume la responsabilidad por los defectos que causen perjuicios a los usuarios. No obstante, en las decisiones de IA que no estén directamente vinculadas con el diseño o la fabricación, pero que sean tomadas por el agente inteligente como resultado de su interpretación de la realidad, con arreglo a la legislación actual, no habría una parte con responsabilidad explícita.