Ferma advierte de los riesgos del uso de herramientas de Inteligencia Artificial

Ferma se ha mostrado satisfecha con el nombramiento por parte de la CE de los expertos del High Level Group on Artificial Intelligence (AI HLG), un grupo que apoyará la implementación de la estrategia europea en el ámbito de la Inteligencia Artificial (IA), incluido el desarrollo de guías éticas para final de este año. Ferma explica que actualmente no hay normas éticas claras para el uso de los datos generados por las herramientas de IA, y una guía tendrá en cuenta principios de protección de datos y transparencia.

Además, la asociación de gestores de riesgos europeos ha pedido que se preste atención urgente a dos prioridades para las empresas europeas. En primer lugar, considera que hay que establecer una línea clara entre las oportunidades que ofrecen las tecnologías de IA y las amenazas que esas mismas tecnologías plantean para la asegurabilidad de las organizaciones como resultado de una sobreconfianza en la IA durante el proceso de toma de decisiones.

Además, considera que las normas éticas para el uso corporativo de la IA no solo se tienen que aplicar a los empleados sino también a los proveedores y el resto de actores de la cadena de valor. Explican que "las herramientas de IA permitirán una mayor y constante monitorización de un gran número de diferentes parámetros. Los gestores de riesgos creen que este mayor uso de datos podría generar inquietud entre los stakeholders y riesgos reputacionales".