
By Gregory van den Top ,
AI Practice Leader, Marsh Advisory Europe
01/10/2025 · Lectura en 5 minutos
La inteligencia artificial (IA) tiene una rica historia que se remonta a mediados del siglo XX, cuando pioneros como Alan Turing y John McCarthy sentaron las bases para el aprendizaje automático y los sistemas inteligentes. Desde entonces, la IA ha evolucionado de sistemas simples basados en reglas a algoritmos complejos capaces de aprender de grandes cantidades de datos. En Europa, las implicaciones de la IA en los negocios son profundas. Las empresas están aprovechando la IA para mejorar la eficiencia operativa, mejorar la experiencia del cliente e impulsar la innovación.
Sin embargo, la IA en los negocios también plantea consideraciones importantes en cuanto a la privacidad de los datos, el uso ético y el cumplimiento normativo. A medida que las organizaciones adoptan tecnologías de IA, deben navegar por las complejidades del marco legal de la UE, que enfatiza la transparencia, la responsabilidad y la protección de los derechos individuales.
Para implementar con éxito una estrategia de inteligencia artificial y gestionar los riesgos asociados, se pueden tomar varios pasos, incluyendo:
1. Aclarar quién es responsable de la IA
La gestión de riesgos de IA a menudo puede ser ambigua dentro de las organizaciones (ver figura 1). La responsabilidad de los riesgos relacionados con la IA puede estar distribuida entre varios departamentos, como TI, cumplimiento y operaciones, sin una designación clara de quién es finalmente responsable. Esta falta de claridad puede llevar a una comunicación fragmentada, donde diferentes equipos tienen prioridades conflictivas o no colaboran de manera efectiva.
* Disponible solo en inglés
Fuente: Airmic (encuesta a miembros de Airmic realizada el 27 de agosto de 2024).
Para abordar estos desafíos, los gestores de riesgos deben definir la propiedad y la responsabilidad del riesgo de IA. Esto se puede lograr creando un equipo de gobernanza de IA multifuncional que incluya representantes de departamentos clave, asegurando que todas las perspectivas relevantes sean consideradas en el proceso de toma de decisiones.
2. Evaluación de los riesgos potenciales de la IA
Es imperativo reconocer los riesgos asociados con la implementación de la IA, incluyendo:
Las organizaciones necesitan entender el impacto de la IA en su perfil de riesgo. Por ejemplo, la dependencia de grandes conjuntos de datos para entrenar modelos de IA puede aumentar el riesgo de incumplimiento de las leyes de protección de datos, especialmente si la información sensible se maneja incorrectamente o no se protege adecuadamente.
Además, el sesgo algorítmico puede llevar a resultados injustos o discriminatorios, lo que podría dañar la reputación de la organización y resultar en repercusiones legales. El incumplimiento normativo se convierte en una preocupación crítica, ya que las organizaciones deben navegar por leyes y directrices en evolución en torno al uso de la IA, particularmente en regiones con regulaciones estrictas de protección de datos, como la UE. Estos cambios provocados por la IA requieren una reevaluación exhaustiva de las estrategias de gestión de riesgos existentes para abordar los desafíos únicos que plantean las tecnologías de IA.
Para mitigar y transferir eficazmente los riesgos asociados con la implementación de la IA, los gestores de riesgos deben primero realizar una evaluación exhaustiva de riesgos de IA que incluya prácticas de manejo de datos, equidad algorítmica y cumplimiento normativo. Deben evaluar cómo estos riesgos afectan su cartera de seguros existente, asegurando que la cobertura y los límites sean suficientes. Luego deben considerar transferir cualquier riesgo restante a través del seguro. Al abordar proactivamente los riesgos de la IA, los gestores de riesgos pueden ayudar a sus organizaciones a aprovechar los beneficios de la IA mientras minimizan los posibles inconvenientes.
3. Implementación de programas de formación en IA y una estrategia de comunicación
Un programa integral de formación y comunicación es esencial para articular los beneficios y resultados esperados de las iniciativas de IA, al tiempo que equipa al personal con las habilidades necesarias para trabajar junto a los sistemas de IA. Mientras tanto, los mecanismos de retroalimentación permiten un diálogo y ajuste continuo entre la gestión de riesgos y el negocio.
La falta de formación y comunicación puede obstaculizar las iniciativas de IA al crear confusión, resistencia y falta de compromiso entre los empleados. Cuando el personal no está adecuadamente informado sobre el propósito de la IA, puede percibirla como una amenaza para sus trabajos, en lugar de una oportunidad. Y si los empleados no están seguros de cómo usar la IA, pueden volver a procesos obsoletos, lo que lleva a ineficiencias y oportunidades perdidas para la innovación.
Un programa de formación y comunicación integral y multifuncional debe proporcionar a los empleados el conocimiento y las habilidades necesarias para prosperar en un entorno mejorado por la IA. Este programa debe incluir sesiones introductorias que expliquen los fundamentos de la IA, sus aplicaciones dentro de la organización y los beneficios específicos que aporta a sus roles.
4. Monitoreo del impacto de la IA
Establecer métricas para monitorear el impacto de la inteligencia artificial en los negocios es esencial para evaluar su efectividad y tomar decisiones informadas, mientras se adhiere a la legislación de la UE que regula la protección de datos y el uso ético de la IA.
Evaluar el uso y la eficiencia de la IA en las organizaciones es vital para asegurar que estas tecnologías brinden los beneficios previstos mientras cumplen con las regulaciones pertinentes.
Sin una evaluación adecuada, las organizaciones corren el riesgo de implementar sistemas de IA que no cumplan con los objetivos comerciales o que no proporcionen un retorno de inversión. Por ejemplo, un chatbot de servicio al cliente impulsado por IA puede implementarse para mejorar la experiencia del usuario. Pero si no está entrenado o monitoreado de manera efectiva, podría llevar a un aumento de la frustración y la insatisfacción del cliente, lo que finalmente perjudica la reputación de la marca. Además, si las organizaciones no evalúan el rendimiento de los algoritmos de IA, pueden perpetuar inadvertidamente sesgos o tomar decisiones basadas en datos desactualizados, lo que lleva a preocupaciones éticas y posibles repercusiones legales.
Antes de establecer un programa de monitoreo robusto para iniciativas de IA, las organizaciones deben definir indicadores clave de rendimiento (KPI) que se alineen con sus objetivos estratégicos. Los KPI pueden incluir:
Los gestores de riesgos pueden luego colaborar con analistas de datos y equipos de TI para desarrollar un marco para la recopilación y análisis de datos para monitorear el programa. Este marco debe incluir informes regulares, como revisiones mensuales o trimestrales, para evaluar el rendimiento de los servicios de IA en relación con los KPI. Los gestores de riesgos también deben abogar por la integración de bucles de retroalimentación que permitan una mejora continua basada en los conocimientos obtenidos del monitoreo.
Los gestores de riesgos necesitan aprovechar la oportunidad de guiar a su organización a través del viaje transformador de la IA y sus potenciales beneficios para los negocios y la sociedad. Al implementar un marco de gobernanza de IA, reconocer los riesgos potenciales, proporcionar capacitación a los empleados y monitorear las métricas de rendimiento, pueden gestionar efectivamente los desafíos asociados y minimizar los riesgos relacionados con la privacidad de los datos en IA, el sesgo algorítmico y el cumplimiento normativo.