Gobernanza tecnológica y habilidades en los comités de riesgo

La gobernanza tecnológica requiere supervisión constante, mecanismos de validación y políticas claras sobre el uso responsable de herramientas como la IA.

Gobernanza tecnológica y habilidades en los comités de riesgo


N62567
Mtro. Hugo Guillermo Olivares Lima Director en The Dream Team University
Gobierno corporativo 21 de julio de 2025

La Inteligencia Artificial (IA) generativa se está convirtiendo en una variable crítica en la toma de decisiones empresariales. Su adopción masiva no sólo genera eficiencias, también abre la puerta a “riesgos invisibles” que los comités tradicionales no están preparados para detectar ni gestionar.

En esta nueva era, la gobernanza tecnológica ya no es opcional. Existen conocimientos esenciales que deben adquirir los comités de riesgos para supervisar con criterio, anticiparse con responsabilidad y proteger la integridad de las organizaciones ante los desafíos éticos, operativos y regulatorios de la IA.

IA como factor disruptivo de gobernanza en las empresas

Esta tecnología ha irrumpido en la toma de decisiones empresariales con una fuerza que no estaba prevista en los marcos tradicionales de gobernanza. Sistemas que aprenden por sí mismos y operan en tiempo real están interviniendo en decisiones críticas, tales como la asignación de créditos, selección de proveedores o análisis de riesgos financieros. No obstante, muchos de estos modelos funcionan como cajas negras y sus decisiones son rápidas, aunque sus procesos no sean fácilmente observables. Esto plantea un reto serio para los comités de riesgo.

El mayor peligro no está en el algoritmo, sino en la confianza ciega. Una IA mal entrenada puede amplificar sesgos, violar normativas o afectar la reputación de la empresa sin que nadie entienda cómo ocurrió. La gobernanza tecnológica requiere supervisión constante, mecanismos de validación y políticas claras sobre el uso responsable de estas herramientas.

Además, los marcos regulatorios internacionales están evolucionando. La Ley de IA de la Unión Europea (UE) y las guías de ética profesional apuntan a una supervisión más estricta. En este contexto, los comités de riesgo no pueden operar sin actualizar su nivel de alfabetización tecnológica; es decir, deben convertirse en actores estratégicos en la supervisión de sistemas automatizados.

La IA no es una moda tecnológica, es una disrupción estructural que desafía las reglas conocidas de supervisión, responsabilidad y toma de decisiones.

¿Qué implica una IA confiable?

Una IA confiable no sólo es la que acierta más, sino la que lo hace bajo estándares éticos, legales y operativos verificables. Su comportamiento debe ser explicable, robusto y predecible, incluso cuando opera en contextos cambiantes. La confianza no nace de la tecnología en sí, sino del marco que la regula y de las personas que la supervisan.

Organismos como la Organización para la Cooperación y el Desarrollo Económicos (OCDE) y la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco, por sus siglas en inglés) han definido principios para una IA confiable: transparencia, equidad, responsabilidad, seguridad y respeto a los derechos humanos. La Ley de IA de la UE categoriza los sistemas según su nivel de riesgo, estableciendo requisitos específicos de evaluación, documentación y monitoreo.

Para las organizaciones, esto significa ir más allá del entusiasmo técnico; implica evaluar proveedores, exigir reportes explicativos de los modelos empleados y contar con mecanismos de validación y control. Si no se puede auditar, no debería ser usada en procesos críticos, pues confiar a ciegas en la IA no es modernidad, es negligencia.

Formación tecnológica de los comités

No se espera que los comités de riesgo se conviertan en ingenieros de datos, pero sí en interlocutores informados. La alfabetización tecnológica ya no es opcional; es una condición mínima para supervisar entornos donde los algoritmos tienen voz y voto en decisiones clave.

El comité debe conocer conceptos esenciales como explicabilidad, entrenamiento de modelos, sesgos algorítmicos, overfitting y criterios de validación; aunado a esto, debe familiarizarse con marcos regulatorios, normativas internas de uso y prácticas de gobernanza algorítmica. Sin ese lenguaje común, se vuelve imposible cuestionar, auditar o simplemente entender lo que está en juego.

Una propuesta concreta es establecer un currículum mínimo para la capacitación de comités de riesgo, con temas y niveles de profundidad según su rol, desde nociones básicas de IA hasta análisis de implicaciones éticas y legales. Este enfoque escalonado permite integrar la formación a la agenda sin saturarla, asegurando que cada miembro pueda reconocer los riesgos antes de que se materialicen.

Una IA mal entrenada puede amplificar sesgos, violar normativas o afectar la reputación de la empresa sin que nadie entienda cómo ocurrió.

IA y herramientas de gestión de riesgo

Gestionar los riesgos de la IA requiere algo más que sentido común. Actualmente, existen marcos y herramientas específicas diseñadas para evaluar, monitorear y controlar el comportamiento de los algoritmos. Entre las más relevantes se encuentran los modelos de scoring de riesgo algorítmico, las auditorías automatizadas de IA y los sistemas de trazabilidad que documentan cada modificación en el entrenamiento del modelo.

Una herramienta clave es el modelo de evaluación de impacto algorítmico (AIA, por sus siglas en inglés), el cual permite prever efectos no deseados antes de desplegar un sistema. Además, es fundamental implementar controles de versión para modelos, pruebas de estrés algorítmicas, así como documentación clara que permita reproducir y explicar decisiones.

Algunas empresas están adoptando comités internos de gobernanza algorítmica con estructuras similares a las de compliance que validan modelos antes de su implementación. Estas herramientas, lejos de ser un freno, fortalecen la legitimidad del uso de la IA y reducen la exposición legal y reputacional.

Aplicación práctica: checklist para comités

Para traducir estos conceptos en acción, los comités de riesgo pueden apoyarse en un checklist básico que les ayude a evaluar si están preparados para supervisar proyectos con IA. Aquí algunos puntos clave:

Preguntas de verificación
1 ¿Se tienen identificados todos los procesos actuales donde interviene la IA?
2 ¿Se sabe qué tipo de modelo se está utilizando (reglas, aprendizaje automático o IA generativa)?
3 ¿Existe documentación explicativa y validación independiente del sistema?
4 ¿Se han evaluado los posibles sesgos y riesgos éticos asociados?
5 ¿Se cuenta con protocolos de revisión periódica y control de versiones?
6 ¿Está definido quién es responsable ante fallos algorítmicos?
7 ¿Hay un plan de respuesta ante decisiones automatizadas erróneas?

Este checklist no sustituye una política, pero puede encender las alarmas correctas a tiempo. Se trata de una brújula simple (pero poderosa) para no perder el norte en medio del vértigo tecnológico.

Conclusiones

La IA no es una moda tecnológica, es una disrupción estructural que desafía las reglas conocidas de supervisión, responsabilidad y toma de decisiones. En este nuevo escenario, los comités de riesgo deben asumir un rol estratégico en la gobernanza de sistemas automatizados. La confianza no se basa en intuición ni prestigio; se construye con datos, comprensión técnica fundamental y protocolos claros.

Formarse, cuestionar, auditar y anticipar serán las nuevas competencias críticas porque, si la IA decide sin supervisión, la organización pierde control. Asimismo, si el comité no entiende lo que está aprobando, el riesgo raíz no será tecnológico, sino humano.icono final



Te puede interesar



© 2025 Colegio de Contadores Públicos de México, A.C.

Directorio Contacto Aviso legal Acerca de Veritas

Inicia sesión o suscríbete para continuar leyendo.

Si eres socio del Colegio utiliza el mismo correo y contraseña

O

Suscribirse