Ecos del capital humano

Talento y cultura en tiempos de IA: claves para integridad y reputación

El éxito no está en la plataforma elegida, sino en la arquitectura de talento. En sectores de IA de alta precisión, el criterio humano garantiza reputación.

Talento y cultura en tiempos de IA: claves para integridad y reputación


Mtro. Hugo Guillermo Olivares Lima
Mtro. Hugo Guillermo Olivares Lima Director en The Dream Team University
Ecos del capital humano 27 de abril de 2026

En la adopción organizacional de Inteligencia Artificial (IA) se observa un patrón recurrente: el debate suele concentrarse en plataformas, licencias y entrenamiento funcional; ese enfoque es insuficiente. La IA generativa cambia la naturaleza del trabajo intelectual y desplaza el valor humano desde la ejecución repetitiva hacia capacidades superiores, como el criterio, la comunicación y la responsabilidad (accountability).

Ahora bien, se propone un marco práctico para que firmas, áreas financieras y profesionales independientes usen esta tecnología con productividad, sin sacrificar calidad, control y reputación.

El riesgo no es la IA, sino el uso sin responsabilidad humana

Varios incidentes públicos de los últimos años muestran un problema consistente: se delega “lo importante” a un sistema que no asume consecuencias. Un tribunal en Canadá determinó que una empresa puede ser responsable por información incorrecta emitida por un chatbot en su sitio web (Moffatt vs. Air Canada en 2024).

En el ámbito legal, se han documentado sanciones por presentar escritos con citas inexistentes asociadas al uso de IA; un caso relevante es Mata vs. Avianca en 2023; asimismo, en 2026, un juez federal multó a abogados por no verificar material generado por esta herramienta antes de firmar y presentar documentos. Estos casos evidencian la necesidad de verificación, trazabilidad y propiedad del resultado.

Cuando la IA automatiza borradores, resúmenes, comparativos y análisis preliminares, se reduce el tiempo dedicado a tareas de menor valor; sin embargo, también se reduce el “entrenamiento invisible” que antes ocurría al ejecutar esas tareas (detectar inconsistencias, validar supuestos y aprender a comunicar hallazgos).

Un estudio de Microsoft Research y Carnegie Mellon University reporta que, al usar IA generativa, muchos trabajadores perciben menor esfuerzo cognitivo y el pensamiento crítico se desplaza hacia actividades de verificación y supervisión. Esto obliga a rediseñar el aprendizaje del juicio y el criterio para evitar su degradación.

En la era de la automatización, el diferencial competitivo ya no es hacer más, sino decidir mejor.

La “llave maestra” para que la IA sea el instrumento y no el estratega del resultado

Las organizaciones que obtienen valor sostenible de la IA construyen una arquitectura de talento y no sólo una tecnológica. Ante esto, hay tres habilidades que son particularmente críticas:

Criterio

Es la capacidad de evaluar pertinencia, calidad y riesgo. En finanzas, fiscal y auditoría, se expresa en preguntas como: ¿qué supuestos hay detrás?, ¿qué evidencia respalda el resultado?, ¿qué parte es inferencia?, ¿qué puede estar sesgado?, ¿qué no debe automatizarse?

Señales de ausencia de criterio: aceptar salidas de IA “bien escritas” como correctas, omitir fuentes y límites, así como no distinguir entre tareas de bajo y alto riesgo.

Comunicación

Es convertir un resultado en entendimiento compartido y decisión informada. La IA trabaja en lenguaje natural, pero eso no elimina la necesidad de precisión: prompts ambiguos producen respuestas ambiguas; solicitudes mal definidas generan análisis incompletos.

Señales de ausencia de comunicación: incapacidad de explicar el razonamiento a un tercero, resultados sin contexto, reportes que no declaran supuestos, escenarios y nivel de confianza.

Responsabilidad

Es asumir la propiedad del resultado final. La IA puede sugerir, pero no puede responder ante un cliente, un comité o un regulador; implica verificar, documentar el proceso, conservar evidencias y decidir cuándo no usar IA.

Señales de ausencia de responsabilidad: la frase “lo dijo la IA” como cierre, que no exista una bitácora de verificación, no definir quién firma, quién revisa y bajo qué estándar, etc.

Arquitectura de talento: dos capas que deben diseñarse

Para que estas habilidades se vuelvan una práctica cotidiana, se requieren dos capas:

  • Arquitectura mental individual: incluye alfabetización básica en IA (qué hace, qué no hace y riesgos conocidos), hábitos de verificación y capacidad de formular preguntas de calidad. La alfabetización no es sólo técnica, sino que integra ética práctica, manejo de incertidumbre y disciplina de documentación. Y luego, en un plano más profundo, las tres llaves maestras: criterio, comunicación y responsabilidad.
  • Arquitectura cultural y organizacional: incluye reglas de uso por niveles de riesgo, criterios de aprobación, controles de calidad, repositorios de prompts validados, plantillas de verificación y mecanismos de aprendizaje (revisiones posteriores, lecciones aprendidas y pares revisores). En firmas de servicios profesionales, esta capa sustituye parte del antiguo aprendizaje por osmosis que ocurría en el trabajo repetitivo.

Ruta de implementación: de bajo riesgo a alto impacto

Una adopción responsable puede seguir una secuencia gradual:

  • Alfabetización y pilotos en tareas simples y de bajo riesgo (como borradores internos, resúmenes de políticas o análisis preliminares).
  • Definición de gobernanza, es decir, qué se permite, qué no y qué debe revisarse siempre; se deben incluir consideraciones de confidencialidad y calidad.
  • Entrenamiento intencional del trío crítico (criterio, comunicación y accountability) con ejercicios, rúbricas y revisión por pares.
  • Escalamiento controlado, es decir, incorporar IA en procesos con mayor impacto sólo cuando existan estándares, trazabilidad y roles claros.
  • Cautela con agentes autónomos, pues antes de automatizar decisiones o acciones, se debe consolidar la cultura y los controles; la autonomía tecnológica amplifica tanto beneficios como errores.

Lista de verificación mínima (aplicable en firmas y áreas financieras)

La siguiente lista de verificación puede incorporarse como estándar interno para cada entrega apoyada por IA:

  • Definir el propósito y la audiencia: ¿qué decisión habilita el resultado?
  • Declarar supuestos: datos de entrada, periodo, límites y definición de términos.
  • Identificar nivel de riesgo: bajo (borrador interno), medio (presentación ejecutiva) y alto (entregable a cliente/regulador).
  • Verificar: tanto cifras, citas, definiciones, referencias o cálculos críticos.
  • Registrar trazabilidad: prompts relevantes, fuentes usadas y cambios efectuados por el humano.
  • Revisar: incorporar revisión por pares en riesgos medio o alto.
  • Comunicar: declarar el “grado de confianza” y los puntos que requieren confirmación adicional.

El objetivo es convertir la velocidad tecnológica en decisiones sólidas basadas en capacidades profundas del talento humano.

La IA generativa cambia la naturaleza del trabajo intelectual y desplaza el valor humano desde la ejecución repetitiva hacia capacidades superiores.

Conclusiones

La IA generativa acelera tareas, mas no sustituye la responsabilidad profesional. En contabilidad, finanzas, fiscal y auditoría, el diferencial competitivo se desplaza hacia el dominio del criterio, la comunicación y la responsabilidad para operar con velocidad, sin renunciar a la calidad y a la confianza.

En la práctica, la pregunta relevante no es qué modelo o plataforma se adopta, sino qué arquitectura de talento se construye para que la IA incremente la productividad y, al mismo tiempo, fortalezca el control, la trazabilidad y la reputación del ejercicio profesional.icono final


Referencias

  • Barry B. Sookman, 2024, Moffatt v. Air Canada: A Misrepresentation by an AI Chatbot, 2026, de McCarthy Tétrault: https://www.mccarthy.ca/en/insights/blogs/techlex/moffatt-v-air-canada-misrepresentation-ai-chatbot
  • Lee, Drosos, Sarkar, Rintel, Wilson, Tankelevitch y Bancks, 2025, The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers, 2026, de The ACM Digital Library: https://dl.acm.org/doi/10.1145/3706598.3713778
  • Sara Merken, 2026, Judge fines lawyers $12,000 over AI-generated submissions in patent case, 2026, de Reuters: https://www.reuters.com/legal/litigation/judge-fines-lawyers-12000-over-ai-generated-submissions-patent-case-2026-02-03/
  • United States District Court, 2025, Roberto Mata, Plaintiff, v. Avianca, Inc., Defendant, 2026, de Thomson Reuters: https://www.law.berkeley.edu/wp-content/uploads/2025/12/Mata-v-Avianca-Inc.pdf


Te puede interesar



© 2026 Colegio de Contadores Públicos de México, A.C.

Directorio Contacto Aviso legal Acerca de Veritas
Revista Veritas

Inicia sesión o suscríbete para continuar leyendo.

Si eres socio del Colegio utiliza el mismo correo y contraseña

O

Suscribirse