Ahora bien, se propone un marco práctico para que firmas, áreas financieras y profesionales independientes usen esta tecnología con productividad, sin sacrificar calidad, control y reputación.
Varios incidentes públicos de los últimos años muestran un problema consistente: se delega “lo importante” a un sistema que no asume consecuencias. Un tribunal en Canadá determinó que una empresa puede ser responsable por información incorrecta emitida por un chatbot en su sitio web (Moffatt vs. Air Canada en 2024).
En el ámbito legal, se han documentado sanciones por presentar escritos con citas inexistentes asociadas al uso de IA; un caso relevante es Mata vs. Avianca en 2023; asimismo, en 2026, un juez federal multó a abogados por no verificar material generado por esta herramienta antes de firmar y presentar documentos. Estos casos evidencian la necesidad de verificación, trazabilidad y propiedad del resultado.
Cuando la IA automatiza borradores, resúmenes, comparativos y análisis preliminares, se reduce el tiempo dedicado a tareas de menor valor; sin embargo, también se reduce el “entrenamiento invisible” que antes ocurría al ejecutar esas tareas (detectar inconsistencias, validar supuestos y aprender a comunicar hallazgos).
Un estudio de Microsoft Research y Carnegie Mellon University reporta que, al usar IA generativa, muchos trabajadores perciben menor esfuerzo cognitivo y el pensamiento crítico se desplaza hacia actividades de verificación y supervisión. Esto obliga a rediseñar el aprendizaje del juicio y el criterio para evitar su degradación.
Las organizaciones que obtienen valor sostenible de la IA construyen una arquitectura de talento y no sólo una tecnológica. Ante esto, hay tres habilidades que son particularmente críticas:
| Criterio |
Es la capacidad de evaluar pertinencia, calidad y riesgo. En finanzas, fiscal y auditoría, se expresa en preguntas como: ¿qué supuestos hay detrás?, ¿qué evidencia respalda el resultado?, ¿qué parte es inferencia?, ¿qué puede estar sesgado?, ¿qué no debe automatizarse? Señales de ausencia de criterio: aceptar salidas de IA “bien escritas” como correctas, omitir fuentes y límites, así como no distinguir entre tareas de bajo y alto riesgo. |
| Comunicación |
Es convertir un resultado en entendimiento compartido y decisión informada. La IA trabaja en lenguaje natural, pero eso no elimina la necesidad de precisión: prompts ambiguos producen respuestas ambiguas; solicitudes mal definidas generan análisis incompletos. Señales de ausencia de comunicación: incapacidad de explicar el razonamiento a un tercero, resultados sin contexto, reportes que no declaran supuestos, escenarios y nivel de confianza. |
| Responsabilidad |
Es asumir la propiedad del resultado final. La IA puede sugerir, pero no puede responder ante un cliente, un comité o un regulador; implica verificar, documentar el proceso, conservar evidencias y decidir cuándo no usar IA. Señales de ausencia de responsabilidad: la frase “lo dijo la IA” como cierre, que no exista una bitácora de verificación, no definir quién firma, quién revisa y bajo qué estándar, etc. |
Para que estas habilidades se vuelvan una práctica cotidiana, se requieren dos capas:
Una adopción responsable puede seguir una secuencia gradual:
La siguiente lista de verificación puede incorporarse como estándar interno para cada entrega apoyada por IA:
El objetivo es convertir la velocidad tecnológica en decisiones sólidas basadas en capacidades profundas del talento humano.
La IA generativa acelera tareas, mas no sustituye la responsabilidad profesional. En contabilidad, finanzas, fiscal y auditoría, el diferencial competitivo se desplaza hacia el dominio del criterio, la comunicación y la responsabilidad para operar con velocidad, sin renunciar a la calidad y a la confianza.
En la práctica, la pregunta relevante no es qué modelo o plataforma se adopta, sino qué arquitectura de talento se construye para que la IA incremente la productividad y, al mismo tiempo, fortalezca el control, la trazabilidad y la reputación del ejercicio profesional.
Es necesario un código de ética en un entorno donde la IA se integra de forma acelerada y los riesgos se traducen en errores y crisis reputacionales.
Víctor Miguel Morales GonzálezSegún indicadores, las vacantes generadas en la economía mundial que requieren habilidades y entrenamiento en IA pasaron del 5% en 2021 al 24% en 2025.
Salvador Rivas AcevesLa ética y el escepticismo validan procesos automatizados, comprenden riesgos de ciberseguridad y cuestionan modelos algorítmicos en las empresas.
Néstor Hernández VázquezEn entrevista, Tomás Rosales Mendieta, docente en la UNAM, comparte su reflexión sobre la frontera cultural, académica y social entre México y Estados Unidos.
Gilberto Leonardo Pereda Careaga, Carolina Mendoza Hernández© 2026 Colegio de Contadores Públicos de México, A.C.
Directorio Contacto Aviso legal Acerca de VeritasInicia sesión o suscríbete para continuar leyendo.