top of page
  • C&L Abogados
  • 10 oct
  • 4 Min. de lectura

El caso Deloitte y la IA: una advertencia sobre los riesgos legales y reputacionales del uso de inteligencia artificial en informes profesionales 


El reciente escándalo que involucra a la consultora internacional Deloitte ha generado un intenso debate sobre los límites y responsabilidades en el uso de la inteligencia artificial (IA) en el ejercicio profesional. Según informó el medio australiano ABC News, la firma entregó al Gobierno de Australia un informe que contenía citas falsas y referencias inexistentes, generadas parcialmente por herramientas de IA, por el cual cobró cerca de US$290.000


Tras detectarse los errores, Deloitte reconoció el uso de IA en la elaboración del documento, corrigió los contenidos y devolvió parte del dinero cobrado. Si bien la empresa afirmó que las conclusiones del informe no se alteraron, el episodio deja en evidencia los profundos desafíos legales, éticos y de confianza que plantea el uso de estas tecnologías en contextos profesionales. 

Uno de los aspectos más críticos de este caso es la capacidad de los modelos generativos de IA para crear información inexistente con apariencia de veracidad. Este fenómeno, conocido como alucinación, ocurre cuando la IA produce datos, citas o fuentes que no corresponden a la realidad, pero que son presentadas de forma coherente y convincente. 


En el ámbito de la consultoría, la auditoría o el derecho, donde la precisión y la trazabilidad de la información son esenciales, este tipo de errores puede tener consecuencias graves. No se trata solo de un problema técnico, sino de un riesgo legal y reputacional que puede comprometer la relación con clientes, organismos públicos y reguladores. 


Responsabilidad profesional y contractual 


El uso de IA en la elaboración de informes, dictámenes o documentos técnicos plantea una pregunta clave: ¿quién responde si la información es errónea o falsa? 


Desde la perspectiva jurídica, las empresas que utilizan estas herramientas mantienen plena responsabilidad sobre el contenido final que entregan a sus clientes o autoridades. La delegación en un sistema automatizado no exime del deber de diligencia ni del cumplimiento contractual. 


Si un informe defectuoso genera perjuicios económicos, regulatorios o reputacionales, pueden configurarse escenarios de responsabilidad civil contractual e incluso responsabilidad profesional, cuando se trate de actividades reguladas o que impliquen certificaciones ante terceros. 


En el caso de Deloitte, más allá del impacto económico inmediato, el principal daño radica en la pérdida de confianza, tanto del sector público como de los clientes privados que dependen de su reputación como firma consultora global. 

 

Riesgos regulatorios y de compliance 


Este caso también expone un vacío regulatorio. En la mayoría de los países, incluido Chile, no existe una normativa específica que regule el uso de IA en informes profesionales. Sin embargo, las obligaciones generales de diligencia, transparencia y buena fe siguen plenamente vigentes. 


Por ello, las empresas deben anticiparse y establecer protocolos internos de control y validación, asegurando que toda la información generada o asistida por IA sea verificada por profesionales competentes antes de ser divulgada. 


En el marco del compliance corporativo, el uso de IA debe incorporarse en los mapas de riesgo, políticas de integridad y sistemas de gestión, junto con la capacitación del personal sobre sus limitaciones y posibles sesgos. 


Buenas prácticas legales para el uso de IA en las organizaciones 


El caso pone de relieve la necesidad de contar con una supervisión humana obligatoria que revise y valide todo contenido generado con asistencia de IA, de manera que los informes mantengan su fiabilidad técnica y jurídica. También se vuelve esencial garantizar la trazabilidad y documentación de los procesos, registrando las herramientas empleadas y sus parámetros, para poder auditar y corregir posibles fallos. 


Desde una perspectiva contractual, resulta clave establecer cláusulas claras que regulen el uso de IA, delimitando responsabilidades y estándares de control. Asimismo, las organizaciones deben promover la formación interna y la gobernanza tecnológica, incorporando políticas sobre uso responsable de estas herramientas y procedimientos de revisión. 


Por último, una adecuada gestión reputacional frente a incidentes vinculados al uso de IA es fundamental para preservar la confianza de clientes y contrapartes. La capacidad de responder con transparencia y prontitud ante errores puede marcar la diferencia entre una crisis controlada y un daño permanente. 


El caso Deloitte ilustra que la integración de la inteligencia artificial en entornos profesionales no puede sustituir el juicio humano ni la responsabilidad jurídica. Las empresas que adopten estas herramientas deben hacerlo bajo criterios de transparencia, control y rendición de cuentas. 

La confianza, activo fundamental en toda relación profesional, depende de garantizar que los productos o informes emitidos —independientemente de la tecnología utilizada— mantengan los estándares éticos y legales exigibles. 


En este nuevo escenario, la innovación tecnológica debe ir siempre acompañada de una sólida cultura de cumplimiento y responsabilidad. 


En C&L Abogados asesoramos a empresas que utilizan o implementan inteligencia artificial, ayudándolas a establecer políticas internas, revisar contratos y prevenir riesgos legales asociados a su uso. Si tu organización está incorporando herramientas de IA en su operación, te invitamos a contactarnos para una asesoría integral en compliance tecnológico, responsabilidad profesional y regulación digital



 
 
bottom of page