Origen del contrato y objetivos del encargo
Durante diciembre de 2024, el DEWR contrató a Deloitte para revisar el marco de cumplimiento dirigido y el sistema informático que aplica sanciones automáticas dentro del programa de bienestar australiano. Ese sistema se encarga de verificar las obligaciones de las personas que reciben apoyo gubernamental y de emitir penalizaciones cuando no se cumplen los requisitos.
El estudio de Deloitte debía evaluar si el diseño del sistema coincidía con la legislación vigente. El informe identificó problemas amplios: deficiencias en la trazabilidad entre las reglas operativas y su fundamento legal, además de defectos técnicos en la infraestructura digital. El documento concluyó que el sistema de automatización estaba “impulsado por supuestos punitivos de incumplimiento de los participantes”, lo que evidenciaba una lógica de funcionamiento centrada en la penalización.
Publicación y revisión del informe
La primera versión del informe fue publicada el 4 de julio de 2025. Sin embargo, semanas después el Australian Financial Review reportó la existencia de errores en el documento, incluidos citados inexistentes y referencias falsas.
Ante esos hallazgos, el DEWR volvió a publicar el informe en su portal oficial , con una versión actualizada que reconoce “un pequeño número de correcciones en referencias y notas al pie”. La institución aclaró que los cambios no afectan las recomendaciones ni el fondo del análisis, aunque se mantuvo la decisión de hacer pública la devolución del pago final del contrato una vez completado el proceso administrativo.
Cómo se detectaron los errores y qué implican
El académico Christopher Rudge, investigador de la Universidad de Sídney, fue quien inicialmente señaló las inconsistencias. Explicó que el informe presentaba “alucinaciones” asociadas al uso de modelos de inteligencia artificial, fenómeno en el que el sistema genera información falsa o completa vacíos con datos inexistentes.
Según Rudge, la versión revisada no resolvió del todo el problema, ya que las referencias ficticias fueron reemplazadas por múltiples nuevas. “En lugar de sustituir una cita inventada por una real, el texto incluye ahora cinco o seis referencias distintas en su lugar”, explicó. Para el académico, ese patrón demuestra que las afirmaciones del cuerpo del informe no estaban sustentadas en una fuente específica.
El Australian Financial Review corroboró esas observaciones y documentó referencias incorrectas atribuidas a profesores de la Universidad de Sídney y de la Universidad de Lund, en Suecia. También halló una cita falsa sobre una resolución judicial del caso Deanna Amato v Commonwealth, relacionado con el sistema automatizado robodebt. En la versión final del informe, Deloitte incorporó una nota que señala: “Se enmienda el resumen del procedimiento Amato, que contenía errores”.
Qué decidió el gobierno australiano
El DEWR confirmó que Deloitte devolverá el pago final del contrato, lo que constituye un reembolso parcial sobre un acuerdo total de 440,000 dólares. El monto exacto de ese último pago no se especificó, pero la institución informó que la operación se hará pública una vez concluida.
Un portavoz del departamento explicó que Deloitte condujo la revisión de aseguramiento independiente y reconoció que algunas notas y referencias eran incorrectas. Aun así, aseguró que “la sustancia de la revisión se mantiene y no hay cambios en las recomendaciones”.
En su apéndice actualizado, el informe añadió una declaración formal sobre el uso de inteligencia artificial: “Una parte del documento incluyó el uso de una cadena de herramientas basada en un modelo de lenguaje grande (Azure OpenAI GPT-4o) con licencia del DEWR y alojado en su infraestructura de Azure”.
Deloitte, por su parte, señaló que la IA no fue la causa directa de los errores y afirmó que “las actualizaciones no afectan el contenido sustantivo, los hallazgos ni las recomendaciones del informe”. También confirmó que “el asunto se resolvió directamente con el cliente”.
Reacciones académicas y políticas
Aunque criticó la calidad técnica del informe, Christopher Rudge aclaró que no considera ilegítimas las conclusiones del documento, ya que coinciden con otros estudios sobre el mismo sistema de automatización.
En el plano político, la senadora laborista Deborah O’Neill, quien forma parte de la investigación del Senado sobre la integridad de las firmas de consultoría, expresó preocupación por el papel de la inteligencia artificial en los procesos de contratación pública. “Parece que la IA está haciendo la mayor parte del trabajo”, declaró. También afirmó: “Deloitte tiene un problema de inteligencia humana. Un reembolso parcial parece una disculpa parcial por trabajo por debajo del estándar”.
La legisladora pidió que las instituciones públicas exijan transparencia sobre quién elabora los informes contratados y que se verifique la participación de herramientas automatizadas. “Quienes contraten a estas firmas deberían preguntar exactamente quién hace el trabajo y verificar esa pericia y la no utilización de IA”, dijo. Agregó con ironía: “Quizá, en lugar de una gran consultora, los compradores deberían pagar una suscripción a ChatGPT”.
Qué mantiene vigente el informe
A pesar de los errores en las citas y referencias, el informe conserva su diagnóstico técnico original. Los apartados sobre deficiencias estructurales, falta de trazabilidad normativa y defectos en el sistema informático permanecen sin cambios. También se mantiene la observación de que el sistema analizado estaba “impulsado por supuestos punitivos de incumplimiento”.
El DEWR recalcó que las recomendaciones siguen siendo válidas y que el documento actualizado refleja únicamente ajustes editoriales. Las conclusiones originales, según el gobierno, continúan siendo relevantes para futuras reformas en la administración del sistema de bienestar.