También agrega que algunas herramientas pueden detectar textos generados por IA, pero existe la posibilidad de que marquen erróneamente textos escritos por humanos, incluyendo trabajos de hablantes no nativos de una lengua. “Es por eso que la detección de IA se utiliza mejor como parte de un proceso de revisión más amplio, no como un veredicto definitivo sobre si alguien utilizó IA”, sentencia.
Un entrenamiento del humano
El experto en innovación educativa, Enrique Dans, coincide en que estas plataformas pueden cometer errores y por ello sugiere que el humano debe entrenarse para detectar mejor el uso de IA y afinando su criterio para decidir cuándo es una plataforma que aporta a las labores diarias y cuándo no.
“Los detectores de texto escrito por IA no son una base válida para castigar a ningún estudiante”, escribe en su blog . “Que las escuelas integren IA no significa necesariamente renunciar a los valores. De hecho, organismos que marcan agenda internacional piden justo lo contrario: unir ética y práctica”.
Al respecto, el especialista refiere que la UNESCO busca una orientación de políticas centradas en el ser humano y desarrollo de capacidades docentes y estudiantiles para un uso responsable, con recomendaciones concretas para rediseñar enseñanza y evaluación.
Desde su perspectiva, la clave está en “entrenar” al humano a partir del rediseño de tareas para que el uso de IA esté permitido, declarado y guiado, además de aportar evidencias de ese proceso, como borradores, prompts, iteraciones, referencias, con la finalidad de que formen parte de la evaluación.
En un contexto de fraudes, Virbickas señala que la experiencia para detectar contenidos hechos con IA no proviene de memorizar un estilo de redacción. “Te entrenas haciéndote más difícil de manipular”, concluye. “Eso significa verificar de dónde proviene un mensaje, si el momento y el contexto tienen sentido, si otras fuentes confiables lo confirman y si el contenido te empuja a reaccionar emocionalmente o de forma inmediata”.