Ante esta decisión, los abogados del señor Mata se opusieron enérgicamente, presentando un informe de 10 páginas que citaba más de media docena de decisiones judiciales relevantes. Estaba el caso de Martinez v. Delta Air Lines; Zicherman v. Korean Air Lines; y Varghese v. China Southern Airlines, con su discusión erudita sobre la ley federal y "el efecto suspensivo de la estadía automática en un plazo de prescripción".
Pero hubo un problema: nadie, ni los abogados de la aerolínea, ni siquiera el propio juez, pudieron encontrar las decisiones o las citas citadas y resumidas en el informe. Todo fue inventado por ChatGPT.
Schwartz, quien lleva siendo abogado durante tres décadas, fue descubierto. Nervioso y junto a su propio equipo legal, dijo ante el tribunal que no tenía la intención maliciosa de engañar ni al juez ni a la aerolínea. Más bien, afirmó que nunca había utilizado ChatGPT y, por lo tanto, “desconocía la posibilidad de que su contenido fuera falso”.
Incluso solicitó al programa verificar si los casos eran reales, a lo que el chatbot contestó que sí. “Lamento profundamente haber confiado en ChatGPT y nunca lo haré en el futuro sin una verificación absoluta de su autenticidad”, dijo.
Este caso sentó precedentes en el gremio del derecho y el profesor de ética legal de la Universidad de Nueva York, Stephen Gillers, compartió al New York Times que el caso fue sonado entre los abogados que han estado debatiendo sobre el valor y uso de la IA y softwares como ChatGPT para los trabajos legales.
Sin embargo, Schwartz y su firma de abogados no fueron los primeros -ni los últimos- en usar ChatGPT. De acuerdo con datos de Statista, entre febrero y marzo de 2023, 10.8% de los empleados a nivel mundial utilizaron este chatbot para realizar su trabajo al menos una vez.
Mientras tanto, en una audiencia aparte, el juez Castel sí desestimó la demanda contra Avianca y Steven Schwartz y su compañero aprendieron que la Inteligencia Artificial no puede sustituír su trabajo.