La Facultad de Derecho de la Universidad de Carolina del Norte celebró un juicio simulado inusual el viernes.
Impresionando aún más que el juez que dirigía el juicio, tres altas pantallas digitales, que destacaban con sus acabados brillantes entre el mar de paneles de madera de la sala, dominaban el procedimiento. Cada pantalla representaba un chatbot de IA diferente: ChatGPT de OpenAI, Grok de xAI y Claude de Anthropic.
¿El papel de estas IA? Como «jurados» que determinarían el destino de un hombre acusado de robo a una menor.
Afortunadamente, el caso era ficticio. Pero los tres chatbots de IA que formaban parte del «jurado» han sido utilizados por abogados profesionales en casos judiciales reales, a menudo con resultados vergonzosos, lo que significa que, en cierta medida, la tecnología ya está afectando los resultados legales en todo el país.
Los organizadores afirmaron que el simulacro, llamado «El Juicio de Henry Justus», busca cuestionar el papel de la IA en el sistema judicial.
«Este ejercicio pone de relieve cuestiones críticas de precisión, eficiencia, sesgo y legitimidad que plantea dicho uso», declaró Joseph Kennedy, profesor de derecho de la UNC, quien diseñó el juicio simulado y actuó como juez, en un comunicado previo al evento.
La incursión de la IA en el ámbito legal sigue siendo un tema controvertido, ya que muchos abogados que utilizan herramientas de IA son criticados por cometer errores flagrantes con la tecnología. Normalmente, una IA se equivoca al citar jurisprudencia errónea o inventada, síntoma del problema fundamental de la tecnología: «alucina» información errónea que presenta como cierta, un problema que la industria aún no ha resuelto. Los jueces han impuesto duras sanciones, incluyendo multas, a los abogados que han presentado trabajos deficientes saboteados por la IA.
Fuente: Futurism | Frank Landymore
Para leer más ingresa a: https://futurism.com/artificial-intelligence/law-school-trial-ai-jury?utm_source=flipboard&utm_content=topic/technology