Tribunales
Marchena alerta de la implantación del juez robótico rápido en España por la politización de la justicia
El texto se ha copiado correctamente en el portapapeles
El presidente de la sala 2ª del Tribunal Supremo (TS), Manuel Marchena, alertó del riesgo de la implantación del juez robótico en España de manera más rápida que en otros países como respuesta a “la degradación permanente de la justicia” y a la continúa “politización” que afecta a los operadores jurídicos, que puede hacer pensar al ciudadanos que es más deseable un juez robótico “sin sesgo ideológico”.
El magistrado participó este martes en los desayunos jurídicos del Colegio de la Abogacía de Madrid (ICAM) sobre las repercusiones de la Inteligencia Artificial (IA) en los operadores jurídicos. En su intervención, Marchena abordó el desafío de la inteligencia artificial en el ámbito de la abogacía, tras las palabras de bienvenida del decano madrileño, Eugenio Ribón.
En su conferencia, Marchena aseguró que “ya no es posible” ignorar la existencia de la IA y su creciente intervención en el proceso de impartir justicia. “Ya nadie se puede refugiar en su estilográfica”, aseguró antes de advertir que la participación de los algoritmos en todos los procesos judiciales es imparable.
El magistrado citó al ingeniero de la universidad de Stanford Joshua Browder, quien no hace mucho vaticinó que “la abogacía será inútil”. Defiende que en no mucho tiempo el ciudadano se podrá defender por sí mismo ante los tribunales con un simple pinganillo conectado a un algoritmo que le dará las instrucciones para dar la mejor respuesta al letrado contrario. Este ingeniero logró que un juez norteamericano permitiera que un ciudadano se defendiera sin abogado por esté método, aunque finalmente revocó su decisión, y asegura que ya ha conseguido recuperar 200 millones de dólares en procesos con intervención de la IA.
Todo el sistema judicial, advirtió, se enfrenta a una especie de “obsolescencia funcional” que apunta que “nos estamos quedando antiguos” ante la irrupción de una tecnología que afecta a abogados, procuradores, fiscales y jueces.
Ente ellos, fiscales y jueces son los profesionales más afectados. La Fiscalía de Shangai, explicó, ha permitido de que sus escritos de acusación tengan el aval de un algoritmo que garantiza un 97% de éxito en la formulación de acusaciones por delitos relacionados con la conducción ilegal o bajo los efectos del alcohol, estafa o fraude, lo que permite descargar a los fiscales de casos menores para que se concentren en los más complejos.
En esa línea de descripción un mundo “distópico”, Marchena se preguntó “¿para qué queremos el juicio oral?”. A su juicio es “una pregunta inquietante” y alertó del posible proceso rápido de implantación en España por el ancestral retraso en la resolución de asuntos, por “la degradación permanente de la Administración de Justicia y por su politización”.
Este último asunto es importante para el ciudadano que tendrá al tentación de preferir “un juez sin sesgo ideológico, un juez robótico al que incluso se puede antroporformizar con su toga”, que a un juez humano con “con todos sus defectos” para impartir justicia.
En cambio, Marchena ve menos oscuro el futuro de los abogados en cuya relación con el cliente hay un elemento de confianza y cercanía, una labor de negociación y mediación que no puede sustituir una máquina, como tampoco puede dar respuesta a los dilemas éticos que se plantean”.
A su juicio, la IA está llamada a convertirse en una “aliada” de la abogacía. Los sistemas predictivos, harán que un abogado sepa de antemano cuantas posibilidades tiene de ganar un pleito y en función de ello hacer más o menos aconsejable negociar con la parte contraria.
En suma, aseguró, “el problema fundamental es qué va a pasar si llega a implantarse un sistema de justicia robótica decisoria, que a eso vamos, o una justicia robótica predictiva. ¿Cómo se va a defender un abogado de un sistema que dice que su defendido es un peligroso social?”, puesto que “la verdad de los algoritmos es una verdad estadística” y puede calificar como “peligroso social” a un reo porque es negro o de clase baja, ya que esos algoritmos tiene “sesgo racista, feminista o clasista” como ya se ha demostrados en casos en Estados Unidos.
Por otro lado, aseguró que el uso controlados de esos sistemas puede ayudar a desatascar una justicia que no puede atender los asuntos que le llegan y que tiene un retraso crónico. Citó, por ejemplo, que en Gran Bretaña o Estonia las reclamaciones de cantidades menores pueden resolverse por la justicia tradicional o a través de un algoritmo cuyas decisiones se basan en los conocimiento de un programador que puede olvidar introducir sentencias importantes para la resolución de casos similares y que, además, no da derecho a segunda instancia. Además, dijo, “el algoritmo sabe decidir, pero no sabe explicar su decisión”.
Marchena se preguntó también “qué hacer con el derecho a la presunción de inocencia” o con el principio de publicidad de las decisiones judiciales que pueden condicionar la defensa del ciudadano.
Pese a estas dudas, indicó que la UE ya está intentando regular sobre esta materia y que “no cabe la actitud antinteligencia artificial. Tenemos que subirnos a surfear y llegar a la orilla sin que la ola nos dé un revolcón”. Y concluyó que “por más automatismos que incorporemos, la justicia tiene que seguir teniendo rostro humano”.
(SERVIMEDIA)
27 Jun 2023
SGR/gja