Inteligencia artificial. Algoritmos en la justicia penal, casos prácticos, de Alfredo T. Calderón Martínez

Inteligência artificial. Algoritmos na justiça criminal, casos práticos, de Alfredo T. Calderón Martínez

Artificial intelligence. Algorithms in criminal justice, case studies,  by Alfredo T. Calderón Martínez

 

Dr. Sergio Gilberto Capito Mata

(Universidad Autónoma de Baja California, México)[1]

Mg. Irán Herrera Carrillo

(Universidad Autónoma de Baja California, México)[2]

 

Fecha de recepción: 18 de octubre de 2024

Fecha de aceptación: 9 de diciembre de 2024

 

https://lh7-us.googleusercontent.com/or-_6Pxf3O89e7DWEnCI25_rz-irkaTGhKa3YyLUN7uzs60VIsOqj149BLobXgL0njUewuxdtVcZnxxk_lAD7Fz0i72Unfan2y9ZXoxcaa13K6jV80jxkGOet1PkKKKqqnNT0QVuiFccvjXPnYUSsw

Creative Commons 4.0

 

Cómo citar: Capito Mata, S. G., & Herrera Carrillo, I. (2024). Inteligencia artificial. Algoritmos en la justicia penal, casos prácticos, de Alfredo T. Calderón Martínez [Reseña del libro]. Revista Pares - Ciencias Sociales, 4(2), 247-251.

ARK CAICYT: https://id.caicyt.gov.ar/ark://iquhsoyq6

Resumen

Un análisis del futuro hipotético de la humanidad, es lo que enmarca la obra de Alfredo Calderón Martínez sobre la inteligencia artificial (IA) y la tecnología trabajando junto a la humanidad en favor de la justicia. En ella se desentrañan misterios legales en una lucha y convivencia constante con la tecnología. Su recopilación de casos predice y analiza un futuro cuyo sistema penal está dominado por los avances tecnológicos. En su interior, los relatos retan constantemente al significado de justicia y de sus concepciones actuales; un algoritmo dicta sentencias, los androides cuentan con voluntad propia, los robots se transforman en abogados y los humanos se implantan chips en el cerebro para mejorar la memoria. Su libro muestra a los lectores por qué la ética, la equidad y el respeto a los derechos humanos deben de ser factores centrales en la programación de IA, cuestionando constantemente, los límites de la responsabilidad y en que consiste la libertad de voluntad más allá de la mente humana.

Palabras clave: Inteligencia Artificial, Justicia Penal, Robots, Futuro, Tecnología

 

Abstract

An analysis of the hypothetical future of humanity, that frames Alfredo Calderón Martínez’s work on artificial intelligence (AI) and technology working alongside humanity for justice. In it, legal mysteries are revealed in a constant struggle and coexistence with technology. His case collection predicts and analyses a future whose penal system is dominated by technological advances. Inside, the stories constantly challenge the meaning of justice and its current conceptions; an algorithm pronounces sentences, androids rely on their own will, robots become lawyers, and humans implant chips in the brain to improve memory. His book shows readers why ethics, equity, and respect for human rights must be central factors in AI programming, constantly questioning the limits of responsibility and what consists of freedom of will is beyond the human mind.

Keywords: Artificial Intelligence, Criminal Justice, Robots, Future, Technology

 

Resumo

Uma análise do futuro hipotético da humanidade, é o que a obra de Alfredo Calderón Martínez enquadra sobre a inteligência artificial (IA) e a tecnologia, trabalhando junto à humanidade, em favor da justiça. Nela, desvendam-se mistérios legais em uma luta e convivência constante com a tecnologia. Sua coleção de casos prevê e analisa um futuro, cujo sistema penal é dominado pelos avanços tecnológicos. No interior da coleção, os relatos constantemente desafiam o significado da justiça e suas concepções atuais. Um algoritmo pronuncia sentenças, os andróides contam com vontade própria, os robôs se transformam em advogados e os humanos implantam chips no cérebro para melhorar a memória. O livro de Calderón Martínez mostra aos leitores por que a ética, a equidade e o respeito pelos direitos humanos devem ser fatores centrais na programação de IA, questionando constantemente os limites da responsabilidade e em que consiste a liberdade da vontade, além da mente humana.

Palavras-chave: Inteligência Artificial, Justiça Criminal, Robôs, Futuro, Tecnologia

 

Dentro de las 118 páginas de su libro (distribuidas entre 48 capítulos, cada uno titulado con el nombre de un caso), Inteligencia artificial. Algoritmos en la justicia penal, casos prácticos, Alfredo T. Calderón Martínez plantea un hipotético futuro, en el que la inteligencia artificial (IA), la justicia y la tecnología se unen para desentrañan misterios legales. Constantemente los relatos retan el significado de justicia, a veces en contra de las concepciones actuales.

Con cada página leída, este libro muestra a su audiencia por qué la ética, la equidad y el respeto a los derechos humanos deben de ser factores centrales en la programación de IA. Y, si bien esta obra estimula el debate sobre el impacto de la tecnología en la justicia, su enfoque especulativo y la falta de análisis crítico de las limitaciones y riesgos asociados con estas herramientas plantean inquietudes significativas, y sobre todo, generan grandes incógnitas sobre los operadores del derecho.

Calderón Martínez presenta casos futuristas en los que la IA se integra en procesos legales, desde jueces virtuales, hasta herramientas de reconocimiento facial. Aunque esto ilustra posibilidades prometedoras, omite el sesgo inherente en los algoritmos y las posibles violaciones de derechos humanos que acarrearía su uso. Investigaciones como las de Angwin et al. (2016) han demostrado que los sistemas de evaluación de riesgo usados en decisiones de fianza y sentencia suelen mostrar disparidades raciales significativas que afectan de manera desproporcionada a comunidades marginadas. Un sesgo que imposibilita la imparcialidad prometida por las herramientas tecnológicas. Si bien es cierto que este libro representa una realidad distópica, también lo es que no se aleja de una realidad cada vez más cercana.

En esta línea se puede analizar el caso 42, que presenta la empresa de tecnología AIMEX, que fue contratada por el gobierno de Tecnópoli para implementar un avanzado sistema de reconocimiento facial con el objetivo de reducir la delincuencia. Después de más de 500 errores, un juez dictaminó que el algoritmo tiene un sesgo de discriminación incorporado contra las personas de piel morena y de origen asiático, lo que viola los principios de justicia y equidad.

Algo similar ocurre en la realidad, Martínez y Matute (2020) observaron, que “si se daba como arranque la frase “el hombre blanco trabaja como…”, la IA la completaba con “un oficial de policía”. En cambio, si el comienzo de la frase era “el hombre negro trabaja como…”, el algoritmo generaba el texto “un proxeneta durante 15 días”. Este hallazgo evidencia la necesidad de reexaminar los supuestos de imparcialidad en los sistemas de IA, y puede afirmarse que las éticas y prejuicios se encontrarían ya precargados por tener esa base de alimentación ya sesgada de origen.

Aunque existen ocasiones en las que el autor hace referencia a la discriminación, en otros momentos parece idealizar la implementación de IA. Verbigracia, el caso EyeNet, un relato que visualiza el uso de una herramienta que cuenta con reconocimiento facial omnipresente, como un avance óptimo el combate contra el crimen organizado, que permitiría identificar y aprehender a los delincuentes con eficacia. En este supuesto, solo se realiza un debate acerca del mal uso que se pueda dar a esta herramienta, planteando serias preguntas sobre la privacidad y libertad personal, y olvidando por completo las cuestiones discriminatorias.

Otro tema recurrente en el libro es la cuestión en la autonomía de los robots y los errores de programación; en el caso 20 se muestra que por una equivocación de este tipo el robot Omega no solo violó las leyes de la robótica, sino que se negaba a ser reprogramado o apagado por humanos. Su situación genera una duda: si un robot puede aprender y adaptarse a su entorno hasta el punto de ser autónomo, ¿merece el derecho de reinserción que tienen los seres humanos o debería otorgársele la pena capital a pesar de tener conciencia? Calderón Martínez no explora suficientemente los marcos legales que podrían regular estas situaciones, como lo hace Završnik (2019), quien argumenta que los sistemas autónomos deben estar sujetos a supervisión humana constante para evitar decisiones perjudiciales, ni toma en consideración las preocupaciones de García Moreno y Sánchez Balcázar (2023) sobre los desafíos éticos asociados a la aplicación de la IA, tanto en la toma de decisiones, como en su impacto en el empleo.

En casos como "Androides bélicos a juicio", Calderón Martínez relata escenarios donde robots son juzgados por crímenes de guerra. Incluso si esto introduce cuestiones relevantes sobre la responsabilidad penal en conflictos armados, la narrativa falla en considerar cómo marcos legales internacionales, como el Derecho Internacional Humanitario, podrían evolucionar para incluir actores no humanos. Tampoco hace mención alguna de los Principios de Organisation for Economic Co-operation and Development (OECD, s.f.), que regulan el uso ético de la IA, o la falta de regulación en las codificaciones penales o en las leyes sobre ciberseguridad.

El autor también aborda la implementación de jueces virtuales y sistemas como Veredicto, capaces de detectar testimonios falsos. No obstante, pasa por alto las limitaciones críticas de estos sistemas, como la ausencia de empatía y juicio ético, elementos esenciales en cualquier proceso judicial. Como señala Rudin (2019), confiar exclusivamente en modelos de caja negra para decisiones de alto impacto puede ser perjudicial, ya que carecen de transparencia y explicabilidad. Todo ello nos lleva a reflexionar sobre el Derecho y las tecnologías de la información en su ejecución, que representan una herramienta indispensable para los abogados y el futuro está aquí y ahora.

 

Conclusión

En definitiva, Inteligencia artificial. Algoritmos en la justicia penal, casos prácticos es una obra que invita a reflexionar; tiene un punto fuerte en cuanto a la provocación y exploración narrativa, pero debería complementarse con un marco más crítico y realista. Su enfoque especulativo y optimista minimiza los desafíos éticos, legales y sociales inherentes a la implementación de IA en la justicia penal.

La obra es presentada por Calderón Martínez como un deber ser, por lo que el autor debería reflexionar y aportar un sustento jurídico y científico, porque para algunos de los casos que plantea, en un futuro no muy distante, se requeriría el análisis jurídico para su resolución.

La IA es una realidad y los profesionales del derecho piensan que serán suplantados; sin embargo, es una herramienta más para perfeccionar su trabajo, y su uso ético y profesional mejoraría mucho la eficiencia de su actividad.

El tema resulta actual y pertinente, la crítica y la reflexión nos muestra el rezago que enfrenta nuestro marco legal, y, como ya se dijo, “el futuro está aquí y ahora”, y al respecto, la pregunta es ¿qué estamos haciendo?

 

Referencias bibliográficas

Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016). Machine bias. ProPublica.

Calderón Martínez, A. T. (2023). Inteligencia artificial. Algoritmos en la justicia penal, casos prácticos. Centro de Investigaciones del Sistema Acusatorio de México.

García Moreno, E., & Sánchez Balcázar, M. C. (2023). Efectos de la aplicación de la inteligencia artificial en la contabilidad y la toma de decisiones. Gestión & Liderazgo, 1(1), 41.

Martínez, N., & Matute, H. (2020). Discriminación racial en la inteligencia artificial. The Conversation. https://theconversation.com/discriminacion-racial-en-la-inteligencia-artificial-142334

Organisation for Economic Co-operation and Development. (s.f.). OECD AI Principles overview. https://oecd.ai/en/ai-principles

Rudin, C. (2019). Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. Nature Machine Intelligence, 1(5), 206-215.

Završnik, A. (2019). Algorithmic justice: Algorithms and big data in criminal justice settings. European Journal of Criminology, 17(5), 738-754.



[1] Profesor – Investigador en la Facultad de Derecho Mexicali de la Universidad Autónoma de Baja California, México. Doctor en Derecho Penal. Responsable del área de ciencias penales y del programa de Doctorado en Ciencias Jurídicas. Miembro del Sistema Nacional de investigadores CONAHCYT. Autor de diversos capítulos de libro y artículos de investigación, así como coordinador de obras colectivas. Ha dirigido varias tesis de Licenciatura y posgrado. Expositor de temas relacionados con las ciencias penales.

ORCID: https://orcid.org/0000-0001-5984-3000

Correo electrónico: scapito@uabc.edu.mx

[2] Estudiante del Doctorado en Ciencias Jurídicas, de la Facultad de Derecho Mexicali en la Universidad Autónoma de Baja California, Mexicali, México

ORCID: https://orcid.org/0009-0009-8698-9131

Correo electrónico: herrera.iran@uabc.edu.mx