Análisis | ¿Se debe usar la IA para resolver procesos penales?
El cuestionado caso de un juez que usó inteligencia artificial, para condenar un hombre sin terminar el juicio, ha trascendido en la rama judicial.

En Colombia sigue generando cuestionamientos, criticas, e incluso apoyo de algunos sectores, el caso de un juzgado de Cali que utilizó Inteligencia Artificial para proyectar un fallo sin que el juicio hubiera terminado. Para algunos expertos se está haciendo mal uso de la IA en los procesos penales.
Minuto60 consultó al abogado penalista Francisco España, de la firma Jurisprudencia Colombia, quien indicó que el “uso de la Inteligencia Artificial no debe ser satanizado”, porque es una herramienta que ayuda a facilitar procesos y que además la “IA llegó para quedarse”.
La gente usa la IA como si fuera Google.
Francisco España, abogado penalista
Indicó que el uso de la IA en la rama judicial no es nuevo porque los órganos de cierre como la Corte Constitucional o la Corte Suprema de Justicia ya lo habían implementado, pero que ahora el interés es de los juzgados municipales o del circuito, que, en ocasiones, cometen errores por imprudencias.
“La percepción que tengo es que no están capacitados como debe ser (…) hay un uso inadecuado de la herramienta, porque la gente usa la IA como si fuera Google”, señaló el abogado experto en IA.
Señaló que no se le puede pedir conceptos jurídicos a la IA sino darle instrucciones, ordenes que orienten la respuesta. “(Los despachos judiciales) no saben usarla. La herramienta sí funciona, pero aquí en Colombia es cómo manejar una moto sin licencia, se está manejando folclóricamente”.
El caso del juez que proyectó un fallo
Indicó que en el caso de un Juez que utilizó la herramienta de la Inteligencia Artificial, proyectando un juicio condenatorio de 18 años de prisión sin que hubiera terminado el juicio, no hubo fallas en la herramienta, porque el error pudo ser por parte del funcionario del despacho que hizo la solicitud.
“Yo creo que ni siquiera fue el juez. El juez responde por lo que emite el despacho con su firma, pero el juez tiene un equipo de trabajo (…) la IA la ven como el mesías y el problema es que no se soluciona con pdf y enter”, señaló el abogado.
Una decisión de fondo no debe ser tomada por IA porque por eso le pagan al juez.
Francisco España, abogado penalista
el abogado, quien además es docente y experto en tecnologías, sostuvo que se subestimando el uso de la IA, que “la están súper dimensionando de que nada más es subir pdf y eso no funciona así”, pero que además los funcionarios no saben operar bien la herramienta. Adicionalmente, habló de lo que se requiere en la rama judicial.
“Hace poco se apreció que a nivel de política estatal la Inteligencia Artificial va a ser utilizada (…) esto no tiene marcha atrás y el Estado va a implementar la IA para maximizar las operaciones y mejorar la eficiencia. Ahora, la rama judicial tiene una responsabilidad enorme, administran justicia. La decisión de fondo no debe ser tomada por IA porque por eso le pagan al juez”, señaló el abogado.
Agregó que, si no hay recursos económicos para implementar software a cada juzgado, por lo menos se les dé una clase “para que aprendan que es Google y que es usar ChatGPT” y concluyó que de todas formas la IA tiene aspectos negativos.
{{RELATED_1}}
“Nos está haciendo brutos, nos está haciendo estúpidos”, dijo el abogado al considerar que para muchas actividades se está haciendo el uso de la herramienta, perdiendo habilidades mentales y que por tendencia el ser humano “es algo perezoso”.
