Preaload Image
Regresar

¿Puede una “sospecha de uso de IA” fundar una decisión judicial que rechaza una demanda o recurso?

Joseph Orlando Colmenares Ramírez
  • Joseph Orlando Colmenares Ramírez
  • Abogado - Universidad Católica del Táchira
  • @ josephcolr
  • Derecho Interactivo

En reciente decisión, la Sala de Casación Penal de la Corte Suprema de Justicia inadmitió un recurso de casación presentado en un caso de fraude procesal. De tal forma, la Corte consideró que este no había cumplido con la técnica requerida para el recurso extraordinario, pero además añadió que tras la “sospecha de uso de IA”, sometió el escrito del defensor a dos herramientas de detección (Winston AI y Copyleaks), las cuales arrojaron, respectivamente, un 7% de contenido humano y un 100% de probabilidad de un texto no humano.

Ante este escenario, la decisión respectiva plantea una pregunta que trasciende al análisis del caso concreto, como es: ¿Puede una “sospecha” convertirse en el fundamento de una decisión judicial sin explicar cómo funciona la herramienta que la sustenta?

Conviene hacer una precisión importante, y es que la decisión de inadmisión de la Corte, en sí misma, es correcta, debido a que la casación se trata de un medio procesal de técnica rigurosa que solo es procedente por los motivos expresados en el Artículo 181 de la Ley 906 de 2004. Pero el problema no radica ahí, sino en la forma en que estas herramientas de detección fueron utilizadas sin reparo a las imprecisiones prácticas con las que éstas cuentan.

Para sustentar dicha afirmación, es necesario hacer referencia al reciente estudio publicado por Hadra y otros (2026), donde sus hallazgos revelaron las deficiencias de este tipo de detectores, debido a los avances en el lenguaje natural de las IAs y las cantidades alarmantes de falsos positivos a textos 100% humanos. Por lo tanto, a pesar de que las compañías afirmen que estas herramientas son fiables, la realidad muestra todo lo contrario, pues no pueden cumplir con lo que se promete.

De tal manera, cuando un Tribunal, o en este caso, la Corte Suprema de Justicia, emplea este tipo de herramientas sin justificar su funcionamiento, impide la contradicción y coloca a la defensa en una posición de desventaja estructural frente al proceso. Dicho de otra forma: la Corte condenó sobre una sospecha que ella misma no puede explicar.

En este orden de ideas, puede traerse a colación el concepto de transparencia algorítmica, el cual fue desarrollado por la Corte Constitucional en Sentencia T-067 de 2025, y que consiste en un desarrollo del derecho fundamental al acceso a la información pública, por medio del cual debe comunicarse los sistemas tecnológicos que adopta el Estado y cómo funcionan éstos. Sin embargo, esta exigencia resulta insuficiente cuando se está frente a la afectación de derechos fundamentales.

Para resolver esta cuestión, Ximena Andrés (2025) propone ir más allá de esta exigencia, para empezar a hablar de “transparencia antropológica”, esto es, que las explicaciones sobre el funcionamiento de los sistemas automatizados no solo sean técnicamente auditables, sino comprensibles para los ciudadanos que son afectados por ellas.

Esta distinción entre la transparencia algorítmica y antropológica puede ser más sutil de lo que parece. Por lo tanto, un sistema puede ser matemáticamente auditable, en cuanto a cómo funciona, qué algoritmos contiene o qué variables maneja, pero resultar hermenéuticamente opaco para la persona afectada. En el caso del Auto AP760-2026, la Corte pudo presentar porcentajes con aparente precisión técnica (7% de contenido humano, 100% de probabilidad de generación por IA) y, sin embargo, el abogado afectado no contó con ningún elemento para controvertir esos resultados, pues ni se explicó el entrenamiento de las herramientas utilizadas, ni sus márgenes de error, ni su idoneidad para el contexto jurídico, nada.

La transparencia antropológica, entonces, no exige que el justiciable comprenda la arquitectura técnica del modelo, sino que pueda entender qué consecuencias produce sobre su situación procesal y contar con canales reales para impugnarla. Por lo tanto, en su esquema propositivo Ximena Andrés (2025) propone tres condiciones mínimas para que esta exigencia pueda realizarse: i. una explicación breve del sistema que se utiliza y su fiabilidad; ii. una traducción de los resultados arrojados por el sistema y; iii .una motivación sobre la idoneidad de la decisión del sistema en el caso concreto. Ninguna de estas tres condiciones estuvo presente en el auto de la Sala de Casación Penal.

Este estándar no es un capricho, pues tiene raíces en prerrogativas constitucionales tan importantes como lo son el debido proceso, consagrado en el Artículo 29 de la Constitución Política, la tutela judicial efectiva, en el Artículo 229 y el principio pro personae, que obliga a interpretar las garantías procesales de la manera más favorable al justiciable (Corte Constitucional. Sentencia T-369 de 2015) y que encuentra fundamento en el Artículo 1o de la Carta Política.

En definitiva, la decisión de la Sala de Casación Penal, invita a una reflexión que va más allá de si el detector de IA es fiable o no. Puesto que ofrece una oportunidad valiosa para evaluar la importancia de construir estándares más rigurosos en consideración del uso concreto de tecnologías en los despachos judiciales.

Así mismo, permite estudiar los riesgos de que, ante una sospecha, se invalide un escrito sin la utilización de criterios humanos, tras la revisión técnica de herramientas externas como detectores de IA. Debido a que una motivación no puede descansar en porcentajes cuya metodología no se explica ni se somete a contradicción. Todo lo anterior permite concluir que la regulación que se construya deberá responder, al menos, tres preguntas: qué herramientas pueden usarse en sede judicial, cómo deben documentarse y comunicarse sus resultados, y de qué manera puede la defensa controvertirlos en condiciones reales de igualdad.

Esta reflexión hace parte del proyecto “Transparencia antropológica y la legitimidad de los algoritmos en la justicia”, desarrollado en conjunto con Ximena Andrés para el grupo de investigación en Derecho de la Universidad Nacional de Mar del Plata.

Referencias

Andrés, X. (2025). De la auditabilidad técnica a la transparencia antropológica: agenda humana y legitimidad en la justicia algorítmica iberoamericana. Working paper Evento de Cierre 2025 – Jóvenes y Noveles Investigadores FIADI Primeros en FIADI. Temática: Justicia en la era algorítmica / Transparencia en sistemas automatizados

Colmenares Ramírez, J. (2025). La transparencia algorítmica como nuevo elemento del derecho fundamental de acceso a la información pública. en Blog Columnas Interactivas, 22 de marzo de 2025. Disponible en: https://derechointeractivo.com/la-transparencia-algoritmica/

Congreso de la República. Constitución Política de Colombia (20, junio, 1991). Segunda edición corregida. Publicada en la Gaceta Constitucional No. 116 de 20 de julio de 1991. Santa Fe de Bogotá, D.C.: Diario Oficial No. 52.762. Disponible en: http://www.secretariasenado.gov.co/snado/basedoc/constitucion_politica_1991.html

Corte Constitucional. Sentencia T-369 de 2015

Corte Constitucional. Sentencia T-067 de 2025

Corte Suprema de Justicia. Sala de Casación Penal. Auto AP760-2026. Radicación N° 70927. Disponible en: https://www.ambitojuridico.com/sites/default/files/2026-03/Auto-AP7602026%2870927%29-26.pdf

Hadra, M., Cambridge, K. & Mesbah, M. (2026). Evaluating the accuracy and reliability of AI content detectors in academic contexts. Int J Educ Integr 22, 4 (2026). https://doi.org/10.1007/s40979-026-00213-1

El contenido de esta publicación es responsabilidad exclusiva de los autores y no refleja ni compromete la postura de Derecho Interactivo.

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x