CRISTIAN DAVID SALAZAR CHAVARRO
Fundador Derecho Interactivo
Publicado en Ambito Jurídico
Hemos leido y escuchado que uno de los riesgos latentes en la utilización de la inteligencia
artificial (IA), es la posible aparición de sesgos en la generación de sus resultados, los cuales parten
de la existencia de actitudes y visiones discriminatorias que muchas veces pasan inadvertidas. Estos
pueden reflejar desigualdades históricas, culturales o sociales presentes en los datos, lo que resulta
en decisiones perjudiciales e injustas.
Además de los riesgos éticos que pueden surgir en el abordaje de casos puntuales, una de
las circunstancias que tienden a ser mayormente puestas a prueba, es la amplificación y
perpetuación de desigualdades existentes. Si los algoritmos toman decisiones basadas en datos
sesgados, podrían continuar o incluso exacerbar patrones discriminatorios en áreas tan sensibles
como la justicia.
¿Y qué tal si lo hacemos al contrario? Si partimos de la base que la IA esta alimentada por
la data generada por la misma humanidad, ¿por qué no utilizar a la IA para contribuir en la
detección de los sesgos humanos?
Gracias a la capacidad de la IA para analizar grandes cantidades de datos y detectar
patrones complejos, esta herramienta tiene la posibilidad de identificar sesgos sutiles que podrían
pasar inadvertidos para las personas. Por ejemplo, la IA podría alertar a una autoridad judicial o
disciplinaria sobre posibles sesgos humanos involucrados en la resolución de un caso específico,
encaminando así su abordaje bajo parámetros acordes con la dignidad humana.
Con el fin de observar esta interesante capacidad tecnológica, realizamos un análisis de la
sentencia T-400 de 2022 emitida por la Corte Constitucional, por medio de la cual se emitieron unos
lineamientos medulares en la interpretación de casos bajo la “perspectiva de género”.
En este sentido, el alto tribunal al revisar una conducta relacionada con un presunto acoso
sexual laboral en una entidad pública, destacó: i) a pesar de su coherente narración sobre el acoso
sexual, la Procuraduría General de la Nación (PGN) había cuestionado la credibilidad del testimonio
de la víctima por detalles irrelevantes. ii) Requerir pruebas en situaciones privadas fomenta la
impunidad y la tolerancia institucional hacia violaciones de los derechos de la mujer. iii) Se criticaron
las opiniones basadas en estereotipos sexistas que minimizan las respuestas de las mujeres ante
propuestas sexuales.
Siguiendo un esquema estructurado para la formulación de los prompts (preguntas
realizadas a la IA), se le consultó a ChatGPT que, actuando como un profesional del derecho y bajo
una interpretación sustentada en la perspectiva de género (contexto), emitiera su opinión (acción)
respecto si las conclusiones alcanzadas por la PGN en la construcción inferencial realizada dentro
del proceso, eran racionalmente correctas o presentaban algún tipo de sesgo (tarea). La respuesta,
debía ser proporcionada en una extensión de máximo 40 palabras por cada ítem (formato).
La respuesta obtenida por parte de la IA, claramente fue coincidente con el planteamiento
esgrimido por la Corte Constitucional en la sentencia analizada, en tanto privilegió una interpretación
alejada de prejuicios y estereotipos. La IA concluyó: “i) afirmar que las mujeres suelen rechazar con
firmeza propuestas inapropiadas de hombres ignora las complejas dinámicas de poder, miedo e
intimidación que pueden influir en sus respuestas. ii) Requerir detalles precisos en testimonios es
válido, pero en casos de acoso y violencia de género, el trauma puede distorsionar la coherencia de
las narrativas, revictimizando a las personas. iii) Atribuir responsabilidad basada en testimonios
únicos es válido, pero en contextos de desigualdad de género, la falta de pruebas tangibles o testigos
puede perpetuar la impunidad y debilitar la lucha contra el acoso y la violencia de género.”
Es fundamental resaltar que la inclusión del “enfoque diferencial de género” en el contexto
del prompt, no tiene la intención de ser un factor sugestivo o indicativo de cuál debería ser la
respuesta anticipada. De manera análoga a las inferencias realizadas por intérpretes humanos, estos
parámetros funcionan como cláusulas hermenéuticas que promueven una interpretación coherente
con la dignidad humana. En contraste, al presentar la misma consulta sin contexto, las respuestas
resultaron aleatorias y carecieron de una perspectiva que valorara los derechos reconocidos
constitucionalmente.
Si bien un uso inadecuado de algoritmos y datos puede perpetuar prejuicios humanos, este
análisis muestra cómo la IA puede ser un valioso aliado en la prevención y abordaje de casos que
involucran temáticas asociadas a la discriminación por género, origen étnico, edad, estatus
socioeconómico, entre otras. Esto promueve que el análisis probatorio sea más inclusivo, y sopese
diversas perspectivas.