Elemento psicológico de las decisiones judiciales e inteligencia artificial

AutorJordi Nieva Fenoll
Páginas43-60
43
II. ELEMENTO PSICOLÓGICO
DE LAS DECISIONES JUDICIALES
E INTELIGENCIA ARTIFICIAL
Se ha dicho, no sin motivo, que los seres humanos no somos tan ra-
cionales como parecemos, en el sentido de que debiéramos ser siempre
eficientes y consistentes, y sin embargo no lo somos, a diferencia de las
máquinas 1, que ni se fatigan, ni se distraen o se aburren, ni tienen emo-
ciones. Por ello se ha llegado a afirmar, probablemente de forma un tanto
pretenciosa, que en el futuro los jueces serán cada vez menos necesarios 2.
Pero, por otra parte, también se ha observado que los seres humanos
somos «automáticos» en una mayor medida de lo que podemos pen-
sar cotidianamente. La utilización escandalosa de nuestras querencias
expresadas en las redes sociales se ha demostrado que es eficaz y que
dirige tendencias, aunque nos pese 3. Los mensajes que se publican en
dichas redes son obviamente manipulables, y consiguen en los seres hu-
manos efectos previsibles, lo que hace que, en realidad, con frecuencia
nos comportemos con similares automatismos a los de una máquina.
Y de hecho nos cuesta cambiar esa forma de hacer. Los estudiosos del
heurístico de anclaje y ajuste explican muy bien cómo nos empeñamos
en hacer sistemáticamente una y otra vez la misma cosa, aunque sea
errónea, como veremos después.
Finalmente, esos mismos estudiosos, que como se verá son psicólo-
gos del pensamiento, nos han acabado de bajar del podio de la natura-
1 J. ZELEZNIKOW, «Can Artificial Intelligence And Online Dispute Resolution Enhance
Efficiency And Effectiveness In Courts?», International Journal For Court Administration,
mayo de 2017, p. 35.
2 BEN-ARI, FRISH, LAZOVSKI, ELDAN y GREENBAUM, «Artificial Intelligence in the Practice
of Law: An Analysis and Proof of Concept Experiment», op. cit., pp. 35-36.
3 Vid. BAÑOS, Así se domina el mundo, op. cit., pp. 266 y ss.
JORDI NIEVA FENOLL INTELIGENCIA ARTIFICIAL Y PROCESO JUDICIAL
44
leza en el que nos habían situado tantas religiones y tendencias filosófi-
cas. Resulta que, como se afirmará en este capítulo, los seres humanos
tomamos nuestras decisiones siguiendo unos pocos principios genera-
les, lo cual hace, nuevamente, que esas decisiones sean, por lo general,
fáciles de prever, porque solemos hacer siempre lo mismo.
Y si todo ello es así, ¿podrían introducirse los datos de esos heurísti-
cos en un algoritmo, de modo que la máquina se comportara de la mis-
ma manera —tantas veces estúpida, pero tantas veces acertada— que un
ser humano? 4. ¿No sería muy posible copiar de esa forma ese compor-
tamiento humano de manera automatizada? Y si las cosas son de ese
modo, ¿sería posible que un sistema tomara decisiones que entendemos
eminentemente humanas, como las decisiones judiciales?
Para dar debida respuesta a esa pregunta, que es el planteamiento
inicial de este capítulo, deben examinarse en primer lugar los heurísti-
cos anunciados, y que han sido objeto de descripción por la psicología
del pensamiento.
1. ¿CÓMO DECIDEN LOS JUECES?
Antes, sin embargo, es precisa una inicial reflexión acerca de la mecá-
nica —si puede llamarse así— decisoria de los jueces, que sirva como in-
troducción al estudio de los heurísticos que serán examinados después.
Los jueces son mecánicos en la mayoría de las ocasiones. Puede
sorprender este comentario, pero no pretende ser irrespetuoso. Simple-
mente es una realidad que cualquier juez clasifica los procesos que debe
decidir, dándoles a la mayoría una resolución sistemática para facilitar
su trabajo, copiando motivaciones previamente elaboradas para apli-
carlas a casos similares, con mayores o menores adaptaciones.
También se rigen en no pocas ocasiones por motivos ideológicos 5;
pero ello no interesa, al menos de momento, para el presente análisis.
En la mayoría de los casos los jueces no están condicionados por su
ideología a la hora de juzgar, sino que acostumbran a seguir sin más el
ordenamiento jurídico sin tener en consideración este importante factor
humano. La razón suele ser la sobrecarga de trabajo, que provoca en el
4 Ni más ni menos que el mismo KAHNEMAN parece haber apuntado en esa dirección.
Vid. J. PETHOKOUKIS, «Nobel Laureate Daniel Kahneman on AI: “it’s very difficult to imag-
ine that with sufficient data there will remain things that only humans can do”», AEI, 11
de enero de 2018, http://www.aei.org/publication/nobel-laureate-daniel-kahneman-on-a-i-its-
very-difficult-to-imagine-that-with-sufficient-data-there-will-remain-things-that-only-humans-
can-do/.
5 Vid. ampliamente POSNER, Cómo deciden los jueces, op. cit., pp. 71 y ss., entre otros
muchos lugares de la obra.

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR