Las garantías jurídicas de la inteligencia artificial en la actividad administrativa desde la perspectiva de la buena administración

AutorJulián Valero Torrijos
Páginas82-96
LAS GARANTÍAS JURÍDICAS DE LA INTELIGENCIA ARTIFICIAL EN LA ACTIVIDAD
ADMINISTRATIVA DESDE LA PERSPECTIVA DE LA BUENA ADMINISTRACIÓN*
Julián Valero Torrijos**
Resumen
Las singulares características de la inteligencia articial determinan que esta modalidad de la innovación tecnológica no
tenga un encaje sucientemente adecuado en el vigente marco normativo sobre el uso de medios electrónicos por parte
de las Administraciones públicas. El presente trabajo ofrece una contribución al debate actualmente existente acerca de
cómo el derecho administrativo debería abordar su regulación y, asimismo, qué criterios deberían tenerse en cuenta para
asegurar la efectividad de las garantías jurídicas.
Palabras clave: inteligencia articial; algoritmos; transformación digital; derecho administrativo; garantías jurídicas.
GOVERNMENT ACTIVITY AND THE LEGAL GUARANTEES OF ARTIFICIAL
INTELLIGENCE: A GOOD-GOVERNANCE PERSPECTIVE
Abstract
One consequence of articial intelligence’s unique features is that this form of technological innovation does not fall
well within the current regulatory framework dedicated to the use of electronic media by the public Administrations. This
paper offers its contribution to the current debate on administrative law’s responsibility to deal with this issue, while
also adding to the conversation on what criteria to consider in order to ensure the effectiveness of legal guarantees.
Key words: articial intelligence; algorithms; digital transformation; administrative law; legal guarantees.
* Este trabajo se ha realizado en el marco del proyecto para grupos de investigación de excelencia “La regulación de la transformación
digital y la economía colaborativa” PROMETEO/2017/064 2017-2021, nanciado por la Generalitat Valenciana.
** Julián Valero Torrijos, catedrático de derecho administrativo en la Universidad de Murcia y coordinador iDerTec-Grupoa de
investigación “Innovación, Derecho y Tecnología”. Facultad de Derecho, c. Santo Cristo, 1, 30001 Murcia. julivale@um.es, @jvalerot.
Artículo recibido el 27.03.2019. Evaluación ciega: 03.04.2019 y 04.05.2019. Fecha de aceptación de la versión nal: 18.05.2019.
Citación recomendada: Valero Torrijos, Julián. (2019). Las garantías jurídicas de la inteligencia articial en la actividad
administrativa desde la perspectiva de la buena administración. Revista Catalana de Dret Públic, (58), 82-96. https://doi.org/10.2436/
rcdp.i58.2019.3307
Julián Valero Torrijos
Las garantías jurídicas de la inteligencia articial en la actividad administrativa ...
Revista Catalana de Dret Públic, núm. 58, 2019 83
Sumario
1 La imparable evolución de la innovación tecnológica en el sector público y la insuciente respuesta
normativa del derecho administrativo como punto de partida
1.1 Del big data a la inteligencia articial
1.2 La inteligencia articial, un paso (más) avanzado en el proceso de modernización tecnológica de las
Administraciones públicas
2. La necesaria reconguración de las garantías jurídicas: planteamientos generales
3 El alcance de las garantías formales como respuesta desde las exigencias de la buena Administración
3.1 La necesaria asunción formal del uso de la inteligencia articial: la aplicación de la automatización
3.2 La exigencia de un procedimiento administrativo adecuado
3.3 La colegialidad como respuesta a la complejidad inherente a la inteligencia articial
3.4 La transparencia y el derecho de acceso a la información
3.5 El reconocimiento de derechos como contrapeso imprescindible
3.6 La implantación de sistemas de control idóneos
4 Las consecuencias del incumplimiento de las garantías: de la invalidez a la responsabilidad patrimonial
4.1 Aproximación a la invalidez de los actos administrativos en el contexto de la inteligencia articial
4.2 La responsabilidad patrimonial: ¿quién responde de los daños que pueda generar la inteligencia
articial?
5 Reexión nal
Bibliografía
Julián Valero Torrijos
Las garantías jurídicas de la inteligencia articial en la actividad administrativa ...
Revista Catalana de Dret Públic, núm. 58, 2019 84
1 La imparable evolución de la innovación tecnológica en el sector público y la insuciente
respuesta normativa del derecho administrativo como punto de partida1
1.1 Del big data a la inteligencia articial
Hace poco más de un lustro se llegó a armar que el big data era la última frontera para la innovación, la
competitividad y la productividad (Shah y Tenenbaum, 2012). Esta valoración se basa en la gran capacidad
de tratamiento de información que ofrecía la tecnología a partir de fuentes muy diversas y heterogéneas
(Dumbill, 2012), de manera casi inmediata, a partir de modelos avanzados de gestión y con un enorme
potencial en cuanto a la personalización (Yiu, 2012).
En el caso de las Administraciones públicas son numerosos los proyectos que se han basado en esta modalidad
de tratamiento intensivo y masivo de los datos durante los últimos años. Ya no se trata simplemente de
utilizar ordenadores para facilitar la ecacia y eciencia de la actividad administrativa, sino, por el contrario,
de la posibilidad de implantar sistemas automatizados con una gran capacidad de procesamiento que puede
llegar a adoptar decisiones que afectan a sujetos concretos, lo que obliga a redenir las garantías jurídicas
(Rivero, 2017). En este sentido, frente a la tendencia a la opacidad a la que parece conducir una implantación
interesada de la tecnología (Cotino, 2017), se plantea cada vez de manera más urgente la necesidad de
asegurar normativamente el derecho a conocer el origen de la información que se ha manejado para el
ejercicio de las potestades administrativas superando los restrictivos planteamientos legales. En denitiva,
se trata de apuntalar el enorme potencial de la tecnología como refuerzo para la efectividad de los principios
del Estado democrático de derecho (Cerrillo, 2016), sin que por ello se vea resentida la posición jurídica de
los ciudadanos, desafío que resulta especialmente problemático en algunos ámbitos de la actuación de los
poderes públicos (Martínez y Rodríguez, 2018).
Aunque, partiendo de una inextricable vinculación con los tratamientos basados en el big data (Arellano,
2019), lo cierto es que el siguiente estado evolutivo de la innovación tecnológica en el sector público nos
empuja hacia lo que se ha venido a denominar “inteligencia articial”, cuyo presupuesto inexcusable consiste
en el análisis masivo de grandes volúmenes de información a partir de los parámetros del big data, pudiendo
ofrecer respuesta automatizada ante situaciones de futuro sustentadas en meras predicciones donde no solo
sería relevante la automatización del aprendizaje, sino, además, con una profundidad que solo permite el uso
de ingentes cantidades de datos (Cerrillo, 2019).
Pues bien, ciertamente, aprovechando las posibilidades del big data, pero, además, la capacidad de aprendizaje
autónomo que permite la tecnología actual, nos encontramos ante un cambio cualitativo muy destacado, ya
que permite en muchos casos dar el salto desde el mero análisis a la potencial decisión sin intervención
directa de una persona humana, e incluso a la formulación de previsiones (Tinholt et al., 2017), con la
capacidad adicional de reconguración de los criterios si se detectase algún tipo de error o desviación. No
se trata, pues, de nuevas soluciones a los problemas actuales sino, por el contrario, de nuevas metodologías
(Verhulst y Young, 2017) que permiten afrontar la toma de decisiones desde parámetros más renados y,
al menos potencialmente, también más precisos, pero también más invasivos. Y desde estas premisas, aun
cuando pudiera parecer que la inteligencia articial pudiera ser contraria a dogmas y premisas clásicos en el
ámbito del derecho público, lo cierto es que resulta imprescindible una correcta comprensión del fenómeno
para comprobar que no es así (Coglianese y Lehr, 2017). Ahora bien, el ajuste de las garantías jurídicas se
convierte en una necesidad inexcusable, de manera que puedan establecerse las condiciones bajo las cuales
su utilización resulte aceptable con los oportunos contrapesos que, en denitiva, han de concebirse como
límites adecuados al ejercicio de las potestades administrativas, ahora reforzadas por la especial incidencia
de la tecnología en los derechos y libertades.
1 Abreviaturas empleadas en el artículo: Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y Garantía de los
Derechos Digitales (LOPDPGDD); Ley 39/2015, de 1 de octubre, de Procedimiento Administrativo Común de las Administraciones
de Acceso a la Información, Transparencia y Buen Gobierno (LTBG); Reglamento (UE) 2016/679 del Parlamento Europeo y del
Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales
y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (RGPD).
Julián Valero Torrijos
Las garantías jurídicas de la inteligencia articial en la actividad administrativa ...
Revista Catalana de Dret Públic, núm. 58, 2019 85
1.2 La inteligencia articial, un paso (más) avanzado en el proceso de modernización tecnológica
de las Administraciones públicas
Por lo que se reere especícamente a las Administraciones públicas, se ha destacado (Ramió, 2018) que en
el proceso para la efectiva implantación de la inteligencia articial se observan al menos tres fases:
a) Automatización robótica de procesos, que afecta principalmente a elementos burocráticos y rutinarios,
resultando imprescindible en esta fase la digitalización y la implantación de sistemas automatizados de
apoyo a la toma de decisiones.
b) Automatización cognitiva, que implica ya la aplicación real de inteligencia articial en sentido estricto,
siendo los principales desafíos el tipo de información que se estructura en el sistema, y los criterios utilizados
para el diseño de los algoritmos.
c) Inteligencia articial en su máxima expresión, lo que supone implantar la informática afectiva, el análisis
predictivo y la utilización de máquinas con capacidad de aprendizaje; donde ya entran en juego los valores,
las premisas ideológicas en las que se sustenta la tecnología y, en particular, los problemas relativos al sesgo
de las decisiones.
Como puede observarse del análisis de esta caracterización, los desafíos para el derecho son claramente
distintos en función de la fase del proceso en que nos situemos. Más aún, resulta imposible abordar el análisis
de las implicaciones jurídicas de la inteligencia articial en el ámbito que nos ocupa sin tener en cuenta el
marco normativo aplicable a la actividad que llevan a cabo las Administraciones públicas, en particular
por lo que respecta al uso de medios electrónicos; normativa que, en gran medida, trae causa de una mera
adaptación de la legislación de 2007 sin grandes aportaciones desde la perspectiva de las posibilidades de la
innovación tecnológica (Valero, 2015; Gamero, 2016). Desde la perspectiva que ahora nos ocupa, se trataba
simplemente de dar respuesta a una de las premisas esenciales para la primera de las fases aludidas, que ni
siquiera con la actual regulación se ha podido nalizar, tal y como demuestra el aplazamiento hasta 2020 de
algunas de las principales medidas de la legislación sobre procedimiento administrativo común.
Por otra parte, la regulación de 2015 se sigue centrando en la actividad administrativa formalizada y, en
particular, en el acto y el procedimiento administrativos como paradigmas de las garantías subyacentes.
Se trata de un enfoque maniestamente insuciente desde la perspectiva de la transformación digital que
se demanda del sector público (Valero, 2018), de manera que la adaptación de la respuesta jurídica precisa
dé un enfoque más amplio que, en particular, otorgue la atención necesaria a la prestación de servicios de
valor añadido (Martín, 2018); tanto desde la perspectiva subjetiva, ampliando los sujetos obligados por
las normas dada la complejidad de las relaciones existentes en el contexto tecnológico actual, como desde
la perspectiva objetivo, superando las rigideces y las restricciones normativas, tal y como se demuestra
singularmente con la discutible concepción legal del expediente administrativo —artículo 70 LPAC— o el
excesivo protagonismo del documento como unidad esencial de gestión (Canals, 2016). La misma limitación
se percibe en la legislación sobre régimen jurídico del sector público por lo que se reere a la perspectiva
que nos interesa, tal y como demuestra la extraordinaria relevancia que se otorga a la sede electrónica —
artículo 32 LRJSP— cuando, por el contrario, la innovación tecnológica reclama una mayor exibilidad
(Alamillo, 2017). Idéntica valoración podría realizarse respecto de la opción del legislador al ocuparse de
la actuación administrativa automatizada —la segunda de las premisas de la primera fase a la que antes nos
referíamos—, en gran medida basada en el precedente regulatorio de 2007, que sustancialmente se limita a
precisar la necesidad de concretar algunas garantías técnicas y formales, sin contemplar el establecimiento de
otras de carácter sustantivo o material que podrían ser de gran importancia a la hora de afrontar los desafíos
de la inteligencia articial. Más aún, por lo que se reere al segundo estadio evolutivo —la denominada
automatización “cognitiva”— la aproximación del legislador resulta maniestamente insuciente, según
demuestra el limitado alcance del principio de interoperabilidad (Martínez, 2016; Gamero, 2017).
Y, menos aún, por tanto, está preparada la regulación vigente para afrontar los retos que plantean la informática
afectiva, el análisis predictivo y la utilización de máquinas con capacidad de aprendizaje. Sin embargo, más
allá de las propuestas que se puedan formular teniendo en cuenta las dicultades regulatorias que conlleva
la singularidad de esta tecnología al encontrarse todavía en pleno desarrollo (Vida, 2018), lo cierto es que
Julián Valero Torrijos
Las garantías jurídicas de la inteligencia articial en la actividad administrativa ...
Revista Catalana de Dret Públic, núm. 58, 2019 86
debemos partir de las coordenadas de las normas vigentes y, cuando menos, intentar justicar en qué medida
las garantías jurídicas que contemplan puedan ser aplicables a la inteligencia articial teniendo en cuenta la
realidad tecnológica en la que se sustenta.
2. La necesaria reconguración de las garantías jurídicas: planteamientos generales
Las propias notas características de la inteligencia articial y, en particular, la constatación de que se trata
de una tecnología en plena evolución sin un grado de madurez constatable desde el punto de vista de su
aplicación práctica en el ámbito de las Administraciones públicas (Cotino, 2019) suponen una dicultad a
la hora de afrontar un intento de regular de manera precisa sus singularidades desde la óptica del derecho
administrativo.
En la complejidad del actual contexto digital no puede plantearse una dicotomía antitética y absoluta entre
la protección de los derechos individuales y las medidas generales, tal y como se demuestra singularmente
con la regulación europea de 2016 en materia de protección de datos de carácter personal y la insuciencia
de un enfoque basado en el consentimiento (Mantelero, 2018a), de manera que han de superarse inercias
basadas en la respuesta individual (De Filippi, 2016). En efecto, debemos partir de la consideración de que
nos encontramos ante una herramienta tecnológica con un enorme potencial en cuanto a la incidencia no
solo sobre las personas sino, incluso, sobre bienes y valores que, más allá de la perspectiva estrictamente
individual, resultan esenciales para los cimientos del Estado de derecho; en particular, si tenemos en cuenta
el enorme potencial analítico y, sobre todo, predictivo de la inteligencia articial, lo que nos lleva a la
necesidad de aportar garantías desde el enfoque de la ética (Mantelero, 2018a) y la garantía que ofrece la
propia tecnología (Arellano, 2019) y, sobre todo, que resulte imprescindible acudir a criterios de carácter
ético. En este sentido, la normativa europea sobre protección de datos ha marcado una tendencia de gran
interés al requerir en ciertos casos de especial riesgo la realización de un análisis de impacto y, sobre todo,
al establecer principios generales especícamente adaptados a la naturaleza supraindividual de los bienes
jurídicos a proteger, caso de la proactividad o la protección por defecto y desde el diseño (Martínez, 2017).
Más allá de la inevitable crítica del marco normativo vigente para hacer frente a los desafíos del uso de la
inteligencia articial por las Administraciones públicas, estas claves han de servir para orientar la respuesta
a nivel doctrinal, que ha de venir sustentada desde las exigencias de la buena administración (Ponce, 2019).
En este sentido, el planteamiento no puede ser si regular o no la tecnología, sino, por el contrario, determinar
qué variables deben tenerse en cuenta en atención de sus propias características (Cotino, 2019), sin que
sea admisible limitarse únicamente a adoptar una postura de pasividad ante la incapacidad de gestionar
los riesgos frente al avance tecnológico. Por ello, más allá de la aprobación formal de normas de hard
law a medio plazo en función de la evolución de esta tecnología, existe un término medio que consiste
en la adopción de criterios de soft law dada la debilidad de los poderes públicos para asumir el liderazgo
(Sarmiento, 2008), especialmente en un contexto de innovación tecnológico con un elevado riesgo desde el
punto de vista jurídico y, sobre todo, ético como es el de la inteligencia articial.
3 El alcance de las garantías formales como respuesta desde las exigencias de la buena
Administración
3.1 La necesaria asunción formal del uso de la inteligencia articial: la aplicación de la automati-
zación
En la legislación inicial de 1992 se contempló como garantía elemental la necesidad de aprobar formalmente
aquellas aplicaciones que se utilizaran para el ejercicio de las potestades administrativas, recogiéndose
posteriormente en el todavía vigente artículo 96.4 de la Ley 58/2003, de 17 de diciembre, General Tributaria.
Sin embargo, con la reforma de 2007 desapareció dicha exigencia del régimen general, por lo que dicha
garantía en principio ya no resultaría de aplicación salvo para el referido ámbito tributario.
Más allá de la incoherencia de una regulación dispar y, sobre todo, de la opacidad a que avoca la inexistencia
de una obligación legal al respecto (Cantero, 2011), nos encontramos ante una criticable insuciencia
a la hora de reforzar las garantías jurídicas frente al uso de la tecnología. No obstante, este respecto, es
Julián Valero Torrijos
Las garantías jurídicas de la inteligencia articial en la actividad administrativa ...
Revista Catalana de Dret Públic, núm. 58, 2019 87
preciso recordar que el artículo 41 LRJSP ha establecido ciertas exigencias que también han de aplicarse a
la inteligencia articial, de manera que, al menos cuando no haya una intervención directa de una persona
física en las decisiones que se adopten, deberán denirse previamente “las especicaciones, programación,
mantenimiento, supervisión y control de calidad y, en su caso, auditoría del sistema de información y de
su código fuente”. Y, teniendo en cuenta la exigencia que contiene dicho precepto, dichos requerimientos
habrán de ser cumplirse por el órgano que en cada caso resulte competente, lo que obliga irremediablemente
a dictar un acto administrativo que, por su naturaleza, debería ser objeto de publicación ocial conforme a lo
dispuesto en el artículo 45 LPAC por innegables exigencias de interés público. Así pues, el incumplimiento de
esta obligación de publicidad determinaría la inecacia del acto de aprobación y, por tanto, la imposibilidad
de utilizar el sistema de automatización que da sustento a la inteligencia articial
Ciertamente, el alcance de la anterior regulación legal sobre la actuación administrativa automatizada
establecida en 2007 fue objeto de relevantes objeciones doctrinales (Martín, 2009; Alamillo y Uríos, 2009;
Valero, 2013) que, en gran medida, también pueden esgrimirse respecto de la disciplina legal actualmente
vigente (Palomar, 2016; Cotino, 2019). Más aún desde la perspectiva de la inteligencia articial, pues como
se ha enfatizado (Ponce, 2019) se trata de una regulación “débil, dispersa y con lagunas referidas a temas
de acceso a la información, procedimiento de creación de los algoritmos y explicación de las decisiones
adoptadas por éstos”. Sin embargo, a pesar de tales limitaciones, lo cierto es que es la única previsión
legal sobre el régimen jurídico de la actuación administrativa que, con ciertas matizaciones, se ajusta a las
particularidades de la inteligencia articial, por lo que en todo caso sus previsiones han de ser respetadas.
La constatación de esta evidencia no puede obviar que una aplicación literal del artículo 41 LRJSP llevaría
a excluir de esta garantía de aprobación previa aquellos sistemas de inteligencia articial en los que el
resultado de la aplicación de los algoritmos debiera ser validado bien por el titular de un órgano bien por el
personal al servicio de la correspondiente entidad. Ahora bien, dicha persona debería ser capaz de asumir
—y, por tanto, de comprender— el alcance y las razones del resultado que arrojen los algoritmos, ya que,
de lo contrario, no podría hacerse responsable de la decisión que se adopten y, en particular, difícilmente se
podrían cumplir las exigencias legales de motivación. La consecuencia no puede ser más incongruente y, por
tanto, mientras no se proceda a la aprobación de una regulación especíca adaptada a las particularidades de
la inteligencia articial, las exigencias del principio de buena administración debieran llevar a las entidades
públicas a asumir la decisión adoptada utilizando algoritmos, incluso si no hay actuación automatizada en
sentido estricto.
En última instancia, aun cuando las Administraciones públicas no formalizan habitualmente la decisión
de utilizar un algoritmo, ni tampoco documentan las nalidades perseguidas, las fuentes utilizadas o los
resultados obtenidos (Cerrillo, 2019), no por ello puede dejar de enfatizarse el carácter esencial de esta
garantía. Antes al contrario, la decisión de poner en funcionamiento un sistema de inteligencia articial
debería ser adoptada formalmente mediante un acto administrativo, requerimiento que constituye no solo
una exigencia del ejercicio de la competencia y su carácter irrenunciable (Valero, 2013), sino que, además,
es una condición inexcusable para facilitar la adecuada defensa de los derechos e intereses legítimos, ya que,
en denitiva, de no ser así, se estaría dicultando una eventual impugnación de la decisión administrativa
de poner en marcha un concreto sistema de inteligencia articial. Así pues, esta premisa resulta de gran
relevancia para garantizar el control y la responsabilidad por su funcionamiento y el límite tolerable de
eventuales desviaciones (Coglianese y Lehr, 2017), y así poder discutir con las garantías formales adecuadas
no solo su abilidad sino, también y sobre todo, que no se lesionan bienes jurídicos tanto individuales como,
en su caso, colectivos.
3.2 La exigencia de un procedimiento administrativo adecuado
Teniendo en cuenta la derivación formal del principio de buena administración, la necesaria adopción de
un acto administrativo como premisa inexcusable para la utilización de un sistema de inteligencia articial
ha de realizarse a través de la tramitación de un procedimiento administrativo (Ponce, 2001) que, en todo
caso, debería ajustarse a las concretas características de la tecnología que se pretende emplear, por lo
que dicho procedimiento habrá de ser el adecuado para el cumplimiento de dicha nalidad; además de
que, adicionalmente, con esta exigencia se facilita el ejercicio de los derechos formales (Cerrillo, 2019),
Julián Valero Torrijos
Las garantías jurídicas de la inteligencia articial en la actividad administrativa ...
Revista Catalana de Dret Públic, núm. 58, 2019 88
planteamiento nada desdeñable en este ámbito de la inteligencia articial como más adelante se argumentará.
Aun compartiendo la premisa de que los algoritmos no se pueden considerar en modo alguno auténticas
normas jurídicas, lo cierto es que la regulación del procedimiento de elaboración de los reglamentos ofrece
diversos instrumentos de gran potencial si se proyectasen en el ámbito que ahora nos ocupa con las debidas
adaptaciones. Del mismo modo, aunque no siempre será suciente cuando los datos manejados no sean de
carácter personal, las herramientas del RGPD también pueden resultar de especial utilidad, en particular si se
acude a ellas analógicamente como instrumentos adecuados para dar respuesta a las singularidades del actual
contexto digital, dado que facilitan un diseño adecuado y un análisis preventivo que permite hacer frente en
mejor medida a los riesgos que se puedan plantear más allá de las exigencias normativas de la protección de
datos (Martínez, 2017).
Así, en primer lugar y como requisito previo, la intención de utilizar la inteligencia articial en un determinado
supuesto debería hacerse pública ofreciendo un plazo adecuado para formular objeciones especícas sobre
dicha decisión al margen de la concreta conguración de los algoritmos. En este sentido, sin perjuicio de que la
participación tanto individual como colectiva debería constituir uno de los ejes principales del procedimiento
(Cerrillo, 2019; Ponce, 2019), el trámite de información pública previsto en el artículo 83 LPAC constituye
una exigencia ineludible teniendo en cuenta la naturaleza del procedimiento, en particular las concretas
características de la inteligencia articial. Incluso, más allá de la mera formulación de alegaciones, debiera
adoptarse como criterio general la transparencia por defecto (Velasco, 2019), de manera que se favorezca la
colaboración de aquellos grupos sociales o individuos que tengan capacidad real para evaluar el algoritmo
no solo durante el procedimiento previo a su adopción formal sino, incluso, con posterioridad durante su
efectiva utilización. Más aún, esta exigencia de transparencia resulta imprescindible para tratar de evitar la
prevalencia de intereses corporativos o sectoriales (Cotino, 2019).
En este sentido, desde la imprescindible apertura del período de información pública, la evaluación del
impacto de los concretos algoritmos que se van a utilizar debiera considerarse un trámite esencial con
independencia de que tenga lugar o no un tratamiento de datos de carácter personal, de manera que se tengan
en cuenta los riesgos potenciales y se apliquen las exigencias del principio de proporcionalidad a la hora de
decidir la utilización de técnicas de inteligencia articial y, sobre todo, las concretas condiciones sobre las
que operarán los algoritmos. Aunque resulta evidente el carácter esencial de su realización en los supuestos
a que se reere el artículo 35 RGPD y en las condiciones que establece el artículo 28 LOPDGDD, se trata
de una garantía de alcance limitado que, por las razones expuestas con anterioridad, debería ampliarse más
allá del estricto ámbito de la protección de datos de carácter personal, abarcando también los aspectos éticos
con las oportunas adaptaciones metodológicas (Mantelero, 2018b); valoración ética que no se ha de limitar
al funcionamiento de los algoritmos únicamente, sino que, además, debería ponderar hasta qué punto una
concreta decisión administrativa, más allá de que sea o no discrecional (Ponce, 2019), conviene que se
adopte de manera automatizada utilizando instrumentos basados en criterios de previsibilidad generados con
autonomía a partir de modelos de machine learning.
Más aún, al margen de la perspectiva relativa a los derechos y libertades individuales, lo cierto es que, con
carácter general, el análisis de riesgos y la evaluación de impacto en el proceso de transformación digital
de las Administraciones públicas están llamados a jugar un papel de especial trascendencia para facilitar la
adecuada defensa de los grupos y los intereses colectivos, particularmente cuando los algoritmos vayan a
ser utilizados en contextos de singular complejidad tecnológica como los entornos de ciudades inteligentes
(Ritsema, 2019). Se trata de una cuestión de máxima urgencia, de manera que, entre otros aspectos de enorme
transcendencia ética, se pueda asegurar el respeto a la dignidad humana y los derechos fundamentales, la
efectiva responsabilidad por las decisiones que se adopten, el origen lícito de los datos y su calidad, así como
la transparencia y trazabilidad de los sistemas en ámbitos materiales singularmente sensibles (Martínez,
2018).
La propia complejidad inherente a la inteligencia articial, los riesgos que han de valorarse y, asimismo,
la diversidad de puntos de vista a tener en cuenta justican la necesaria participación de equipos
multidisciplinares y especializados (Turner, 2019), lo que puede conseguirse a través de grupos de trabajo u
órganos formalizados integrados por profesionales de las respectiva entidad pública debidamente cualicados
e, incluso, expertos y representantes sociales que dieran respuesta a las exigencias de participación propias
Julián Valero Torrijos
Las garantías jurídicas de la inteligencia articial en la actividad administrativa ...
Revista Catalana de Dret Públic, núm. 58, 2019 89
del gobierno abierto. Adicionalmente, desde esta perspectiva, más allá de la apertura del procedimiento a
la participación externa y de las garantías legales para la actuación administrativa automatizada, deberían
incorporarse preceptivamente al menos informes técnicos, jurídicos y éticos que ofrecieran elementos de
juicio adecuados para ponderar los diversos aspectos que se han expuesto en las páginas anteriores.
3.3 La colegialidad como respuesta a la complejidad inherente a la inteligencia articial
Dadas estas particularidades parece razonable concluir que la decisión nal que ponga n al procedimiento
sea adoptada por un órgano colegiado. En efecto, se ha destacado (Valero, 2001) que, aun cuando la
colegialidad pudiera fomentar una cierta difusión de la responsabilidad individual al hacer descansar la
decisión personal en la argumentación del resto de los miembros del órgano, lo cierto es que asegura en
mayor medida la imparcialidad de las decisiones y, sobre todo, ofrece un valioso mecanismo de control
recíproco al obligar a los miembros del órgano a contrastar sus propios criterios individuales con los del resto
de quienes lo integran. Más aún, el hecho de que se hubiere tramitado previamente un procedimiento con las
garantías antes referidas supone una justicación adicional a la hora de que, desde los planteamientos de la
buena administración, la decisión nal deba ser colegiada, puesto que refuerza la dimensión de control no ya
entre los propios miembros del órgano, sino incluso frente a las propuestas, alegaciones e informes que se
hayan planteado previamente; lo que resulta de singular relevancia en la medida que en muchas ocasiones la
decisión de adoptar un sistema de inteligencia articial será puramente discrecional.
3.4 La transparencia y el derecho de acceso a la información
El actual contexto tecnológico una visión de la transparencia y el acceso a la información que vaya más allá
de la limitada concepción del legislador (Muñoz Soro y Bermejo, 2014; Martín, 2014). En este sentido, la
efectividad de las garantías jurídicas pasa necesariamente por modicar la legislación sobre transparencia y
acceso a la información y ampliar el alcance de sus previsiones, incorporando el reconocimiento de un derecho
más extenso que incluya no solo el conocimiento del resultado de la aplicación o del sistema informativo
sino, además y sobre todo, el origen de los datos empleados y la naturaleza y el alcance del tratamiento
realizado (Valero, 2018). Se trata de una armación plenamente aplicable al uso de inteligencia articial,
singularmente en los proyectos de ciudades inteligentes, donde las Administraciones públicas corren el
riesgo de ser desplazadas por los prestadores privados que los gestionan (Brauneis y Goodman, 2018).
Aun cuando los algoritmos ya se hayan considerado en algún caso en España como información pública
a los efectos del artículo 13 LTBG (Cerrillo, 2019), la disciplina legal contempla relevantes excepciones
que pudieran esgrimirse en el ámbito de su utilización por parte de las Administraciones públicas. A este
respecto, el artículo 14 LTBG permite limitar el acceso cuando el ejercicio del derecho pueda afectar a bienes
jurídicos como la prevención, investigación o sanción de ilícitos penales y administrativos; las funciones
administrativas de vigilancia y control; los intereses económicos y comerciales; o, entre otros, la propiedad
intelectual e industrial. En particular, la falta de transparencia puede ser un problema de singular importancia
debido al relevante liderazgo del sector privado en el desarrollo de aplicaciones basadas en el uso de
algoritmos, lo que, además de reforzar la dependencia de las entidades privadas (Ramió, 2018) pudiera
suponer un problema de cierta gravedad a la hora de negociar las condiciones contractuales. En todo caso, es
preciso enfatizar que la decisión que deniegue el acceso no solo habrá de estar motivada, sino que, además,
ha de ser proporcionada y ponderar por qué razón esos intereses han de prevalecer en el caso concreto; de
modo que en dicho razonamiento habrán de atenderse de manera particular los problemas y dicultades
especícos que plantea la inteligencia articial, especialmente cuando se trate de derechos fundamentales
(De la Quadra, 2018).
Así pues, la disciplina legal objeto de análisis no está pensada especícamente para las características de la
inteligencia articial y, además, se contempla en relación con el ejercicio del derecho de acceso —capítulo
III del título I— y no en cuanto al régimen de la publicidad activa. A este respecto debería partirse del
ejemplo de la regulación francesa que contiene la Ley 2016-1321, de 7 de octubre, donde la regulación
especíca sobre la inteligencia articial parte de la distinción entre la existencia de una solicitud de acceso o,
por el contrario, de una obligación de publicidad activa de las Administraciones públicas, que exige difundir
las reglas esenciales en las que se basan los algoritmos. Asimismo, por lo que se reere especícamente
Julián Valero Torrijos
Las garantías jurídicas de la inteligencia articial en la actividad administrativa ...
Revista Catalana de Dret Públic, núm. 58, 2019 90
al obstáculo que pueda suponer la concurrencia de otros bienes jurídicos, también existen perspicaces
propuestas de auditorías basadas en pruebas de conocimiento cero y testigos criptográcos (Ponce, 2019),
cuya exploración doctrinal constituye un auténtico desafío para formular propuestas que someter a la
consideración del legislador; hasta el extremo de que ya se ha vislumbrado (Turner, 2019) incluso el germen
de una futura profesión, con sus propios estándares y procesos que deberían estar reforzados jurídicamente.
En última instancia, una vez más, la correcta implementación de la tecnología puede convertirla en un
instrumento idóneo que permita profundizar en un mejor conocimiento de las razones últimas en las que se
basan las decisiones administrativas y, en particular, de las políticas públicas que se adopten basándose en la
inteligencia articial.
3.5 El reconocimiento de derechos como contrapeso imprescindible
Más allá del alcance del derecho de acceso, el adecuado control de la actividad administrativa desde las
exigencias constitucionales requiere jar un estatuto jurídico adecuado para aquellas personas que puedan
verse afectadas en sus derechos e intereses legítimos por la utilización de herramientas de inteligencia
articial. En primer lugar, es preciso recordar que, con carácter general, el artículo 22 RGPD conere a
las personas físicas el derecho a no verse afectadas por una decisión automatizada salvo que —dejando
a un lado los supuestos de ejecución contractual o consentimiento explícito, ciertamente infrecuentes
en el ámbito administrativo— dicha posibilidad se encuentre prevista por una norma y se establezcan
medidas adecuadas de salvaguardia de los derechos y libertades. Así pues, si tenemos en cuenta la exigente
jurisprudencia del TJUE en la materia, la legitimación para el tratamiento de datos personales a través de
un algoritmo, sin intervención humana, solo sería admisible previa la oportuna regulación que, además, ha
de establecer garantías adecuadas a la luz de los mecanismos y principios que contempla el propio RGPD.
En consecuencia, el particular afectado podría acudir a las vías administrativas y judiciales de tutela de los
derechos fundamentales.
Sin embargo, el uso de la inteligencia articial no siempre tendrá lugar en las circunstancias referidas
por el citado precepto, bien porque afecte a personas jurídicas bien porque no se trate de una decisión
completamente automatizada. Así pues, en estos casos procedería aplicar únicamente las garantías que con
carácter general existen en las relaciones con las Administraciones públicas, si bien en algún caso matizadas
por las características propias de la tecnología objeto de análisis. En primer lugar, según se ha razonado en
apartados anteriores, la necesidad de tramitar un procedimiento administrativo especíco para la aprobación
del uso y, en concreto, la adopción de un acto administrativo de aprobación sometido a publicación
ocial facilitaría su eventual impugnación por los cauces ordinarios; más allá del derecho a discutir, en
el caso concreto, la decisión administrativa concreta que pudiera afectar de manera precisa a su propia
esfera jurídica. En particular, cuando la decisión adopte la forma de un acto administrativo, las exigencias
generales que contempla la LPAC serían plenamente aplicables, sobre todo cuando supongan una limitación
de derechos subjetivos e intereses legítimos. Pero más allá de la “sucinta referencia de hechos y fundamentos
jurídicos” a que alude el artículo 35 LPAC, los principios generales a que se reere el artículo 3 LRJSP y la
especial exigencia de motivación que impone el principio de buena administración (Ponce, 2018) requieren
una adaptación de la obligación legal, por lo que resulta imprescindible (Ramió, 2019) una justicación
especíca de las decisiones que se adopten, y que, además, resulte comprensible para una persona que
carezca de los conocimientos para valorar el alcance de la tecnología utilizada. Y habría que insistir en que
la comprensibilidad ha de referirse a parámetros humanos, de manera que no bastaría simplemente con que
fuera entendible por otra máquina (Mantelero, 2018a).
Más aún, debido a la especial relevancia que tiene la obligación de motivación como uno de los pilares
del derecho a la buena administración (Rodríguez-Arana, 2012), la explicación que ha de proporcionarse
adquiere una singular justicación con el n de dar respuesta al desafío que supone adoptar las decisiones
de manera automatizada utilizando algoritmos y, en particular, el mayor potencial que ofrece para un mejor
control de la decisión administrativa (Capdeferro, 2019). A este respecto, la exigencia de motivación se ha de
extender más allá de los actos administrativos formalizados y, de otra parte, la explicación que se proporcione
no solo ha de ser razonable, sino que ha de adaptarse a la singularidad de la tecnología; lo que puede llevar
a ser más exigentes al requerir elementos de contraste, criterios de decisión relevantes; y todo ello no como
Julián Valero Torrijos
Las garantías jurídicas de la inteligencia articial en la actividad administrativa ...
Revista Catalana de Dret Públic, núm. 58, 2019 91
una justicación ex post sino como un criterio inherente al diseño de los sistemas de inteligencia articial
(Steels y López, 2018).
3.6 La implantación de sistemas de control idóneos
Resulta incuestionable que la rendición de cuentas es una elemental exigencia para reforzar el control
democrático del uso de esta tecnología (Vida, 2018; Velasco, 2019), superando así el limitado alcance de
unas previsiones legales adoptadas sin tener en cuenta el desafío de la transformación digital del sector
público. Por ello y, siguiendo las exigencias de buena administración, en atención al elevado riesgo que
puede suponer la utilización de sistemas de inteligencia articial no solo para los intereses generales sino,
además, para los derechos y libertades, los mecanismos de control que se establezcan también deberían
tenerlo en cuenta.
En primer lugar, se ha planteado la conveniencia de articular sistemas de control especícos que dieran
respuesta a las exigencias particulares de la tecnología empleada, como sería el caso de las certicaciones
de productos o la creación de agencias especializadas. Sin embargo, aun admitiendo la necesidad de estos
mecanismos con carácter general, en el caso del sector público adquiere especial relevancia instaurar sistemas
externos dotados, al menos, de independencia funcional, como sería el caso de la creación de órganos
colegiados ad hoc dotados de autonomía funcional y encargados de resolver, cuando menos, los recursos
que se pudieran interponer frente a los actos administrativos por los que se acuerde tanto la utilización de la
inteligencia articial para un concreto trámite o actuación como, en su caso, la puesta en funcionamiento de
un determinado algoritmo. En todo caso, aunque la especicidad de la materia así lo justica, el artículo 112
LPAC exige que esta decisión se adopte por el legislador, si bien, en tanto que esta opción no sea asumida
por el estatal con carácter básico, no existiría inconveniente en que fueran los parlamentos autonómicos
quienes contemplaran este mecanismo de control como sustitución de la versión tradicional de los recursos
administrativos ordinarios.
Por otro lado, en segundo lugar y de manera muy especial en los supuestos en que se implanten sistemas
basados en el machine learning, las exigencias y garantías que se implementen deberían ser no solo objeto
de aprobación inicial, sino que, además, tendrían que estar sometidas a sistemas de evaluación periódicos,
a n de garantizar que la propia evolución de los algoritmos sigue ajustándose a las premisas iniciales o, en
su caso, han de ser actualizadas a n de que las evaluaciones iniciales conserven plenamente su sentido. A
este respecto debe enfatizarse que no se trata, simplemente, de asegurar el cumplimiento de las exigencias de
seguridad adecuadas —especialmente en caso de que se traten datos de carácter personal, por exigencia del
artículo 5.1.f) RGPD— ni de una simple exigencia en clave jurídica, sino, además, se debiera referir también
a las oportunas garantías éticas que reclama este tipo de tecnologías.
4 Las consecuencias del incumplimiento de las garantías: de la invalidez a la responsabilidad
patrimonial
Aun cuando buena parte de las garantías que se han expuesto en las páginas anteriores no dejan de ser
propuestas doctrinales a partir de las exigencias del principio de buena administración, lo cierto es que algunas
de ellas resultan de la estricta aplicación del marco normativo en vigor, de manera que su incumplimiento
podría tener consecuencias desde la perspectiva de la invalidez de los actos administrativos o, en su caso, la
responsabilidad patrimonial de la Administración pública.
4.1 Aproximación a la invalidez de los actos administrativos en el contexto de la inteligencia articial
Una de las principales exigencias que se han expuesto consiste en la necesidad de que la Administración
pública que pretenda utilizar sistemas de inteligencia articial asuma la responsabilidad por esta decisión,
lo que necesariamente aboca a un acto formal de aprobación y, en consecuencia, a la tramitación de un
procedimiento administrativo adecuado como exigencia de validez conforme a lo dispuesto en el artículo
47.1.e) LPAC. De conformidad con la interpretación jurisprudencial más extendida, esta misma consecuencia
se podría aplicar a la omisión de trámites especialmente cualicados del procedimiento, como podría ser el
de información pública, cuya exigencia hemos planteado en aplicación de la singularidad de la inteligencia
Julián Valero Torrijos
Las garantías jurídicas de la inteligencia articial en la actividad administrativa ...
Revista Catalana de Dret Públic, núm. 58, 2019 92
articial teniendo en cuenta que el alcance de su funcionamiento puede tener efectos generales para cualquier
persona y no especícos para un sujeto concreto o grupo de sujetos determinados.
Por lo que respecta a las garantías que se proyectan sobre las concretas decisiones administrativas, la invalidez
puede venir determinada, en primer lugar, por la insuciente motivación de los actos administrativos. Aunque
se ha planteado que la falta de comprensibilidad sería causante de nulidad radical (Ponce, 2019), no creemos
que se dé en este supuesto la exigencia de imposibilidad —o irracionalidad— en cuanto al contenido, ya
que más bien se trataría inicialmente de una exigencia formal que podría ser subsanada; si bien, de no
hacerlo tras requerirlo la persona afectada, se podría generar indefensión y, por tanto, derivar en un motivo
de anulabilidad conforme al artículo 48.2 LPAC. En segundo lugar, la decisión podría haberse adoptado en
vulneración del derecho fundamental a la protección de datos de carácter personal reconocido en el artículo
18.4 de la Constitución, consecuencia que se daría en los supuestos de obtención ilícita de la información
sin base jurídica suciente conforme al artículo 6 RGPD y en los casos en que la decisión se hubiese basado
únicamente en un tratamiento automatizado sin adoptar las medidas de salvaguarda a que hace referencia el
artículo 22.2.b) RGPD. Sin embargo, la falta de información sobre el carácter automatizado de una actuación
administrativa no alcanzaría necesariamente y por misma a su invalidez, salvo que afecte a las posibilidades
de defensa de los derechos e intereses legítimos en el supuesto concreto, en cuyo caso se podría reconducir a
un problema de inadecuada motivación; sin perjuicio, claro está, de las consecuencias derivadas de no haber
tramitado un procedimiento adecuado previamente a la puesta en funcionamiento del sistema de inteligencia
articial.
4.2 La responsabilidad patrimonial: ¿quién responde de los daños que pueda generar la inteligen-
cia articial?
Con carácter general, el uso de medios electrónicos en la actividad administrativa plantea importantes
implicaciones en particular por lo que se reere al intento por parte de los poderes públicos de establecer
limitaciones dudosamente ajustadas a derecho (Martínez, 2012); propósito que puede resultar especialmente
grave en el caso de la inteligencia articial, por lo que resulta de especial importancia establecer en qué
condiciones el daño que sufran los particulares debiera considerarse antijurídico.
A este respecto, más allá de la procedencia o no del reconocimiento formal de personalidad jurídica a los
robots que resulta ciertamente una cuestión sugerente para el debate futuro (Barrio, 2018b), hay dos problemas
principales por lo que se reere especícamente al ámbito administrativo (Cerrillo, 2019). Por una parte, el
artículo 34 LRJSP condiciona el derecho a la indemnización a que el particular no tenga el deber jurídico de
soportar el daño, armando tajantemente que “no serán indemnizables los daños que se deriven de hechos o
circunstancias que no se hubiesen podido prever o evitar según el estado de los conocimientos de la ciencia
o de la técnica existentes en el momento de producción de aquéllos”. Podría pensarse que dicha previsión
supone una exoneración automática de responsabilidad en el ámbito de la inteligencia articial, armación
que resultaría contraria a la garantía constitucional del artículo 106 de la Constitución. Antes al contrario, si
la Administración opta por poner en funcionamiento sistemas automatizados de decisión, estaría asumiendo
conscientemente el riesgo de que pudieran producir daños en su funcionamiento a partir de una determinada
conguración, que debería ser validada por la propia entidad a través de una decisión formalizada según
hemos planteado. En consecuencia, al no existir en este momento una obligación legal inexcusable para
utilizar la inteligencia articial, con carácter previo debería plantearse para qué trámites y actuaciones
se pretende utilizar y, asimismo, los criterios generales y otros aspectos relativos a la conguración del
algoritmo; lo que necesariamente obligaría a realizar una evaluación del riesgo que se puede plantear y, en
denitiva, asumir las consecuencias de un funcionamiento anormal de los servicios públicos en los términos
del artículo 32 LRJSP. Y especialmente cuando se opte por sistemas de machine learning, donde el carácter
objetivo de la responsabilidad resulta incuestionable desde la perspectiva de la gestión del riesgo, dada la
autonomía relativa sobre la que descansan (Mantelero, 2018a); característica que, en denitiva, ha sido
asumida por la propia Administración al optar por esta modalidad.
No obstante, también debería tenerse en cuenta qué incidencia tendría en este planteamiento general la
intervención de un tercero ajeno a la Administración, para lo cual habría que distinguir dos supuestos. En
primer lugar, la obtención de datos desde fuentes abiertas y reutilizables gestionadas por otras entidades puede
Julián Valero Torrijos
Las garantías jurídicas de la inteligencia articial en la actividad administrativa ...
Revista Catalana de Dret Públic, núm. 58, 2019 93
generar una interferencia en la relación de causalidad en caso de que adolecieran de algún tipo de problema
u obstáculo (Valero, 2017): singularmente que los datos no tuvieren la calidad exigible en función de la
naturaleza del tratamiento a que se sometan, singularmente si no fuesen correctos o estuviesen desfasados.
En este caso se podría plantear incluso un supuesto de responsabilidad concurrente: de la entidad encargada
de la publicación de los datos por haber incumplido sus obligaciones y, asimismo, de la Administración
titular del algoritmo en la medida que no hubiese realizado las comprobaciones oportunas por lo que se
reere a la calidad y el régimen de uso de los datos; lo que resulta especialmente importante en caso de que
se obtengan de la Administración General del Estado, en concreto debido a la exoneración que contempla
el Real Decreto 1495/2011, de 24 de octubre, por el que se desarrolla la Ley 37/2007, de 16 de noviembre,
sobre reutilización de la información del sector público, para el ámbito del sector público estatal. Finalmente,
si el algoritmo hubiese sido desarrollado por una entidad privada, la Administración solo podría considerarse
responsable en aquellos supuestos en que el daño fuese consecuencia inmediata y directa de una orden suya
al amparo de lo dispuesto en el artículo 196 de la Ley 9/2017, de 8 de noviembre, de Contratos del Sector
Público.
5 Reexión nal
Más allá de si la inteligencia articial nos abocará o no al nacimiento de una nueva rama del derecho (Canals,
2019), lo cierto es que el marco normativo actual sobre el uso de medios electrónicos en la actividad de las
entidades públicas está en gran medida basado en un modelo regulatorio de los años noventa del siglo xx;
quizás con las matizaciones que ha impuesto la Unión Europea en materia de reutilización de la información
del sector público y de protección de datos de carácter personal, en este caso tras la aprobación del RGPD
en 2016. A pesar de ello, ya se han dado pasos muy relevantes en la aplicación práctica de la inteligencia
articial más allá de los sistemas de información que funcionan de manera autónoma —los chatbot, tan de
moda en la actualidad—, pero lo cierto es que el potencial de la inteligencia articial en el sector público
está todavía por manifestarse en su máxima expresión. Incluso, en muchos casos podría convertirse en
una inestimable herramienta para la adopción de mejores decisiones y una justicación más adecuada,
sobre todo desde la perspectiva del control —incluso preventivo— de la propia actividad administrativa y,
asimismo, de los particulares. En especial en ecosistemas digitales donde la intervención ha de ser inmediata
inexcusablemente y no siempre es posible esperar a la respuesta humana, como sucede con ciertas medidas
cautelares en el ejercicio de potestades de inspección o prevención de actividades ilícitas.
Sin embargo, aunque se haya destacado el excesivo protagonismo de la perspectiva jurídica en la actuación
administrativa y, en general, en la cultura de las Administraciones públicas, de manera que la inteligencia
articial pudiera resultar incluso una herramienta para la transformación digital (Ramió, 2019), lo cierto es
que, aun reconociendo la bondad de este planteamiento, resulta imprescindible abordar una reconstrucción de
las garantías jurídicas en el contexto de la innovación tecnológica que nos ofrece la utilización de algoritmos.
Sin embargo, la tendencia por parte de los poderes públicos a tomar decisiones de mayor calado en contextos
de crisis y sin tener en cuenta escenarios de largo plazo puede ayudar a explicar que todavía no se hayan
adoptado enfoques más disruptivos en la implantación de la tecnología, de manera que el foco todavía se esté
centrando en la recogida y almacenamiento de datos (Chegus, 2018).
Más allá de la oportunidad de una regulación exhaustiva y precisa en este momento, el liderazgo del
sector público en este ámbito se puede ver comprometido incluso por lo que respecta a la utilización de la
inteligencia articial en su propia actividad, abocando a las Administraciones públicas a adoptar respuestas
meramente reactivas comprometiendo incluso el mejor servicio a los intereses generales (Ramió, 2019). Así
pues, por lo que se reere al papel que ha de jugar el derecho, es necesario recongurar las garantías jurídicas
para que, en denitiva, no se sustituya la burocratización por la mera tecnicación en busca de la ecacia
y la eciencia a toda costa, planteando un falso conicto con la innovación tecnológica que en ningún caso
puede admitirse. Por ello, mientras no se plantee la aprobación formal de un marco normativo especíco, las
Administraciones públicas no pueden dejar de asumir su responsabilidad y adoptar para sí mismas políticas
exigentes que fomenten un liderazgo del sector público basado en la mejor defensa del interés general y los
principios éticos propios de un Estado democrático de derecho.
Julián Valero Torrijos
Las garantías jurídicas de la inteligencia articial en la actividad administrativa ...
Revista Catalana de Dret Públic, núm. 58, 2019 94
Así pues, a la espera de una mayor madurez de la tecnología que permita conocer mejor el alcance de los
retos a abordar, la exigencia de unas elementales garantías formales adquiere, si cabe, mayor urgencia. En
este trabajo hemos tratado de contribuir al necesario debate teórico para hacer frente a este reto desde los
principios de la buena administración, de manera que buena parte de las reexiones que se han formulado
son únicamente propuestas que pueden servir para profundizar en algunas de las principales cuestiones
problemáticas que se suscita la inteligencia articial desde la óptica del derecho administrativo.
Bibliografía
Alamillo Domingo, Ignacio y Uríos Aparisi, Xavier. (2011). La actuación administrativa automatizada en el
ámbito de las Administraciones Públicas. Análisis jurídico y metodológico para la construcción y la
explotación de trámites automáticos. Barcelona: Escola d’Administració Pública de Catalunya.
Arellano Toledo, Wilma. (2019). El derecho a la transparencia algorítmica en Big Data e inteligencia articial.
Revista General de Derecho Administrativo, (50).
Barrio Andrés, Moisés (dir.). (2018a). Derecho de los robots. Wolters Kluwer: Madrid.
Barrio Andrés, Moisés. (2018b). Robots, inteligencia articial y persona electrónica. En: Tomás de la Quadra-
Salcedo y José Luis Piñar (dirs.), Sociedad digital y Derecho (p. 113-135). Madrid: BOE-Red.es.
Brauneis, Robert y Goodman, Ellen P. (2018). Algorithmic Transparency for the Smart City. The Yale Journal
of Law & Technology, 20(103), 104-176.
Canals Ametller, Dolors. (2016). El acceso público a datos en un contexto de transparencia y de buena
regulación. En: Dolors Canals (ed.), Datos. Protección, transparencia y buena regulación (p. 11-52).
Girona: Documenta Universitaria.
Cantero Martínez, Josefa. (2011). El principio de transparencia en la Ley de Acceso Electrónico de los
Ciudadanos a los Servicios Públicos. En: José Luis Piñar (dir.), Administración electrónica y
ciudadanos (pp. 289-324). Madrid: Thomson Reuters-Civitas.
Capdeferro Villagrasa, Óscar. (2019). Las herramientas inteligentes anticorrupción. Revista General de
Derecho Administrativo, (50).
Cerrillo i Martínez. Agustí. (2016). El papel de los medios electrónicos en la lucha contra la corrupción.
Revista Vasca de Administración Pública, (104, 2), 199-235.
Cerrillo i Martínez, Agustí. (2019). El impacto de la inteligencia articial en el derecho administrativo.
¿Nuevos conceptos para nuevas realidades técnicas? Revista General de Derecho Administrativo, (50).
Chegus, Matthew. (2018). Big data and analytics in government organizations. A knowledge-based
perspective. En: Gregory Richards (ed.), Big data and analytics applications in Government. Current
practices and future opportunities (p. 3-25). Boca Raton: CRC Press.
Coglianese, Cary y Lehr, David. (2017). Regulating by Robot: Administrative Decision Making in the
Machine-Learning Era. University of Pennsylvania Law School Research Papers, (17-8), 1147-1223.
Cotino Hueso, Lorenzo. (2017). Big data e inteligencia articial. Una aproximación a su tratamiento jurídico
desde los derechos fundamentales. Dilemata, (24), 131-150.
Cotino Hueso, Lorenzo. (2019). Riesgos e impactos del big data, la inteligencia articial y la robótica.
Enfoques, modelos y principios de la respuesta del derecho. Revista General de Derecho Administrativo,
(50).
De Filippi, Primavera. (2016). Gouvernance algorithmnique: vie privée et autonomie individuelle à l’ère des
big data. En: Danièle Bourcier y Primavera De Filippi (dir.), Open data & Big data. Nouveaux dés
pour la vie privée (p. 122-124). París: Mare & Martin.
Julián Valero Torrijos
Las garantías jurídicas de la inteligencia articial en la actividad administrativa ...
Revista Catalana de Dret Públic, núm. 58, 2019 95
De la Quadra-Salcedo Fernández del Castillo, Tomás. (2018). Retos, riesgos y oportunidades de la sociedad
digital. En: Tomás de la Quadra-Salcedo y José Luis Piñar (dirs.), Sociedad digital y Derecho (p. 21-
85). Madrid: BOE-Red.es.
Dumbill, Edd. (2012). Getting up to speed with big data. En: Big Data Now: 2012 Edition. Sebastopol:
O’Reilly Media.
Ercilla García, Javier. (2018). Normas de derecho civil y robótica. Cizur Menor: Thomson Reuters Aranzadi.
Gamero Casado, Eduardo. (2017). Administración electrónica e interoperabilidad. En: Isaac Martín (dir.), La
reforma de la Administración electrónica: Una oportunidad para la innovación desde el Derecho (pp.
500-517). Madrid: Instituto Nacional de Administración Pública.
Gamero Casado, Eduardo. (2016). Panorama de la Administración electrónica en la nueva legislación
administrativa básica. Revista Española de Derecho Administrativo, (175), 15-27.
Mantelero, Alessandro. (2018a). Ciudadanía y gobernanza digital. Entre política, ética y Derecho. En: Tomás
de la Quadra-Salcedo y José Luis Piñar (dirs.), Sociedad digital y Derecho (p. 159-178). Madrid:
BOE-Red.es.
Mantelero, Alessandro. (2018b). AI and big data: A blueprint for a human rights, social and ethical impact
assessment. Computer Law & Security Review, 4(34), 754-772.
Martín Delgado, Isaac. (2018). El acceso electrónico a los servicios públicos: hacia un modelo de
Administración digital auténticamente innovador. En: Tomás de la Quadra-Salcedo y José Luis Piñar
(dirs.), Sociedad digital y Derecho (p. 179-202). Madrid: BOE-Red.es.
Martín Delgado, Isaac. (2014). Transparencia, reutilización y datos abiertos. Algunas reexiones generales
sobre el acceso libre a la información pública. En: Julián Valero y Manuel Fernández (coords.),
Régimen jurídico de la transparencia del sector público: del derecho de acceso a la reutilización de
la información (pp. 367-406). Cizur Menor: Thomson-Reuters-Aranzadi.
Martín Delgado, Isaac. (2009). Naturaleza, concepto y régimen jurídico de la actuación administrativa
automatizada. Revista de Administración Pública, (180), 353-386.
Martínez Gutiérrez, Rubén. (2016). El régimen jurídico del Nuevo Procedimiento Administrativo Común.
Cizur Menor: Thomson Reuters-Aranzadi.
Martínez Gutiérrez, Rubén. (2012). Servicio público electrónico y responsabilidad. Revista Española de
Derecho Administrativo, (155), 291-318.
Martínez Martínez, Ricard. (2017). Cuestiones de ética jurídica al abordar proyectos de Big Data. El contexto
del Reglamento general de protección de datos. Dilemata, (24), 151-164.
Martínez Martínez, Ricard. (2018). Inteligencia articial, derecho y derechos fundamentales. En: Tomás de
la Quadra-Salcedo y José Luis Piñar (dirs.), Sociedad digital y Derecho (p. 259-278). Madrid: BOE-
Red.es.
Muñoz Soro, José Félix y Bermejo Latre, José. (2014). La redenición del ámbito objetivo de la transparencia
y el derecho de acceso a la información del sector público. En: Julián Valero y Manuel Fernández
(coords.), Régimen jurídico de la transparencia del sector público: del derecho de acceso a la
reutilización de la información (pp. 189-240). Cizur Menor: Thomson-Reuters-Aranzadi.
Navas Navarro, Susana et al. (coord.). (2018). Inteligencia articial. Tecnología y Derecho. Valencia: Tirant
lo Blanch.
Palomar Olmeda, Alberto. (2016). Requisitos del acto administrativo electrónico en el expediente electrónico:
las exigencias de motivación y forma y su aplicación en el ámbito local. En: Concepción Campos
Julián Valero Torrijos
Las garantías jurídicas de la inteligencia articial en la actividad administrativa ...
Revista Catalana de Dret Públic, núm. 58, 2019 96
(dir.), El nuevo procedimiento administrativo local tras la Ley 39/2015 (p. 289-318). Madrid: Wolters
Kluwer.
Ponce Solé, Juli. (2018). La prevención de riesgos de mala administración y corrupción, la inteligencia
articial y el derecho a una buena administración. Revista Internacional de Transparencia e Integridad,
(6).
Ponce Solé, Juli. (2019). Inteligencia articial, Derecho Administrativo y reserva de humanidad: algoritmos
y procedimiento administrativo debido tecnológico. Revista General de Derecho Administrativo, (50).
Ramió, Carles. (2018). Inteligencia articial y Administración pública. Robots y humanos compartiendo el
servicio público. Madrid: Catarata.
Rodríguez-Arana Muñoz, Jaime. (2012). El ciudadano y el poder público: el principio y el derecho al buen
gobierno y a la buena administración. Madrid: Reus.
Rivero Ortega, Ricardo. (2017). Gestión pública inteligente, innovación e información: oportunidades y
riesgos del big data administrativo. Presupuesto y Gasto Público, (86), 141-152.
Sarmiento, Daniel. (2008). El soft law administrativo. Un estudio de los efectos jurídicos de las normas no
vinculantes de la Administración. Madrid: Thomson-Civitas.
Shah, Nigam S. y Tenenbaum, Jessica D. (2012). The coming age of data-driven medicine: translational
bioinformatics’ next frontier. Journal of the American Medical Informatics Association, 19(e1), e2-e4.
Steels, Luc y López de Mantaras, Ramón. (2018). The Barcelona declaration for the proper development and
usage of articial intelligence in Europe. AI Communications 31, 485-494.
Tinholt, Dinand; Enzerik, Sem; Sträter, Willem; Hautvast, Pieter y Carrara, Wendi. (2017). Unleashing the
potential of Articial Intelligence in the Public Sector. París: Capgemini.
Turner, Jacob. (2019). Robot rules. Regulating articial inteligence. Cham: Palgrave Macmillian.
Valero Torrijos, Julián. (2013). Derecho, innovación y Administración electrónica. Sevilla: Global Law
Press.
Valero Torrijos, Julián. (2017). El acceso y la reutilización de la información del sector público desde la
perspectiva de la reforma de la Administración electrónica. En: Isaac Martín (coord.), La reforma de
la Administración electrónica: una oportunidad para la innovación desde el Derecho (p. 433-458).
Madrid: Instituto Nacional de Administración Pública.
Valero Torrijos, Julián. (2018). La necesaria reconguración de las garantías jurídicas en el contexto de la
transformación digital del sector público. En: Tomás de la Quadra-Salcedo y José Luis Piñar (dirs.),
Sociedad digital y Derecho (p. 375-396). Madrid: BOE-Red.es.
Velasco Rico, Clara Isabel. (2019). La ciudad inteligente: entre la transparencia y el control. Revista General
de Derecho Administrativo, (50).
Verhulst, Stefaan G. y Young, Andrew. (2017). The Potential of Social Media Intelligence to Improve People’s
Lives: Social Media Data for Good. Nueva York: The Governance Lab (GovLab).
Vida Fernández, José. (2018). Los retos de la regulación de la inteligencia articial: algunas aportaciones
desde la perspectiva europea. En: Tomás de la Quadra-Salcedo y José Luis Piñar (dirs.), Sociedad
digital y Derecho (p. 203-225). Madrid: BOE-Red.es.
Yiu, Chris. (2012). The big data opportunity. Making government faster, smarter and more personal. Londres:
Policy Exchange.

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR