Una primera aproximación a la ética de la robótica

AutorRafael de Asís
Páginas41-85
3. UNA PRIMERA APROXIMACIÓN
A LA ÉTICA DE LA ROBÓTICA
En este punto daré cuenta de aquellos rasgos que permiten caracterizar la
reflexión ética sobre la robótica y diferenciarla de la ética aplicada a otras tec-
nologías emergentes. En este sentido comenzaré haciendo referencia a su sin-
gularidad, para pasar luego a señalar cuales son los marcos teóricos filosóficos
y jurídicos en los que se puede basar la roboética.
Vaya por delante, como ya aclaré en la introducción, que no es mi intención
alcanzar las normas o los principios éticos que deben presidir la robótica, sino
más bien, presentar los problemas éticos que ésta plantea y defender una línea
de análisis que se corresponde con la teoría de los derechos humanos.
3.1. LA SINGULARIDAD
Como he señalado, las llamadas tecnologías emergentes presentan proble-
mas éticos comunes. Pues bien, del análisis efectuado, pueden destacarse cua-
tro grandes cuestiones que implican a todas y cada una de ellas y que podemos
identificar como: de la no discriminación, de la autonomía, de la responsabili-
dad y de la privacidad/intimidad.
La cuestión de la no discriminación posee dos proyecciones diferentes
aunque estrechamente relacionadas. La primera guarda relación con la garan-
tía de asegurar un acceso universal a las nuevas tecnologías (y en ella adquiere
una importancia singular la reflexión sobre el alcance de las patentes), mien-
tras que la segunda llama la atención sobre la posibilidad de que el uso de las
nuevas tecnologías sirva para acrecentar las diferencias de poder, capacidad
y bienestar de los seres humanos. Se trata de un problema que requiere de la
42 R  A
existencia de normas e instituciones que garanticen la no discriminación, pero
además, de la concienciación de científicos, gobiernos y empresas.
La cuestión de la autonomía afecta a uno de los grandes referentes de la
ética moderna. Se trata de un principio, el de la autonomía, que, en lo que
aquí respecta, posee dos proyecciones. Por un lado aquella que tiene que ver
con la libertad de investigación o de la ciencia; por otro con la posibilidad de
decisión y con el consentimiento de los agentes morales. En el desarrollo y
la aplicación de todas y cada una de las tecnologías descritas nos podemos
encontrar con situaciones en donde este principio esté en juego. En todo caso,
es importante señalar que es una cuestión sobre la que existe ya normativa
(principalmente en el ámbito médico).
Al igual que nos ocurre con la autonomía, la responsabilidad es también
otro de los referentes de la ética y en relación con las tecnologías emergen-
tes se puede proyectar en cualquiera de los sujetos morales que intervienen
(científico, técnico, profesional, empresario, usuario…). En este sentido, los
problemas de responsabilidad están presentes en todas y cada una de las tec-
nologías antes presentadas. Pero además, dadas las posibilidades que el uso de
estas tecnologías ofrecen al ser humanos, la responsabilidad de las decisiones
que tomemos se hace más grande90. La cuestión de la responsabilidad es, se-
guramente, el problema que más interés tiene para la comunidad jurídica y,
también, para los propios científicos.
La cuestión de la privacidad/intimidad tiene que ver con el peligro y las po-
sibilidades que el uso de estas tecnologías puede producir sobre la intimidad
de las personas. Obviamente, esto se ve claramente con la utilización de las
Tecnologías de la Información pero también, de forma clara, por la genética y
el resto de las tecnologías emergentes. Se trata, por otro lado de un problema
sobre el que existe ya normativa jurídica concreta.
Es importante advertir que los cuatro grandes problemas anteriores no son
nuevos y pueden ser abordados desde la teoría de los derechos humanos. De he-
cho, al presentar las diferentes tecnologías emergentes hemos podido ver cómo
ésta teoría se proyectaba ya en ellas abordando alguno de estos problemas.
90 En este sentido y refiriéndose a la genética, M. Sandel señala: “A veces se piensa que
la optimización genética mina la responsabilidad humana al suprimir el esfuerzo. Pero el autén-
tico problema es la multiplicación de la responsabilidad, no su erosión. Al tiempo que se pierde
la humildad, la responsabilidad alcanza proporciones intimidantes. Cada vez hay menos que
atribuir al azar y más a la elección. Los padres se convierten en responsables de elegir, o de no
elegir, los rasgos idóneos para sus hijos. Los atletas se convierten en responsables de adquirir, o
de no adquirir, los talentos que contribuirán a la victoria de su equipo… Cuanto más dueños nos
hacemos de nuestra dotación genética, mayor es la carga de responsabilidad que asumimos por
nuestros talentos y nuestros logros”. Sandel, M., Contra la perfección, cit., pp. 131 y 132.
UNA MIRADA A LA ROBÓTICA DESDE LOS DERECHOS HUMANOS 43
Ahora bien, la genética, nos presenta un cuarto tipo de cuestiones, las de
la integridad/identidad humana, que se refieren a la propia consideración de
lo humano y de agente moral. Se trata, por otro lado, de problemas también
presentes en las neurociencias y en la robótica y que presentan una dificultad
mayor para ser abordados desde la teoría de los derechos humanos al afectar a
uno de los principales presupuestos de esta como es la noción de ser humano
o de agente moral.
Por otro lado, la robótica nos plantea otras dos cuestiones que no están di-
rectamente presentes en la agenda de problemas de las otras tecnologías y que
denominaré como la cuestión de las relaciones sociales y la cuestión del status
moral de las maquinas (o robots). En efecto, como hemos tenido ocasión de
observar, algunas de las preguntas que nos surgían al hilo de la robótica tenían
que ver con posibles problemas derivados de las relaciones entre seres huma-
nos y máquinas. Y también han aparecido cuestiones que tenían que ver con el
trato hacia el robot y con el papel que desempeña en la discusión ética.
La robótica comparte así las cinco primeras grandes cuestiones (no discri-
minación, autonomía, responsabilidad, privacidad/intimidad, integridad/iden-
tidad) con el resto de tecnologías emergentes pero lo que la singulariza frente
a éstas son precisamente las dos últimas (relaciones sociales y agencia moral
de los robots).
La teoría de los derechos humanos se ha proyectado sobre algunas de estas
cuestiones pero, sin embargo, su proyección sobre otras se hace más difícil.
Incluso, para algunos, esta teoría no puede ser tenida en cuenta para enfrentar-
se a estos problemas. Por eso, se hace necesario reflexionar sobre cuál debe ser
el marco de referencia desde el que debemos abordar los problemas éticos y
jurídicos de la robótica, esto es, cuáles deben ser los referentes de la reflexión
ética sobre la robótica.
3.2. EL MARCO DE REFERENCIA
En 1942, en un cuento corto titulado Circulo vicioso, Asimov dejo escritas
tres reglas que han sido consideradas como las primeras reglas de la robótica:
1. Un robot no puede hacer daño a un ser humano ni directamente ni a
través de su intervención.
2. Un robot debe obedecer las órdenes que le den los seres humanos, a
menos que las mismas entre en conflicto con el primer mandamiento.
3. Un robot debe salvaguardar su propia existencia, a menos que su au-
todefensa se contradiga con el primer y el segundo mandamiento.

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR