Ética y responsabilidad en la conducción autónoma: ¿quién se hace cargo de los accidentes de una IA?

Ética y responsabilidad en la conducción autónoma: ¿quién se hace cargo de los accidentes de una IA?

My list

Autor | M. Martínez Euklidiadas

Se dice que las ciudades del futuro estarán repletas de todo tipo de vehículos autónomos. La tecnología ya está en su mayor parte desarrollada, pero no es ese el reto del coche autónomo en las ciudades. El gran problema es qué ética usar, cómo programarla o cómo distribuir la responsabilidad en caso de accidente. ¿De quién es la culpa si ocurre un atropello?

¿Ética para el coche autónomo? Por supuesto, pero, ¿cuál de ellas?

Todas las marcas que trabajan en vehículos autónomos concuerdan en que la ética es necesaria para la programación del coche sin volante, especialmente dentro de núcleos urbanos. Además, los países la exigirán antes de dar permisos para circular. Estados Unidos, Singapur, Corea o China son algunos de los países con vehículos en pruebas. El gran problema que tenemos como sociedad es que ni hay una única ética ni sabemos muy bien cómo programarla.

La teoría de las decisiones éticas

Supongamos que disponemos de una matemática avanzada y de una forma de traducir conceptos éticos en código informático. Somos, por tanto, capaces de implementar la ética de las máquinas. El reto es elegir cuál de las éticas se desea. ¿Minimizamos el daño? ¿Cuál, el del conductor o el del resto de usuarios? Estas y otras miles de preguntas similares han de ser respondidas para poder programar miles de coches que conduzcan por las ciudades.

Para arrojar un poco de luz al debate, en MIT programó un ejercicio llamado ‘Moral Machine’ (la máquina moral), que exponía al espectador a una serie de escenarios en los que elegía uno. ¿El resultado? No existe una ética, existen muchas éticas. Y no hay una que sea mejor. Sí hay alguna que es regionalmente más aceptada. Pero no existe universalidad.

Cómo programar el razonamiento moral racional

Ahora supongamos que ya sabemos qué ética programar. ¿Cómo lo hacemos? Los sistemas expertos han de ser programados hasta el más mínimo detalle y no tienen flexibilidad; y los sistemas basados en inteligencia artificial son cajas negras en las que no es posible determinar cómo tomó la decisión el coche. Sin ese dato, ¿cómo sabemos quién es el culpable de un atropello?

autonomous driving 2

Rendición de cuentas y responsabilidad

"La responsabilidad de los autores de un programa puede ser impuesta. Hay que garantizar la trazabilidad de la escritura de un código", dice José Ignacio Latorre, experto en IA, en ‘Ética para las máquinas’ (2019). La rendición de cuentas es un imperativo de la conducción autónoma.

Hace unos años la justicia estadounidense declaraba culpable de homicidio involuntario a la mujer que, en marzo de 2018, conducía un vehículo de Uber con las funciones automáticas de conducción desactivadas. Aquel caso fue muy complicado, pero se declaró culpable a la conductora al haber ‘apagado’ la mente del coche semiautónomo. ¿Y si este está encendido?

Es probable que en conducción autónoma se llegue a algún tipo de responsabilidad compartida similar a la que existe en construcción. En este ámbito la responsabilidad se divide entre la empresa constructora, la ingeniería que desarrolló los planes o la jefatura de obra, entre otros. Porque, si un coche autónomo atropella a alguien, la culpa se diluye entre los actores:

● Diseñadores del trazado vial dentro de las ciudades

● Ejecutores de ese trazado

● De haberlos, diseñadores de carreteras inteligentes

● Fabricante del vehículo

● Diseñadores del vehículo

● Programadores de la IA

● Conductores (si hay)

● El comportamiento de la víctima previo al atropello

Estos roles se subdividen a su vez entre cientos o miles de personas, por lo que resulta imprescindible regular mediante leyes cuál es el grado de responsabilidad de cada uno de los agentes cuando los coches autónomos circulen por las ciudades.

Imágenes | Daesun Kim, Phuoc Anh Dang

Related Content

Recommended profiles for you

BM
Backhaus Max
WVSG
彭彭
彭双双 彭
自由职业
JH
Johnny Hendrickson Hendrickson
Safezone
ET
Esther Tu
Le Quy Don Highschool
JJ
jie jie
e
RR
ryhgrdef rfhdeehredfh
rshtesdhsredthsehshseh
赵赵
赵英彰 赵
学校
XW
xia wu
11111
YY
Yuki Yuki
ZISU
AA
Aarón Alberto Abad alva
Del Olmo & Rullan
Architect
DC
Diego Castañeda
BUAP
AK
A.A.M. Kusse
Geospatial Strategies
Director
Karolína Čuntalová
VUT
AK
Anna-Francisca Kersuzan Kersuzan
COMECA
文邓
文浩 邓
amanzaon
AK
Aleksandra Kostrzewa
Think Lodz
SX
Shu Xue
UWA
AA
Abdulaziz Almogren
SILZ
XB
Xiao Bian
Renmin University of China & University of Groningen
ON
ouqwf nasv
js