¿Debería el coche autónomo herir a un peatón para salvar tu vida?
Un estudio demuestra que los vehículos autónomos se podrían programar para tomar decisiones éticas como las de un humano.
Un reciente estudio del Instituto de Ciencia Cognitiva de la Universidad de Osnabrück (Alemania) ha revelado que las decisiones que tomamos al volante no son tan complejas como se creía, por lo que podrían ser programadas de manera digital en vehículos autónomos a través de diferentes algoritmos. Frenar, girar a la izquierda o esquivar un obstáculo son movimientos que ya realizan los sistemas autónomos, pero, ¿qué pasaría si el vehículo tuviera que elegir entre atropellar a un peatón o chocar?
105 participantes en un estudio sobre toma de decisiones al volante
El estudio llamado “uso de la realidad virtual para evaluar las decisiones éticas en los escenarios de tráfico vial” ha sido publicado en la revista suiza Frontiers in Behavioural Neuroscience, en la que investigadores de todo el mundo publican estudios sobre el comportamiento humano y animal.
En la investigación, 105 participantes fueron colocados en un escenario de realidad virtual donde tenían que conducir un vehículo en un día de niebla. Los conductores encontraban durante el recorrido varios obstáculos y tenían que elegir entre golpear a personas, animales y objetos con un coche virtual.
La mayoría de conductores tomamos decisiones similares
El resultado del estudio demostró que la toma de decisiones es similar entre los participantes, especialmente en escenarios en los que existía la opción de evitar cualquier obstáculo. Esta ética humana demostró que la mayoría de conductores actuamos de la misma manera, por lo que las decisiones podrían ser aplicadas mediante algoritmos a sistemas de conducción autónoma que podrían tomar decisiones reconociendo los obstáculos que encuentre el vehículo mientras circula.
Sin embargo, el profesor Gordon Pipa, autor principal del estudio, advierte de los peligros de este método debido a la probabilidad de fallo. «¿Los sistemas autónomos deberían imitar completamente las decisiones humanas? ¿Incluso las negativas? Y si las cosas van mal, ¿de quién es la culpa?“ ha declarado el profesor.
Ante un accidente inevitable el vehículo autónomo tendría que decidir por nosotros
Desarrolladores de sistemas autónomos y especialistas en psicología investigan los dilemas morales a los que tendría que enfrentarse el vehículo autónomo ante un accidente inevitable, y si el propio coche tendría la capacidad suficiente para tomar una decisión similar a la que tomaría un ser humano en situaciones en las que no tiene tiempo de reacción. Por ejemplo, imaginemos que el coche llega a un semáforo por el que están cruzando indebidamente un niño y un adulto. El coche no tiene tiempo de frenar y debe cambiar de dirección para acabar golpeando inevitablemente a uno de los dos individuos ¿por quién se decidiría?
¿Salvar al pasajero o al peatón? El test del MIT para resolver dilemas morales
El prestigioso Instituto de tecnología de Massachusetts (MIT) desarrolló el año pasado un proyecto denominado “Moral Machine», un test por el cual los usuarios deben elegir entre dilemas morales planteados desde la perspectiva de un vehículo autónomo.
Si queréis poneros al mando de un coche autónomo que va a sufrir un accidente inevitable y decidid entre cuestiones como las siguientes – ¿qué es más valiosa la vida de dos niños o de tres adultos?, ¿salvarías a un conductor antes que a dos peatones? – podéis hacerlo pinchando en la siguiente imagen. Tras realizar el test, podéis consultar los resultados de otros participantes y la similitud hay entre tus respuestas y las de los demás.
El gran desafío de la inteligencia artificial: sistemas autónomos que tengan en cuenta cuestiones éticas
De momento, la inteligencia artificial no ha sido aplicada en automóviles, pero grandes compañías como Apple, Google, Nissan, o Tesla, ya están desarrollando sistemas que además de tener cámaras, sensores, GPS y radares, tendrán capacidad para poder decidir.
Comentarios cerrados