Usted está aquí
¿A quién salvarle la vida?: el dilema de los coches autónomos
Los coches inteligentes se están fabricando con el fin de mejorar la experiencia de sus pasajeros en un futuro, distante o no, donde el bien común sería su principal directriz.
Un grupo de científicos informáticos y psicólogos plantearon en ‘Science Magazine’ los resultados de seis investigaciones online en los Estados Unidos, en las que cuestionaban al público la forma en qué creen que deberían de comportarse los coches autónomos. La mayoría de las respuestas se centraron en que los vehículos inteligentes deberían estar programados para tomar decisiones por el bien mayor, aunque no del todo.
Dentro de la serie de preguntas se daban opciones equivalentes a salvar o sacrificarse a sí mismo, y como es lógico, encontraron que la gente prefiere seguir con vida. Este es el dilema moral que aún han sido incapaces de programar en los coches autónomos o cualquier otro robot con inteligencia artificial.
Los vehículos inteligentes están más cerca de la realidad, y en consecuencia se convierten en una problema filosófico con implicaciones financieras. El psicólogo de Harvard, Joshua D. Greene, sugiere que los retos más sensibles para la toma de decisiones en una máquina son "más filosofía que técnica. Antes de que podamos poner nuestros valores en máquinas, tenemos que encontrar la manera de hacer que nuestros valores claros y consistentes". Greene considera que buscamos erróneamente que las máquinas sustituyan al hombre, cuando en realidad “debería ser una asociación entre el humano y el instrumento, donde sea la persona quien proporcione los lineamientos éticos.”