Cuando uno escucha que un
grupo de investigadores le están enseñando a los robots a desobedecer a sus
amos humanos, uno no puede evitar preocuparse un poco: ¿Debemos realmente
permitir que los sistemas de inteligencia artificial del futuro nos diga “no”? Sin
embargo, después de pensarlo bien, uno se da cuenta que esta característica en
realidad podría llegar a salvar vidas.
Pongamos el ejemplo de un
robot que realiza tareas peligrosas en una fábrica, y alguien decide ordenarle
una acción potencialmente letal para otro ser humano. El robot deberá saber
anular su programación predeterminada para poner al ser humano en menor riesgo.
Es este tipo de funcionalidad, es la que un equipo del Laboratorio
de Interacción Humano-Robot en la Universidad Tufts está tratando de
introducir.
El trabajo del equipo se basa
en las mismas “Condiciones
Felicity” que nuestros cerebros humanos aplican cada vez que alguien nos
pide hacer algo. En estas condiciones, nuestro cerebro explora
subconscientemente una serie de consideraciones antes de ejecutar una acción: ¿Sé
cómo hacer esto? ¿Puedo físicamente hacerlo, y hacerlo ahora mismo? ¿Estoy
obligado basado en mi rol social para hacerlo? Y, por último, ¿Se viola ningún
principio normativo para hacerlo?
Si los robots pueden ser programados
a hacerse estas mismas preguntas, serán capaces de adaptarse a las
circunstancias inesperadas que se produzcan.
Las últimas dos preguntas son
los más importantes para el proceso. Un robot debe decidir si la persona que le
da instrucciones tiene la autoridad para hacerlo, y tiene que averiguar si las
acciones posteriores son peligrosas para sí mismo o para otros. No es un
concepto fácil de poner en práctica.
Video: HRI Lab at Tufts University
Como muestra el video de arriba, los ingenieros están experimentando con diálogos usuario-robot que permiten una retroalimentación. Eso significa que el robot puede proporcionar razones de por qué no hacer algo (en este caso dice que se caerá de la mesa si camina hacia adelante), mientras que el operador puede ofrecer razones adicionales por las cuales si debe obedecer.
Los desarrolladores de coches de
vehículos autónomos también están lidiando con un dilema moral similar: si un
coche sin conductor está atrapado en una situación de emergencia que amenaza la
vida de varias personas en la calle, ¿Debe estrellarse intencionalmente contra una
pared de manera que mate a su único ocupante, o arremeter contra una multitud
de peatones y potencialmente matar a muchos más?
Una investigación que explora
esas ideas acaba de ser publicado
en linea. Si bien es cierto que enseñarle a los robots a desobedecer a los
seres humanos podría ser potencialmente peligroso, parece claro que hacer que
nos obedezcan ciegamente, podría llevar a más de un riesgo.
"Los humanos rechazan ordenes
por una amplia gama de razones: desde incapacidad hasta motivos morales", dice el
documento. "Lo que todavía falta... es un conjunto general e integrado
de mecanismos en arquitecturas robóticas cognitivas que son capaces de
determinar si una directiva debe ser aceptada o rechazada".