Columna


Ética de Terminator

CARMELO DUEÑAS CASTELL

08 de julio de 2015 12:00 AM

La semana pasada la revista Nature publicó “la ética de las máquinas”. En 1942 el escritor de ciencia ficción Isaac Asimov introdujo las leyes de la ética robótica: 1)

Un robot no puede dañar ni permitir que un ser humano sufra daño; 2) Un robot debe obedecer a los humanos, excepto cuando entre en conflicto con la primera ley; y 3) Un robot debe proteger su propia existencia hasta donde no entre en conflicto con la primera o la segunda ley.
Y no es ficción o lejano futuro, es el presente en automóviles, milicia (drones) y salud. Hay dispositivos autónomos que podrían ayudar o lesionar a seres humanos.

Hace un mes, un panel de expertos sobre automóviles sin conductor o autónomos, discutió cómo se comportarían durante una crisis. ¿Qué pasaría si un vehículo, para salvar a sus propios pasajeros, daña a otras personas?

Un experimento obligó a un robot a escoger entre salvar a dos humanos. Unas veces actuó rápido y salvó a los dos. En otros salvó al que estaba más cerca y, en casi la mitad de los casos, por “indeciso” no salvó a ninguno.

La ciencia enfrenta un gran reto: qué tipo y cuánta inteligencia necesitan las máquinas para tomar decisiones éticas. Además, está el dilema entre tener robots marionetas o robots autónomos. Los primeros cumplirían reglas rígidas y pre establecidas. Los segundos necesitarían algoritmos abiertos para decidir autónomamente. ¿Qué debería escoger un robot militar, entre matar a un enemigo o salvar a un soldado amigo?

El Departamento de Defensa norteamericano diseñó un programa llamado gobernador de ética, que calcula si una acción, como disparar un misil, es permisible, considerando variables como la cercanía de edificios civiles. Los soldados humanos podrían burlar estas reglas, las máquinas no y serían mejores. Pero, ustedes han visto los errores de los drones.

El enorme desafío es elaborar instrucciones que lleven a buenas decisiones. Los científicos dicen que lo ideal para programar robots es la lógica, razonar para llegar a decisiones éticas. ¿El daño intencional está mal, incluso si se origina de una buena acción? ¿Sería aceptable si no es deliberado? ¿O si surge como consecuencia de hacer el bien?, o ¿si genera un daño menor?, como cuando el automóvil robot escoge atropellar a una persona para no matar a otras cinco.

Terminator, saga de películas sobre la posible extinción de la humanidad por robots y del esfuerzo de unos pocos humanos, ayudados por una máquina guardián (Arnold Schwarzenegger), que termina en el pasado en la peligrosa misión de reiniciar y cambiar el futuro. Un futuro incierto cuando los humanos, creadores de las máquinas, como dioses, estableceremos leyes éticas que no cumplimos desde nuestra propia creación, lo que podría llevarnos a la extinción.

crdc2001@gmail.com

Comentarios ()

 
  NOTICIAS RECOMENDADAS