FYI.

This story is over 5 years old.

VICE World News

¿Humanos contra robots asesinos?

Las "armas totalmente autónomas" son cada vez más cuestionadas por expertos en la materia, quienes exigen parar su desarrollo incluso antes de que existan. Pero el asunto resulta mucho más complejo desde un punto de vista ético y legal.
Un robot en la Expo Mundial del Robot celebrada el pasado enero. (Imagen por Juan Carlos Hidalgo/EPA)
Síguenos en Facebook para saber qué pasa en el mundo.

Todos vamos a morir a manos de nuestro robot asesino. O, al menos, eso sucedería si no fuera por el trabajo de la Campaign to Stop Killer Robots [Campaña para detener a los robots asesinos], una organización sin fines de lucro que lucha para "prohibir de forma preventiva totalmente las armas autónomas" — eufemismo para robots asesinos.

La necesidad de frenar a los robots asesinos fue un tema candente en la reciente Conferencia de Seguridad de Munich, que reunió a varios políticos, burócratas, y nerds — junto con sus groupies y lacayos — para conversar bebiendo cócteles de precios exagerados acerca de cómo las cosas se están yendo directamente al infierno. Uno de los paneles en particular, "El futuro de la guerra: La carrera de las máquinas", exploró las diversas formas en que los robots asesinos podían convertirse en un perjuicio para la humanidad y cómo esta debería detener su desarrollo antes de que sean una realidad.

Publicidad

Pero hay que tener en cuenta que no hay manera lógica alguna de prever desde el aquí y el ahora el oscuro futuro que vislumbran las películas de ciencia ficción en relación a la inteligencia artificial (IA) armada.

La policía de la India adquiere drones que permiten rociar a manifestantes con gas pimienta. Leer más aquí.

Para empezar, las armas autónomas ya están aquí. Así que si el objetivo es conseguir frenar la tendencia y "prohibir preventivamente las armas totalmente autónomas", como reza la campaña para detener a los robots asesinos. En este sentido y en pocas palabras, ya vamos tarde.

Cuando se habla de este tipo de armas, a menudo se introduce el término "hombre en bucle" — en referencia a la persona cuya participación es necesaria para que ese bucle pueda completar su fase, que consiste en provocar una explosión o eliminar un objetivo. Pero las armas que pasan por ese bucle sin ninguna intervención humana existen, por lo menos, desde la década de 1990.

Una manera popular de anular las defensas antiaéreas del enemigo es hacer estallar los radares utilizados para detectar naves aéreas mediante misiles tierra-aire. Un misil puede detectar un radar, hacerlo estallar, y dejar ciega a la defensa antiaérea. A su vez, los operadores de radares aprendieron con el tiempo a mantener sus radares apagados la mayor parte del tiempo y sólo encenderlos brevemente cuando estén listos para disparar contra sus objetivos, y así evitar que sea el radar el que atraiga un misil contra sí mismo.

Publicidad

El Harpy, un UCAV israelí [vehículo aéreo de combate no tripulado] vuela en círculos lentos, perezosos, esperando a que se encienda un radar de defensa aérea. Una vez que el Harpy se encuentra en vuelo, no hay intervención humana. Y una vez que descubre un radar hostil, Harpy se estrella contra él, destruyéndolo.

Incluso podemos ir más atrás en la escalada tecnológica y repensar los misiles de crucero. Una vez puestos en marcha, navegan y se dirigen por sí mismos contra un objetivo sin ninguna supervisión humana. Así que, en esencia, los misiles de crucero son kamikazes en forma de aviones no tripulados. ¿Es moralmente preferible un kamikaze humano a un misil de crucero?

Los sistemas de guiado, sensores, o cualquier otro tipo de conmutación mecánica crea un poco de distancia entre el combatiente y la consecuencia; a su vez, parte de la responsabilidad se delega o descarga en un robot, un mecanismo, o un gatillo. Al poner una herramienta o dispositivo entre el ser humano y la acción, esto crea un arma "autónoma". Otra cosa es el debate, a veces semántico y otras más profundo, sobre si se trata de una arma "totalmente" autónoma o no.

Muchos consideran que es moralmente más responsable mantener a una persona involucrada en la toma de decisiones del bucle, es decir, que una bomba muda y sin guía alguna es menos moral y ética que un arma guiada.

La mayoría de la gente, sin embargo, no parece estar en contra del uso de armas de precisión que reducen los daños colaterales, ni en favor de un aumento en la utilización de armas de efecto indiscriminado, no guiadas.

Publicidad

Tal vez la campaña para detener a los robots asesinos tiene una visión 'kung fu' sobre las guerras del futuro, en las que no se utilizarán armas o herramientas de ningún tipo. Sin embargo no existe una manera perfecta para que un ser humano pueda hacer una última comprobación y así asegurarse que nada inesperado suceda nunca en medio de una guerra.

Quizás, la mejor opción es asegurarse de que siempre haya alguien involucrado en el proceso a quien se pueda culpar, y llevar a juicio eventualmente, si las cosas se tornan complejas.

Lo que nos lleva a otro asunto. Las personas que quieren "prohibir preventivamente las armas totalmente autónomas" están partiendo de la idea de un oscuro futuro que probablemente no va a existir, por lo menos no de la manera que están pensando. En algún punto, siempre habrá un ser humano involucrado en algún lugar de la cadena de mando ordenando a un robot qué hacer.

Un ejemplo común en las discusiones sobre "robots asesinos" son los drones. Mientras que los aviones no tripulados actuales son operados de forma remota, la gente se pregunta qué pasaría si el avión no tripulado decidiera sus propios objetivos. ¿Eso cambiaría la imagen que tenemos sobre las legendarias armas "totalmente autónomas"?

Y la respuesta es no, a menos que "seleccionar sus propios objetivos" también signifique que el avión no tripulado se haga cargo de su abastecimiento de combustible y armamento, la limpieza de sí mismo, el control del tráfico aéreo, la creación de una ruta de patrulla, etc.

Publicidad

Los hipotéticos sistemas de armas "totalmente autónomas" son en realidad creados por seres humanos que deciden cómo deben ser y funcionar.

Las drogas auditivas alarman a las autoridades de Arabia Saudí y el Líbano. Leer más aquí.

La idea de que al aumentar la distancia en la toma de decisiones reduce de alguna manera la responsabilidad humana es simplemente ridícula. Basta pensar en la guerra nuclear, ya pasada de moda, por ejemplo. Un presidente puede comunicarse con un avión nuclear, enviar una señal que será procesada, a través de una red de comunicaciones, y en última instancia, llegar a algún misilero ubicado en alguna parte. A continuación, puede dar la orden y lanzar el misil fuera del silo. Es en este punto que el misil comienza su viaje hacia el otro lado del mundo, tiempo durante el cual realiza de forma autónoma múltiples funciones, y finalmente arroja una ojiva nuclear sobre algunos desafortunadas.

El hecho de que el presidente no estuviera físicamente en el silo de misiles para girar la llave por sí mismo no significa que está libre de responsabilidad del lanzamiento de la ojiva nuclear. Por lo menos, no más de lo que alguien que contrata a un asesino a sueldo puede ser considerado como "no involucrado" en un asesinato.

Incluso, si la decisión de enviar un robot específico se realizara de forma automática, el procesador que tomara esta decisiones seguiría dependiendo del factor humano para su puesto en funcionamiento. Hasta que la inteligencia artificial consiga crear espontáneamente un arma, siempre estará la acción humana detrás de todo.

Publicidad

El trabajo avanzado que se está realizando en la automatización tiende a enfatizar el concepto de emparejamiento "centauro", en el que los humanos y las máquinas actúan de forma conjunta para hacer cosas que no podrían hacer solos. Después de todo, es muy difícil hacer que un robot realice el 100 por ciento de las tareas implícitas en las batallas en medio de una guerra. La tendencia ha sido la de automatizar y simplificar, pero no la de tratar de crear una inteligencia artificial que destruya el mundo desde cero.

Mira el documental de VICE News 'Los robots asesinos de Israel' (pronto con subtítulos en español):

En cuanto al asunto moral, supongamos por un momento que alguien en algún lugar ha creado un robot asesino, y que este robot asesino ha hecho algo terrible, como forzar a un grupo de huérfanos a cortarse el pelo como Donald Trump.

¿Por qué sería menos terrible que fuera un humano quien obligue a los huérfanos a cortarse el pelo de esa forma en lugar de un robot asesino? Fuese quien fuese el ejecutor de la acción, el resultado sería siempre el mismo: un grupo de huérfanos con un terrible corte de cabello.

Las objeciones a los ataques aéreos realizados por drones ¿cuestionan que el misil fue disparado desde un avión no tripulado, o que el misil fue lanzado sobre población civil?

Da la sensación que errores de este tipo — los llamados daños colaterales — sólo pueden suceder si hay, al menos, un humano involucrado en el proceso. Pero el problema real, a fin de cuentas, son las consecuencias del ataque.

Publicidad

Una mirada en perspectiva siempre alude a la oportunidad perdida que podría haber evitado una tragedia. A priori, nunca existen suficientes controles, equilibrios y contra equilibrios para evitar que, en una guerra, sucedan cosas nefastas.

Cómo la vida en la Tierra podría destruir la vida en Marte. Leer más aquí.

En un plano más profundo y casi filosófico, esta es una historia tan antigua como la de Adán y Eva. Es una actualización de la fábula que explica cómo cuando los seres humanos devienen demasiado inteligentes pueden resultar una amenaza para ellos mismos.

La diferencia fundamental es que cuando comenzamos a imaginar escenarios de terror asociados a la inteligencia artificial, básicamente estamos poniendo coto a la posibilidad de crear algo nuevo e interesante sólo por el miedo de estar promoviendo una deriva negativa y la destrucción de nuestra realidad. Pero las cosas malas pueden suceder por un montón de razones, ya sea en relación con la inteligencia artificial, debido al desarrollo de "armas totalmente autónomas" o a la fabricación de automóviles de auto-conducción.

Evitar la promoción y el desarrollo de la inteligencia artificial por los posibles problemas que ello pueda causar es como matar a tu perro para evitar que algún día muerda a alguien. Nos avanzamos y nos dejamos vencer por los miedos que fabrica nuestra imaginación.

Sigue a Ryan Faith en Twitter: @Operation_Ryan

Sigue a VICE News En Español en Twitter: @VICENewsEs