Un vídeo sobre drones asesinos sacudió internet en el 2017. El vídeo planteaba una distopía futurista en formato real en la que robots asesinos voladores iban equipados con pequeñas cargas explosivas que perforaban el cráneo de las personas que eran objetivos humanos de los drones.
Se trataba de un vídeo-denuncia que planteaba los problemas que impondría una sociedad en la que este tipo de armamento inteligente, por llamarlo de alguna manera, estaba presente.
Esta escalofriante simulación fue creada por Stuart J. Russell, profesor de la Universidad de California en Berkeley, y el Future of Life Institute. Una anticipación de cómo podría ser un futuro no muy lejano -a menos que se tomen medidas inmediatas-. En Youtube ya ha sido visto por más de tres millones de personas.
Los robots asesinos existen
Sin embargo, lejos de ser ficción, la realidad es que los robots asesinos existen y ya operan en zonas de combate. Las implicaciones éticas son tan profundas como inexistente su debate.
Actualmente, el robot Harpy puede estar vagando durante horas, buscando al enemigo hasta que detecta una señal de radar. Cuando la encuentra, tiene capacidad para autodestruirse, eliminando al adversario al mismo tiempo.
Otro robot, el SGR-A1, desarrollado entre Samsung Techwin y la Universidad de Corea, ya se ha utilizado en la frontera entre Corea del Norte y del Sur en tareas de vigilancia. Puede detectar automáticamente humanos con sensores infrarrojos, y podría disparar sin la ayuda de ninguna persona.
Otro ejemplo es el israelí Harop, que se considera que fue utilizado en la región de Nagorno-Karabaj, territorio disputado entre Azerbaiyán y Armenia. Es difícil asegurar si los siete soldados armenios que murieron en abril del 2016 en el ataque del dron suicida fueron las primeras bajas producidas por robots asesinos.
Los robots asesinos son sistemas completamente autónomos que utilizan todas las tecnologías que en la actualidad pueden construir un arma invencible, los robots.
“En la última década se ha ido construyendo una narrativa sobre las bondades de la inteligencia artificial, sin evaluar los márgenes de error que existen, y que pueden ser vidas humanas”, ha denunciado el Centre Delàs d’Estudis per la Pau en su informe Nuevas armas contra la ética y las personas. Drones armados y drones autónomos , donde también apunta el riesgo que “las guerras sin riesgo pueden hacer prevalecer las soluciones militares por encima de las políticas”.
Los ataques con drones muestran un ritmo de crecimiento continuado. En ese sentido, la organización pacifista PAX ha alertado del riesgo que suponía su desarrollo: “Una máquina nunca tendría que estar autorizada a decidir sobre la vida y la muerte. Esta decisión no se puede reducir a un algoritmo”, explican. Pero también les preocupa el ámbito legal. “Es poco probable que las armas autónomas puedan cumplir el derecho internacional humanitario, ya que es poco probable que puedan distinguir adecuadamente entre civiles y combatientes o que hagan una evaluación de proporcionalidad”. Además, estas armas crean un vacío de responsabilidad. “Quién sería el responsable de un acto ilícito: ¿el robot, el desarrollador o el comandante militar?”.
2 Comentarios. Dejar nuevo
Por acción o por omisión, estamos dejando crecer y desarrollarse una civilización totalmente deshumanizada, esto solo es otra cosa más.
El abandono de Dios por parte de la sociedad, no lleva al ser huumano por buen camino.
Cuando una persona cree que hay alguien que está por encima de el y de todos, esa persona es incapaz de hacer daño a nadie, ¡nisiquiera a él mismo!
Señor, ¡inclina la la voluntad de los gobernantes del mundo entero, ilumina sus inteligencias y causa en ellos la fe!
¿Dónde quedan las tres leyes de la robótica preconizadas por Isaac Asimov?
1.- Un robot no puede dañar a un ser humano ni permitir, por inacción, que sea dañado.
2.- Un robot debe obedecer las órdenes siempre y cuando no contravengan la primera ley.
3.- Un robot debe cuidar su existencia siempre y cuando no contravenga la 1a. y 2a. ley.
Como siempre, la responsabilidad es de los humanos, quienes programan esas máquinas «inteligentes».