Inicio > Cultura de Defensa > DRONES MILITARES
Cultura de Defensa
8/9/2017
DRONES MILITARES

 

DRONES MILITARES AUTÓNOMOS: YA NO ES UN ASUNTO DE CIENCIA/FICCIÓN

La posibilidad de que las decisiones sobre vida o muerte sean tomadas algún día por máquinas fuera de control humano es cosa que hay que tomarse en serio. Durante los últimos años hemos sido testigos de un rápido desarrollo en el campo de la tecnología de drones, con un grado cada vez mayor de autonomía. Mientras, que se sepa, ningún sistema de drones autónomos aprobado es operativo: la tecnología está siendo probada y desarrollada. Algunos ven las nuevas oportunidades y posibles beneficios del empleo de tales aparatos en tanto que otros consideran como intrínsecamente inmoral el desarrollo y empleo de tal tecnología. Personas influyentes, como Stephen Hawking, Elon Musk y Steve Wozniak han urgido ya una prohibición de guerras que usen armamento autónomo o inteligencia artificial. Así pues, ¿dónde estamos y cuáles son las principales cuestiones legales y éticas?

Hacia unos drones autónomos

Todavía no existe una definición legal o aceptada del término “drones autónomos”. La industria recurre a la etiqueta de “autonomía” de un modo amplio porque concede una impresión de tecnología muy moderna y avanzada. Sin embargo, varios países aplican una definición más estricta de lo que se deberían denominar tales aparatos: por ejemplo, el Reino Unido los describe como “…con capacidad para entender intención y dirección de nivel superior” (UK MoD, The UK Approach to Unmanned Aircraft Systems, 2011). Por lo general la mayor parte del mundo militar y las autoridades de aviación llaman a las aeronaves sin piloto “Remotely Piloted Aircraft” (RPA) para poner de manifiesto que vuelan bajo control directo humano.

La mayor parte de la gente entendería probablemente el concepto de “drones autónomos” como aparatos complejos, por ejemplo que pueden actuar basados en su propia elección de situaciones (lo que comúnmente se define como “a iniciativa del sistema” y “plena autonomía” en la terminología militar. Tales drones están programados con una gran cantidad de respuestas alternativas a las diferentes situaciones que se les pueden presentar en el cumplimiento de su misión. Esto no es ciencia/ficción –la tecnología está ampliamente desarrollada aunque, que sepamos, ningún sistema de drones autónomos está operativo aún-. El factor limitador no es la tecnología sino, más bien, la voluntad política para desarrollar o admitir contar con tal tecnología políticamente sensible que permitiría a las máquinas mortíferas operar sin control directo humano.

Uno de los mayores problemas para el desarrollo y aprobación de aeronaves con tal tecnología es que resulta extremadamente difícil desarrollar sistemas de validación satisfactorios que asegurarían que la tecnología es segura y actúa como lo harían las personas. En la práctica tales complejos drones implicarían una programación para una cantidad increíble de combinaciones de cursos de acción alternativos haciendo imposible verificarlos y probarlos al nivel que se emplea para las aeronaves pilotadas por personas. También están aquellos que piensan en la autonomía como que quiere decir “inteligencia artificial” –sistemas que aprenden e, incluso, autodesarrollan cursos de acción ante nuevas opciones-. No sabemos si estamos cerca de algún avance sobre tal tecnología aunque son muchos los que temen que realmente podría ser.

Los drones autónomos –quieren decir drones avanzados programados con algoritmos para incontables cursos de acción definidos por personas para responder a situaciones imprevistas- están siendo ya probados por una cierta cantidad de universidades e instituciones militares de investigación. Vemos la probatura de “enjambre de drones” (drones que continúan y aceptan tareas de otros) que, por supuesto, son absolutamente dependientes de un procesamiento autónomo. También vemos la probatura de drones autónomos que operan con aeronaves tripuladas por personas, desde lo que la Fuerza Aérea de EEUU denomina aeronave (no tripulada) “Loyal Wingman” (“Ala delta leal”) al ya bien probado sistema Broad Area Maritime Surveillance (BAMS) de la aeronave de patrulla marítima Poseidon P-8 y la aeronave no tripulada TRITON. También vemos otro desarrollo de sistemas no tripulados lanzados desde aeronaves tripuladas, para actuar independientemente o como ampliación de la “aeronave nodriza”, por ejemplo los recientemente probados PERDIX  nan drones, de los que 100 fueron lanzados de una “aeronave nodriza” F-18. Tales aparatos operarían necesariamente con un alto grado de autonomía. Todos estos múltiples desarrollos y aspiraciones se encuentran bien descritos en, por ejemplo, el documento de planeamiento de EEUU USAF RPA Vector – Vision and Enabling Concepts 2013-2038 publicado en 2014, estando disponible otra documentación y hasta videos de tales investigaciones. Las perspectivas de la tecnología autónoma, sean drones voladores, vehículos submarinos u otros sistemas de armamento mortífero, ofrecen claramente nuevas oportunidades a las tropas.

En el caso de las aeronaves hemos aprendido que es mucho el tiempo que lleva formar a pilotos y operadores. Uno de los cambios más grandes que vendrán del desarrollo de los drones autónomos es que las tropas en el futuro (cercano) podrían desarrollar un gran poder de combate en mucho menor tiempo que anteriormente. Bueno será observar –y son muchos los que lo han hecho- que crear la infraestructura y formar a la tripulación de tierra para operar los drones no es ni más barato ni más fácil que formar tripulación de aeronaves. Sin embargo, una vez en su puesto, la tripulación y los centros de operación de drones tendrían capacidad para operar una gran cantidad de ellos. De modo semejante, las aeronaves tripuladas actuarían en el centro de un combate local o sistema de inteligencia ampliado con drones actuando, por ejemplo, en apoyo de interferencias, como plataformas suministradoras de armamento o como un sistema de plataformas multisensoras. Pasar de las pasadas limitaciones de un piloto para cada aeronave o una tripulación pilotando un drone a una situación en la que una tripulación podría controlar grandes cantidades de drones resultaría, simplemente, absolutamente impactante.

Estas perspectivas para nuevos tipos de sistemas de armamento altamente técnicos –y los temores que plantean- son la base para la investigación que desarrollamos sobre drones autónomos  sistemas de armamento. Es casi imposible averiguar cuándo se extenderán estas tecnologías –dependerá de la situación y necesidad de los países-. Sin embargo, las tecnologías están disponibles y madurando y por nuestra parte argumentaríamos que el debate sobre cuestiones legales y éticas debería empezar más pronto que tarde.

Perspectivas legales

*Son de aplicación las normas generales, pero no es una cuestión simple

Los drones autónomos, siempre y cuando se empleen en conflictos bélicos, deberían estar sujetos a los principios y normas generales del Derecho de Guerra. A este respecto no deben distinguirse los tales aparatos del resto del armamento, sus sistemas o plataformas. Como con cualquier “medio de combate” tales drones deber ser dirigidos contra objetivos (militares y combatientes) legales y no es de esperar que sus ataques no causen daños consecuentes excesivos.

No obstante, algunas de las particulares características de los drones autónomos pueden desafiar al derecho de Guerra. Tales aparatos, independientemente de cómo se les quiera definir en último extremo, tendrían capacidad para operar por sí mismos con un cierto grado en el tiempo y el espacio. Esta (posible) ausencia de interferencia humana con el armamento, o sus sistemas, durante los ataques plantea la cuestión de cuándo y dónde el Derecho requiere la presencia humana en el ciclo de decisión. Antes de proporcionar respuestas provisionales a este asunto necesitamos poner de manifiesto algunos aspectos de los requisitos legales que incumben a los jefes a la hora de decidir un ataque.

*La Ley requiere un Jefe razonable que actúe de buena fe

Varias de las obligaciones legales aplicables en los conflictos armados están previstas para aclarar el “humo del combate”. Algunas expresan contenidos flexibles que dejan algún margen discrecional a los Jefes a la hora de interpretar y decidir, por ejemplo, qué equivale a una “ventaja militar” y su importancia para el ataque. Item más, tienen que ponderar la importancia relativa de esta ventaja en comparación de los daños consecuentes previstos (el principio de proporcionalidad).

Este margen discrecional se compensa con la esperanza de que el Jefe actúa de buena fe y evalúa la ventaja militar (así como los daños consecuentes) basándose en la información que razonablemente dispone en ese momento. Durante las decisiones para atacar los Jefes implicados en el planeamiento o la ejecución del ataque deben adoptar todas las “precauciones posibles” para “verificar” que la acción no va dirigida contra una persona u objeto protegidos como que es de esperar que no viole el principio de proporcionalidad. ¿Cómo se aplica esta noción de discrecionalidad en el empleo de drones autónomos?

 

 

*¿Cuál es el toque humano necesario?

Los drones autónomos no tienen capacidad para razones en el sentido humano. No poseen conciencia humana. Hasta ahora tales aparatos (o ningún sistema autónomo) no pueden sustituir al ser humano dentro de la Ley. Los requisitos expuestos más arriba parecen presumir una “presencia humana en el bucle” del ciclo de decisión. El algún momento de la decisión de atacar un ser humano debe determinar qué atacar y la importancia del objetivo. La cuestión clave gira sobre la amplitud del ciclo de decisión.

Evidentemente, Los actores humanos pueden ser asistidos por máquinas autónomas (como por “animales” autónomos) limitados en el tiempo y el espacio –pero ¿en qué casos se requieren las limitaciones?-. Como con cualquier cuestión que se refiere a la guerra la respuesta depende de las circunstancias. Si el entorno está densamente poblado (áreas urbanas) las limitaciones deben ser necesariamente más estrictas que en las menos pobladas (alta mar o submarina). Aquí, como en cualquier otro lugar, el peligro está escondido en el detalle: en determinadas circunstancias un sistema autónomo de armamento puede (de modo totalmente legal) ser “dejado solo” operando horas o días mientras, en otras circunstancias, toda autonomía deberá quedar sujeta a la opinión –o al error- humanos.

De la Ley a la ética

También debemos reconocer la relevancia de la ética en los debates sobre los drones autónomos. El cumplimiento de la legalidad es fundamental para cualquier militar y político, incluyendo el desarrollo y empleo de estos aparatos. Aunque en ocasiones Ley  ética se solapan pueden existir importantes cuestiones éticas en candelero, particularmente en el caso de las nuevas tecnologías militares que no están contempladas adecuadamente por la vigente ley. En otras palabras, la reflexión ética puede complementar a la ley proporcionando directrices normativas en estas “áreas grises”. También puede ser importante a la hora de resaltar cuándo la obligación ética debe exceder al deber legal en interés de una buena gobernanza política.

*Perspectivas éticas sobre los drones autónomos

La delegación de la decisión de vida-muerte a agentes que no son humanos es una preocupación recurrente de aquellos que se oponen a los sistemas autónomos de armamento. Una preocupación importante es que permitir a una máquina que “decida” matar a un ser humano socava el valor de la vida humana. Desde esta perspectiva la vida humana es de un valor tan significativo que resulta inapropiado que una máquina decida siempre acabar con una –en otras palabras, existe algo intrínsecamente inmoral sobre el desarrollo y empleo de tales aparatos.

Puede ser difícil argüir que tales aparatos pueden satisfacer posiblemente el criterio de discriminación “ius in bello” en la “justa tradición bélica”. Resulta difícil emitir juicios morales sobre quién puede ser tenido legítimamente como objetivo en el “humo del combate” incluso para el soldado. El temor es que permitir que los drones autónomos lleven a cabo tal distinción resultaría lo más probablemente en bajas civiles y daños consecuentes inaceptables. Incluso si tales sistemas de armamento tuvieran capacidad para distinguir entre combatientes y no combatientes todavía queda la duda de si tales aparatos fueran capaces de evaluar si un ataque es proporcionado o no –esto es si produciría un sufrimiento innecesario-. Sin embargo, más allá de qué capacidad tecnológica poseerán en el futuro tales aparatos para poder distinguir, también se puede argüir que, si no tienen capacidad para operar dentro de las exigencia de “ius in bello”, no es probable que vayan a ser desplegados, al menos en situaciones operativas donde el riesgo de causar daños excesivos civiles es alto.

Por otra parte, también se podría aducir que el empleo de drones autónomos no es precisamente aceptable desde un punto de vista moral si bien incluso moralmente preferible al soldado. Esos aparatos tendrían capacidad para procesar más entrada de información sensorial que el soldado y, por tanto, podrían tomar decisiones mejor informadas. Por otra parte, dado que las opiniones de las máquinas no se verían afectadas por emociones tales como el temor y el odio, posiblemente reducirían el riesgo de crímenes de guerra que, en otro caso, podrían haber sido cometidos por los soldados.

El empleo de los drones autónomos puede mejorar también ciertos aspectos de las misiones humanitarias beneficiando a los civiles asistidos y reduciendo riesgos para el soldado. Su empleo para la localización de zonas peligrosas o la ejecución de tareas muy arriesgadas, tales como desminado o limpieza de casas, eliminaría el riesgo de lesión o muerte del soldado.

Entonces, y una vez más, tales avances pueden tener consecuencias para los criterios “ius in bello” en la “justa tradición bélica”. Limitar el riesgo para el soldado retirándolo del campo de batalla podría hacer la guerra demasiado “fácil”, reduciéndola a un asunto tecnológico de bajo coste que no exija ya ningún compromiso público o moral.

¿Dónde nos encontramos y a dónde deberíamos ir?

Es difícil predecir el futuro, pero el potencial tecnológico de los drones autónomos es cosa que está siendo ya probado y desarrollado. En qué medida se convertirán en una importante tecnología militar dependerá de las necesidades de los países lo que, a su vez, estará determinado por la futura situación de seguridad. Sería mejor desarrollar un marco legal y ético antes de llegar a tal situación.

Es meridianamente claro que los drones autónomos plantean importantes cuestiones judiciales y éticas sobre la responsabilidad de daños no intencionados. Las tecnologías crean algunas lagunas de contabilidad moral. Cuando se despliegan los sistemas militares autónomos queda menos claro cómo repartir la responsabilidad. Y tales lagunas potenciales de responsabilidad deben ser contempladas adecuadamente mediante soluciones técnicas y normas legales. Por tanto, la OTAN y sus aliados deberían participar en debates internacionales sobre el tema. Al mismo tiempo, la evolución tecnológica continuará y un drone autónomo –no importa su complejidad tecnológica- sigue siendo un producto, un instrumento en manos de personas. Nuestra responsabilidad fundamental sobre la guerra y cómo se combate no puede verse jamás moralmente “externalizada” y, menos de todo, sobre máquinas.

Autores:

Coronel (PhD) Gjert Lage Dyndal, en la actualidad en el equipo de NATO’s Strategic Analysis Capability y anteriormente Decano de la Academia del Ejército del Aire Noruego; y Tte Coronel (PhD) Tor Arne Berntsen y Profesor Adjunto Sigrid Redse-Johansen, ambos de la Universidad de Defensa de Noruega. El artículo se basa en su investigación conjunta y un libro recientemente publicado en idioma noruego.

NATO Review 28/07/2017

Por la traslación:

Leopoldo Muñoz Sánchez

Coronel de intendencia ET (R)

 

 

 


NATO Review 08/07/2017


Toda documentación así como artículos de opinión presentes en esta web tienen derechos de autor - Asociación de Militares Españoles
ODM.es