Interviene la delegación cubana en las discusiones sobre “Mitigación de Riesgos y Fomento de la Confianza” de la primera sesión del Grupo de Expertos Gubernamentales sobre Sistemas de Armas Letales Autónomas, 6 de marzo de 2024

Interviene la delegación cubana en las discusiones sobre “Mitigación de Riesgos y Fomento de la Confianza” de la primera sesión del Grupo de Expertos Gubernamentales sobre Sistemas de Armas Letales Autónomas, 6 de marzo de 2024

Señor Presidente,

Nuestra delegación considera que el enfoque que debe primar en torno a los sistemas de armas letales autónomas, más que el de mitigación de riesgos debe ser el de evitarlos (avoidance).

Consideramos que, para ello, mantener el control humano es fundamental.

Deben ser consideradas también medidas físicas y no físicas, que además impidan la adquisición de estas armas por actores no estatales e inhiba, de forma efectiva su proliferación.

Tenemos preocupaciones significativas en tanto todo lo que se ejecuta con software puede ser objeto de ataques o hackeos por actores estatales y no estatales. Las armas letales autónomas no escapan a este fenómeno.

Debido a su naturaleza, los sistemas de armas autónomos serán especialmente vulnerables ante operaciones cibernéticas.

Reiteramos que no puede descartarse la posibilidad de que, a partir de la interacción de estas armas en el campo de las operaciones militares puedan dañarse tanto su software como su hardware. Si estos sistemas fueran totalmente autónomos, podría no existir siquiera la posibilidad de abortar una operación ejecutada por un sistema defectuoso. Este tipo de desperfectos técnicos a los que está expuesta cualquier máquina, podría provocar grandes catástrofes y cuantiosas pérdidas, tanto humanas como materiales. Lo anterior solo refuerza nuestra consideración sobre la necesidad de prohibir los sistemas totalmente autónomos, incluidos aquellos que no contemplan la posibilidad de desactivación.

Las armas autónomas con largos tiempos de despliegue generan preocupaciones en materia de ciberseguridad. Cuanto más tiempo se despliegue un sistema de este tipo, particularmente si está fuera de comunicación, más tiempo tendrá un “adversario” para descubrir y explotar vulnerabilidades sin ser detectado. Si se identificara una vulnerabilidad de seguridad en un objeto totalmente autónomo que funciona en entornos con comunicaciones limitadas, habría que preguntarse si sería posible corregir la vulnerabilidad de forma remota, recuperar el objeto o, como mínimo iniciar una desactivación. De ahí la importancia de mantener el control humano significativo.

Por otra parte, consideramos que las medidas de fomento de la confianza (CBM), aunque son una herramienta de utilidad, implementadas con éxito en otros ámbitos del desarme, siguen sin ser suficientes para la cuestión de las armas letales autónomas.

En el contexto de este nuevo mandato y la formulación de un instrumento, debemos dedicarnos en primera instancia a las prohibiciones y regulaciones, para luego complementar con otras CBM destinadas a promover la transparencia, garantizar la seguridad física y no física de estos sistemas, evitar el riesgo de desvío a personas y agentes no deseados, entre otros.

Muchas Gracias.

Categoría
Eventos
Multilaterales
RSS Minrex