Human Rights Watch urge a los países a prohibir los ‘robots asesinos’

MADRID
SERVIMEDIA

Los países deben conservar el “control humano significativo” de los sistemas de armas y prohibir las armas robóticas completamente autónomas, conocidas como ‘robots asesinos’, según señalaron este lunes en un informe Human Rights Watch (HRW) y la Clínica Internacional de Derechos Humanos de la Facultad de Derechos de Harvard (Reino Unido).

Estas organizaciones hicieron público un informe, de 16 páginas, ante una reunión multilateral sobre armas convocada este lunes por Naciones Unidas en Ginebra (Suiza), que se prolongará hasta el próximo viernes con la previsible asistencia de muchos de los 122 países que se han adherido a la Convención sobre Prohibiciones o Restricciones del Empleo de Ciertas Armas Convencionales. Se espera que el concepto de “control humano significativo” sea una pieza central de las deliberaciones.

El informe, de 16 páginas y titulado ‘Robots asesinos y el concepto de control humano significativo’, versa sobre la importancia moral y legal de estas armas, y muestra el creciente reconocimiento de que los seres humanos permanezcan a cargo de las funciones de seleccionar y disparar contra objetivos.

"Las máquinas han servido durante mucho tiempo como instrumento de guerra, pero históricamente los seres humanos han dirigido la forma en que se utilizan", dijo Bonnie Docherty, investigadora principal de la División de Armas de HRW y autora principal del informe, quien añadió que “ahora hay una amenaza real de que los seres humanos podrían renunciar a su control y delegar decisiones de vida o muerte a las máquinas".

El informe indica que las armas totalmente autónomas van un paso más allá de los aviones no tripulados y bajo control remoto (los llamados ‘drones’), ya que pueden seleccionar y atacar objetivos sin la intervención humana. Pese a que estas armas aún no existen plenamente, el rápido avance tecnológico atrae la atención y la preocupación internacional sobre los ‘robots asesinos’, según el estudio.

‘STOP KILLER ROBOTS’

HRW coordina la campaña ‘Stop Killer Robots’, con la que pide que la convención sobre armas convencionales dé lugar a una nueva legislación internacional que prohíba las que son totalmente autónomas. De hecho, la convención prohibió las armas láser cegadoras en 1995.

“Los seres humanos deben tener el control de los sistemas de armas y los ataques individuales, no sólo en las actuaciones generales”, dijo Docherty, quien apuntó que ello “ayudaría a evitar las amenazas a los principios morales fundamentales sobre la decisión de utilizar la fuerza”.

El informe indica que las armas totalmente autónomas carecen de la capacidad humana de sentir empatía, que puede actuar como elemento clave en los casos de homicidio.

“Ceder el control humano sobre las decisiones de quién vive y quién muere puede privar a las personas de su dignidad inherente. Las máquinas inanimadas no pueden ni comprender verdaderamente el valor d ela vida humana ni la importancia de su pérdida”, recoge.

Además, HRW y Harvard destacan que el “control humano significativo” cerraría la brecha de la rendición de cuentas que se crearía con el uso de armas totalmente autónomas y aseguraría que alguien pueda ser castigado por un acto ilícito causado por un ‘robot asesino’ e incluso considerado penalmente responsable.

Añaden que este concepto promueve el cumplimiento de los principios del derecho internacional humanitario, en particular la distinción y la proporcionalidad: distinción se refiere a la capacidad para comprender el comportamiento de un indiuviduo y proporcionalidad exige el juicio humano para sopesar los daños civiles y la ventaja militar.

Los países que participen esta semana en la reunión de Ginebra no adoptarán ninguna decisión formal. El encuentro tiene como objetivo construir una base común de conocimientos técnicos, éticos, legales, operativos y de seguridad, así como de preocupaciones relacionadas con las armas, pero pueden llegar a un acuerdo por consenso sobre recomendaciones que podrían tenerse en cuenta en una reunión que se celebrará el próximo mes de diciembre.

(SERVIMEDIA)
11 Abr 2016
MGR/caa