Las máquinas con la capacidad de atacar
objetivos sin ninguna intervención humana deben ser prohibidas antes de
que sean desarrolladas para su uso en el campo de batalla, según han
activistas contra los "robots asesinos".
Las armas, que podrían estar listas para su uso dentro de los
próximos 20 años, constituirían una violación de un límite moral y ético
que nunca debe ser cruzado, dijo el premio Nobel Jody Williams, de la
Campaña 'Stop Killer Robots'.
"Si la guerra se reduce a las armas de ataque y sin seres humanos
en control, serán los civiles los que van a soportar el peso de la
guerra", dijo Williams, quien ganó el Premio de la Paz por su trabajo
sobre la prohibición de las minas terrestres de 1997.
Armas como aviones dirigidos por control remoto ya son utilizados
por algunas fuerzas armadas y las empresas están trabajando en el
desarrollo de sistemas con un mayor nivel de autonomía en vuelo y
operación. "Ya tenemos un cierto grado de autonomía", dijo Noel Sharkey,
profesor de Inteligencia Artificial y Robótica de la Universidad de
Sheffield.
"Creo que ya es posible. Si me pide hacer un robot asesino
autónomo en la actualidad, podría hacerlo. En cuestión de días", dijo a
los periodistas.
Pero la tecnología está muy lejos de ser capaz de distinguir entre
un soldado y un civil. "La idea de un robot que pueda ejercer el juicio
humano me parece ridícula", dijo a Reuters Sharkey.
TEMOR AL FUTURO
El gobierno británico siempre ha dicho que no tiene intención de
desarrollar este tipo de tecnología. Pero los organizadores de la
campaña dicen que el rechazo a las armas totalmente autónomas del Reino
Unido aún no es definitivo.
"Nos preocupa que hay un deslizamiento hacia una mayor autonomía
en el campo de batalla y si no trazamos una línea clara en la arena
ahora, puede llegar la aceptación de las armas totalmente autónomas",
dijo Thomas Nash, director de la ONG Artículo 36.
Los rápidos avances en esta tecnología han permitido a países como
Estados Unidos, China, Rusia, Israel y Alemania avanzar hacia sistemas
que pronto darán autonomía de combate a las máquinas, según un informe
de Human Rights Watch.
"Creemos que este tipo de armas no serán capaces de cumplir con el
derecho internacional humanitario", dijo a Reuters Steve Goose,
director ejecutivo de Human Rights Watch.
Fuente original noticia
Fuente original noticia