Rússia: Nossos robôs assassinos não precisam de nenhuma lei internacional chata

O Unmanned Aerial System Watchkeeper sendo preparado para lançamento da RAF Akrotiri, Chipre

Delegados das Nações Unidas estão atualmente se reunindo para debater possíveis regulamentos que controlam robôs assassinos autônomos – mas a Rússia não aceita nada disso.

O delegado russo, que representa um país que já desenvolveu e implantou robôs militares em conflitos do mundo real, manteve-se firme de que a comunidade global não precisa de novas regras ou regulamentos para governar o uso de robôs assassinos, relata o The Telegraph.

Isso coloca a Rússia contra grande parte do resto da comunidade internacional, que clama por regras para manter os humanos no comando da decisão de abrir fogo, destacando as principais ansiedades e enigmas éticos em torno do armamento autônomo.

Adormecido ao volante

O argumento da Rússia é que os algoritmos de IA que conduzem esses robôs assassinos já são avançados o suficiente para diferenciar amigo de inimigo de civil e, portanto, não há necessidade de sobrecarregar as máquinas autônomas da morte com regulamentos desnecessários.

“O alto nível de autonomia dessas armas permite que [elas] operem em uma situação de conflito dinâmica e em vários ambientes, mantendo um nível apropriado de seletividade e precisão”, disse o delegado, de acordo com o The Telegraph. “Como resultado, ele garante o cumprimento das regras [existentes] do Direito Internacional Humanitário.”

Desnecessário dizer que essa era a opinião da minoria durante a conferência ainda em andamento.

Abrir fogo

A Rússia certamente não é o único país a desenvolver robôs militares autônomos – os EUA, China e Reino Unido estão fazendo o mesmo, para citar alguns. Mas, ainda assim, as outras nações pareciam se unir contra a Rússia pedindo mais salvaguardas para garantir que um robô defeituoso ou mal desenvolvido não atire em um civil, ou de outra forma cause uma tragédia fora de seus objetivos.

“Os seres humanos devem aplicar as regras do Direito Internacional Humanitário na execução de ataques, de modo que armas que funcionem dessa forma complicem isso”, disse Neil Davison, assessor do Comitê Internacional da Cruz Vermelha, à rádio BBC, de acordo com o The Telegraph. “Nossa visão é que um algoritmo não deve decidir quem vive ou morre.”


Publicado em 08/08/2021 16h30

Artigo original: