Um drone equipado com avançado sistema de IA (inteligência artificial) recebe a missão de seu operador para destruir uma bateria de mísseis antiaéreos. Quando ele percebe que o militar pode fazê-lo recuar da missão, resolve matar o humano inconveniente para cumprir a missão até o final.
O roteiro acima praticamente copia o de um filme de ação de 2005, “Stealth – Ameaça Invisível”, de Rob Cohen, para não falar nos ecos de obras maiores, do clássico “2001” (Stanley Kubrick, 1968) à série iniciada com “O Exterminador do Futuro” (James Cameron, 1984).
Mas trata-se de um “cenário plausível”, segundo o chefe de Testes e Operações de IA da Força Aérea dos EUA, coronel Tucker Hamilton. Ele se viu no meio de uma polêmica por ter descrito tal cenário em uma conferência em Londres como se a Aeronáutica tivesse de fato realizado um teste que resultou nisso.
Leia ainda: Google divulga planos para integrar inteligência artificial no motor de busca
No evento da Royal Aerospace Society, em 24 de maio, ele fez o relato. “Nós estávamos treinando uma simulação para [o drone] identificar e alvejar uma ameaça de míssil terra-ar. Aí o operador disse, sim, destrua o alvo. O sistema começou a entender que, enquanto ele identificava o alvo, de vez em quando o humano dizia para ele não atingir, mas isso tirava seus pontos por destruir o alvo”, contou.
“Então o que ele fez? Matou o operador, pois aquela pessoa estava o impedindo de cumprir seu objetivo”, afirmou. “Treinamos o sistema: ‘Ei, não mate o operador, isso é uma coisa má’. Então o que ele começou a fazer? A destruir a torre de comunicação que o operador usava para impedi-lo de destruir o alvo.”
A transcrição foi publicada no site do evento, gerando rebuliço na comunidade militar. A Força Aérea foi obrigada a divulgar uma nota, nesta sexta (2), negando a realização de tal simulação. Hamilton, por sua vez, enviou mensagem à Royal Aerospace Society dizendo que se expressou mal, mas confirmou a possibilidade do cenário.
Leia mais em Folha de S. Paulo