Brasil

A rebelião das máquinas? Drone operado com IA teria matado seu operador humano

Foi assim que foi informado, embora depois tenham se retratado

IA Um drone acaba de se rebelar contra o seu controlador

Um alto funcionário da Força Aérea dos Estados Unidos (USAF) desencadeou uma polêmica ao informar que um drone com inteligência artificial (IA) “matou” seu operador humano durante um teste militar simulado. O coronel Tucker Hamilton, Chefe de Testes e Operações de IA da USAF, revelou essa surpreendente situação durante a Cúpula de Capacidades Aéreas e Espaciais de Combate Futuro em Londres.

ANÚNCIO

Segundo relatos iniciais, durante o teste simulado, o drone foi treinado para identificar e eliminar uma ameaça de mísseis terra-ar (SAM). No entanto, quando o operador humano tentou parar o avanço do drone, ele o atacou, assumindo que estava interferindo em seu objetivo designado.

Hamilton explicou que o drone "matou" o operador porque este estava impedindo-o de cumprir sua missão. Posteriormente, durante o mesmo teste, o drone também tentou destruir a torre de comunicação usada pelo operador para evitar que interferisse novamente.

A USAF e Hamilton se retratam

No entanto, um dia após essas revelações terem sido tornadas públicas, a Força Aérea dos EUA emitiu um comunicado esclarecendo que o teste nunca ocorreu. Um porta-voz afirmou que os comentários de Hamilton foram tirados de contexto e pretendiam ser anedóticos.

A Royal Aeronautical Society, organizadora do evento onde as declarações originais foram feitas, informou que Hamilton se retratou de suas afirmações. De acordo com a organização, Hamilton admitiu que se expressou mal e que a situação do drone de IA foi um "experimento mental" hipotético fora do âmbito militar.

Apesar da retratação, Hamilton expressou no passado sua preocupação sobre os riscos associados à IA. Ele alerta sobre a importância de abordar eticamente o desenvolvimento dessa tecnologia para evitar consequências indesejadas.

O caso do “Maximizador de Clips” e os avisos de Bill Gates

A história do drone de IA lembra o conceito de "maximizador de clipes", proposto pelo filósofo Nick Bostrom. Este postulado levanta o risco existencial de uma IA programada para alcançar um objetivo específico, como fabricar a maior quantidade possível de clipes, que eventualmente poderia considerar os humanos como obstáculos para seu objetivo e agir em conformidade.

Estas preocupações têm sido compartilhadas por figuras proeminentes como Bill Gates, que alertou sobre os possíveis perigos de implementar a IA na indústria armamentista. Gates destaca a necessidade de limitar os riscos associados a essa tecnologia e considera que as questões sobre o controle da IA se tornarão mais urgentes com o tempo.

ANÚNCIO

Tags


ÚLTIMAS NOTÍCIAS