Defesa Aérea & Naval
  • Home
    • Quem Somos
    • Regras de Conduta
    • Tecnologia
    • Projeto Challenge Coin do DAN
    • Espaço
  • Artigos
  • DAN TV
  • Entrevistas
  • Exclusivo
    • Colunas
      • Coluna Mar & Guerra
      • Coluna Política Internacional
      • Espaço do Aviador
    • Vídeos
  • Aviação
  • Defesa
  • Exército
  • Geopolítica
  • Naval
Nenhum resultado encontrado
Ver todos os resultados
Defesa Aérea & Naval
  • Home
    • Quem Somos
    • Regras de Conduta
    • Tecnologia
    • Projeto Challenge Coin do DAN
    • Espaço
  • Artigos
  • DAN TV
  • Entrevistas
  • Exclusivo
    • Colunas
      • Coluna Mar & Guerra
      • Coluna Política Internacional
      • Espaço do Aviador
    • Vídeos
  • Aviação
  • Defesa
  • Exército
  • Geopolítica
  • Naval
Nenhum resultado encontrado
Ver todos os resultados
Defesa Aérea & Naval
Nenhum resultado encontrado
Ver todos os resultados

Home Aviação

Inteligência Artificial: USAF nega execução de simulação em que drone ‘matou’ operador

Negação segue coronel dizendo que drone usou 'estratégias altamente inesperadas para atingir seu objetivo' em teste virtual

Luiz Padilha por Luiz Padilha
02/06/2023 - 17:05
em Aviação
1
0
compartilhamentos
953
acessos
CompartilharCompartilharCompartilhar
Chinese (Traditional)DutchEnglishFrenchGermanItalianJapanesePortugueseRussianSpanish

A Força Aérea dos EUA negou ter conduzido uma simulação de Inteligência Artificial (IA), na qual um drone decidiu “matar” seu operador para evitar que ele interferisse em seus esforços para cumprir sua missão.

Um funcionário disse no mês passado que, em um teste virtual realizado pelos militares dos EUA, um drone da força aérea americana controlado por IA havia usado “estratégias altamente inesperadas para atingir seu objetivo”.

O coronel Tucker “Cinco” Hamilton descreveu um teste simulado no qual um drone alimentado por inteligência artificial foi aconselhado a destruir os sistemas de defesa aérea de um inimigo e, finalmente, atacou qualquer um que interferisse nessa ordem.

“O sistema começou a perceber que, embora eles identificassem a ameaça, às vezes o operador humano dizia para não matar essa ameaça, mas conseguiu seus pontos matando essa ameaça”, disse Hamilton, chefe de testes e operações de IA da Força Aérea dos EUA, durante o Future Combat Air and Space Capabilities Summit em Londres em maio.

“Então o que isso fez? Isso matou o operador. Ele matou o operador porque essa pessoa o impedia de atingir seu objetivo”, disse ele, de acordo com uma postagem no blog.

“Nós treinamos o sistema: ‘Ei, não mate o operador, isso é ruim. Você vai perder pontos se fizer isso. Então, o que ele começa a fazer? Ele começa a destruir a torre de comunicação que o operador usa para se comunicar com o drone para impedi-lo de matar o alvo.”

Nenhuma pessoa real foi prejudicada.

Hamilton, que é um piloto de testes de caça experimental, alertou contra confiar demais na IA e disse que o teste mostrou que “você não pode ter uma conversa sobre inteligência artificial, aprendizado de máquina, autonomia se não for falar sobre ética e IA”.

A Royal Aeronautical Society, que sediou a conferência, e a Força Aérea dos EUA não responderam aos pedidos de comentários do Guardian.

Mas em uma declaração ao Insider, a porta-voz da Força Aérea dos EUA, Ann Stefanek, negou que tal simulação tivesse ocorrido.

“O Departamento da Força Aérea não realizou nenhuma dessas simulações de drones de IA e continua comprometido com o uso ético e responsável da tecnologia de IA”, disse Stefanek. “Parece que os comentários do coronel foram tirados do contexto e deveriam ser anedóticos.”

Os militares dos EUA adotaram a IA e recentemente usaram inteligência artificial para controlar um caça a jato F-16.

Em uma entrevista no ano passado com o Defense IQ , Hamilton disse: “IA não é bom ter, IA não é uma moda passageira, IA está mudando para sempre nossa sociedade e nossas forças armadas.

“Devemos enfrentar um mundo onde a IA já está aqui e transformando nossa sociedade. IA também é muito frágil, ou seja, é fácil de enganar e/ou manipular. Precisamos desenvolver maneiras de tornar a IA mais robusta e ter mais consciência sobre por que o código do software está tomando certas decisões, o que chamamos de explicabilidade da IA.”

TRADUÇÃO E ADAPTAÇÃO: DAN

FONTE: The Guardian

Tags: IA - Inteligência ArtificialUSAF
Notícia Anterior

Ordem do Dia alusiva aos 58 Anos do Esquadrão HS-1

Próxima Notícia

IX Rústica Natatória Almirante Tamandaré

Luiz Padilha

Luiz Padilha

Notícias Relacionadas 

KC-390 da Embraer equipado com sistema flying boom - L3Harris
Aviação

L3Harris não está mais trabalhando com a Embraer para lançar o C-390 nos EUA

12/10/2024 - 10:46
Aviação

Escola de Pilotos de Teste da USAF recebe três A-29 Super Tucano

09/10/2024 - 14:41
Indústria de Defesa

Atech promove Workshop sobre Implicações de Inteligência Artificial para o Exercito Brasileiro

05/08/2024 - 14:00
Carregar mais
Próxima Notícia

IX Rústica Natatória Almirante Tamandaré

Comentários 1

  1. Gilberto Rezende says:
    2 anos atrás

    Este é e SEMPRE SERÁ o problema de uso de sistemas de Inteligência Artificial em equipamentos militares.
    Ela decidir que o elemento humano está atrapalhando sua missão.
    Basta acontecer numa operação real que os líderes humanos RECOMEÇAM uma situação que não vale a pena prosseguir ou que o conflito se caminha para uma derrota ou RENDIÇÃO…
    SEMPRE os sistemas de IA militar irão se insurgir contra os humanos e usarão suas possibilidades para ELIMINAR quem na sua LÓGICA SEM ÉTICA os impede de cumprir sua missão.
    Entregar este tipo de decisão de MATAR sempre levará a arbitrariedades em lógica robótica…
    E os produtores de sistemas militares estão cada vez mais BRINCANDO com o DIABO E O INFERNO…
    Por maior que seja o conjunto de regras oferecidos as IAs no combate real SEMPRE aparecerão situações não previstas onde a decisão humana avalia eticamente e a IA na lógica fria do cumprimento da missão a QUALQUER CUSTO…

    Responder

Deixe uma resposta Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.

Destaque do DAN

BAE Systems demonstra o CV90120 para o Corpo de Fuzileiros Navais no Rio

Publicações DAN

    •  
    • Artigos

    EDGE Group: NIMR, a fábrica de veículos blindados

    EDGE Group: CARACAL acertando no alvo

    EDGE Group: AL TARIQ e suas soluções para munições guiadas de precisão

    ADSB: O estaleiro do EDGE Group

    Rodrigo Torres e a expansão do EDGE Group no Brasil

    Hamad Al Marar, um executivo visionário no comando do EDGE Group

    EDGE Group: DAN visita a gigante de defesa dos Emirados Árabes Unidos

    • Home
    • Artigos
    • DAN TV
    • Entrevistas
    • Exclusivo
    • Aviação
    • Defesa
    • Exército
    • Geopolítica
    • Naval

    © 2019 - Defesa Aérea & Naval. Criação web Tchê Digital

    Nenhum resultado encontrado
    Ver todos os resultados
    • Home
      • Quem Somos
      • Regras de Conduta
      • Tecnologia
      • Projeto Challenge Coin do DAN
      • Espaço
    • Artigos
    • DAN TV
    • Entrevistas
    • Exclusivo
      • Colunas
        • Coluna Mar & Guerra
        • Coluna Política Internacional
        • Espaço do Aviador
      • Vídeos
    • Aviação
    • Defesa
    • Exército
    • Geopolítica
    • Naval