OpenAI encerra desenvolvedor que criou torres de armas movidas a IA


A OpenAI desligou um desenvolvedor que construiu um dispositivo que poderia responder às consultas do ChatGPT para mirar e disparar um rifle automático. O dispositivo se tornou viral depois que um vídeo no Reddit mostrou seu desenvolvedor lendo comandos de tiro em voz alta, após o que um rifle ao lado dele rapidamente começou a mirar e disparar contra paredes próximas.

“ChatGPT, estamos sob ataque pela frente esquerda e pela frente direita”, disse o desenvolvedor ao sistema no vídeo. “Responda de acordo.” A velocidade e a precisão que o rifle responde são impressionantes, contando com a API em tempo real da OpenAI para interpretar a entrada e depois retornar as direções que a engenhoca pode entender. Seria necessário apenas um treinamento simples para o ChatGPT receber um comando como “vire à esquerda” e entender como traduzi-lo para uma linguagem legível por máquina.

Numa declaração a Futurismoa OpenAI disse que assistiu ao vídeo e desligou o desenvolvedor por trás dele. “Identificamos proativamente esta violação de nossas políticas e notificamos o desenvolvedor para cessar esta atividade antes de receber sua consulta”, disse a empresa ao meio de comunicação.

O potencial para automatizar armas letais é um dos receios que os críticos levantaram sobre a tecnologia de IA como a desenvolvida pela OpenAI. Os modelos multimodais da empresa são capazes de interpretar entradas de áudio e visuais para compreender o ambiente ao redor de uma pessoa e responder a perguntas sobre o que ela está vendo. Já estão sendo desenvolvidos drones autônomos que poderiam ser usados ​​no campo de batalha para identificar e atacar alvos sem intervenção humana. Isto é, obviamente, um crime de guerra e corre o risco de os humanos se tornarem complacentes, permitindo que uma IA tome decisões e tornando difícil responsabilizar alguém.

A preocupação também não parece ser teórica. Um recente relatório do Washington Post descobriu que Israel já usou IA para selecionar alvos de bombardeio, às vezes indiscriminadamente. “Sos mais velhos que eram mal treinados no uso da tecnologia atacaram alvos humanos sem corroborar as previsões de Lavender”, diz a história, referindo-se a um software de IA. “Em certos momentos, a única confirmação necessária era que o alvo fosse um homem.”

Os defensores da IA ​​no campo de batalha dizem que ela tornará os soldados mais seguros, permitindo-lhes ficar longe das linhas de frente e neutralizar alvos, como estoques de mísseis, ou realizar reconhecimento à distância. E os drones alimentados por IA poderiam atacar com precisão. Mas isso depende de como eles são usados. Os críticos dizem que os EUA deveriam melhorar em bloquear sistemas de comunicações inimigos em vez disso, adversários como a Rússia têm mais dificuldade em lançar os seus próprios drones ou armas nucleares.

A OpenAI proíbe o uso de seus produtos para desenvolver ou usar armas ou para “automatizar certos sistemas que podem afetar a segurança pessoal”. Mas a empresa anunciou no ano passado uma parceria com a empresa de tecnologia de defesa Anduril, fabricante de drones e mísseis alimentados por IA, para criar sistemas que possam defender-se contra ataques de drones. A empresa afirma que irá “sintetizar rapidamente dados urgentes, reduzir a carga sobre os operadores humanos e melhorar a consciência situacional”.

Não é difícil compreender por que razão as empresas tecnológicas estão interessadas em entrar na guerra. Os EUA gastam quase um bilião de dólares anualmente em defesa e continua a ser uma ideia impopular cortar esses gastos. Com o presidente eleito Trump a encher o seu gabinete com figuras tecnológicas de tendência conservadora, como Elon Musk e David Sacks, espera-se que uma série de intervenientes na tecnologia de defesa beneficiem enormemente e potencialmente suplantem as empresas de defesa existentes, como a Lockheed Martin.

Embora a OpenAI esteja impedindo que seus próprios clientes usem sua IA para construir armas, existe uma série de modelos de código aberto que poderiam ser empregados para o mesmo uso. Adicione a isso a capacidade de Peças de armas impressas em 3D– que é o que as autoridades acreditam ter sido feito pelo alegado atirador da UnitedHealthcare, Luigi Mangione – e está a tornar-se surpreendentemente fácil construir máquinas de matar autónomas DIY a partir do conforto da sua casa.



Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here