Saltar para o conteúdo

Após acordo com o Pentágono, OpenAI enfrenta críticas e utilizadores mudam-se para o Claude.

Pessoa a usar computador portátil com ecrã dividido entre ChatGPT e Claude, numa mesa com jornais e copo de café.

Um contrato, um fim de semana e uma mudança brusca de humor: a OpenAI quis aproximar o ChatGPT do Departamento de Defesa dos EUA - e acabou por desencadear uma reação negativa que está a obrigar a empresa a corrigir a rota à pressa. Ao mesmo tempo, a até aqui considerada outsider Anthropic vive uma subida inesperada com o seu modelo Claude.

Como surgiu o polémico acordo com o Pentágono

No centro da polémica está um acordo de cooperação entre a OpenAI e o Departamento de Defesa norte-americano. Segundo o plano, o ChatGPT passaria a ser usado em áreas ligadas à segurança e ao universo militar, por exemplo na análise de grandes volumes de dados ou no apoio a analistas.

O aspeto mais sensível: pouco antes, a rival Anthropic tinha recusado uma proposta muito semelhante. A empresa segue um código ético definido de forma rigorosa e considera haver linhas vermelhas claras no uso militar da IA.

Enquanto a Anthropic diz “não” a armas autónomas e vigilância em massa, a OpenAI avançou - e pouco depois teve de recuar.

O contrato com o Pentágono foi anunciado numa sexta-feira, precisamente um momento em que muitas empresas costumam divulgar notícias incómodas. Para muitos observadores, isso soou a um clássico “bad-news Friday” - reforçando a ideia de que a OpenAI estaria a tentar deixar a polémica perder-se no ruído do fim de semana.

Anthropic mantém-se firme: Sem armas autónomas, sem vigilância em massa

A Anthropic apresenta-se há bastante tempo como uma das empresas mais cautelosas na corrida da IA. A empresa insiste em impedir que o seu modelo Claude seja integrado em cadeias de decisão letais.

De forma concreta, a Anthropic rejeita de forma categórica dois cenários de utilização:

  • Sistemas de armas totalmente autónomos: o Claude não deve ser usado em sistemas em que deixe de existir uma autoridade humana a decidir, em última instância, sobre a vida e a morte.
  • Vigilância de populações inteiras: o uso para observação generalizada e sem motivo específico de cidadãos está explicitamente incluído na lista de proibições.

Esta posição tem efeitos práticos: segundo notícias da imprensa, a Anthropic acabou colocada em Washington numa espécie de lista negra informal e, neste momento, não está a receber novos contratos governamentais. Ao mesmo tempo, esta postura gera confiança entre muitos utilizadores, receosos da apropriação militar da indústria da IA.

Ao mesmo tempo, circulam indícios de que o Claude poderá ainda assim estar a ser usado, por vias indiretas, em contextos de segurança, incluindo no ambiente de conflitos no Médio Oriente. As entidades oficiais não comentam o tema, o que só aumenta a discussão sobre transparência e controlo.

OpenAI sob pressão: Desinstalações disparam, Altman recua

Para a OpenAI, o acordo com o Pentágono pouco trouxe de positivo num primeiro momento - pelo contrário. Dados da empresa de análise Sensor Tower mostram que, logo após o anúncio, o número diário de desinstalações do ChatGPT disparou, ficando cerca de 295% acima do nível habitual.

Nas redes sociais, começaram a circular hashtags como CancelChatGPT e QuitGPT. Muitos utilizadores anunciaram que iriam evitar a OpenAI enquanto a empresa insistisse em aplicações militares.

O CEO da OpenAI, Sam Altman, tentou inicialmente acalmar a situação. Defendeu que o contrato incluía mais mecanismos de proteção do que acordos semelhantes e que era até mais restritivo do que compromissos assumidos anteriormente por outros fornecedores. Mas, para muitos observadores, essa comunicação saiu-lhe ao contrário, porque sugeria implicitamente que a Anthropic seria menos rigorosa - quando, na realidade, a Anthropic tinha recusado o acordo.

Na segunda-feira, chegou então uma semi-retratação: Altman admitiu que a empresa avançou demasiado depressa e de forma “descuidada”. Numa publicação no X, reconheceu em termos gerais que o anúncio de sexta-feira, visto em retrospetiva, pareceu oportunista. Disse ainda que o tema é complexo e que a OpenAI subestimou a forma como seria recebido.

OpenAI altera contrato: Promessa clara contra vigilância interna

Sob forte pressão pública, a OpenAI reviu passagens centrais do acordo com o Pentágono. A principal novidade é uma garantia explícita: os modelos da empresa não deverão ser usados de forma direcionada para vigiar cidadãos dos Estados Unidos.

Também foram impostas barreiras adicionais a agências de informação americanas, como a NSA. Essas entidades deixam de poder integrar diretamente os sistemas da OpenAI sem mais. Para isso, passarão a ser necessárias alterações contratuais adicionais e previamente aprovadas, segundo fontes próximas da empresa.

A OpenAI procura deixar uma mensagem: apoio ao setor militar, sim - mas não vigilância generalizada da própria população com recurso ao ChatGPT.

Resta saber se estas garantias serão suficientes para restaurar a confiança abalada. Muitos ativistas e utilizadores falam já de um problema profundo de credibilidade e exigem transparência total sobre todas as parcerias com impacto na segurança.

Claude sobe ao topo, ChatGPT perde terreno

Enquanto a OpenAI se concentra em gestão de crise, a Anthropic vive um momento de crescimento. Logo no primeiro fim de semana após o anúncio do Pentágono, o Claude subiu ao primeiro lugar dos rankings de downloads na App Store da Apple. Segundo dados públicos, a aplicação manteve-se no topo durante vários dias.

Meios de comunicação norte-americanos relatam que o Claude chegou mesmo a ultrapassar o ChatGPT de forma clara em novas instalações. Para muitos utilizadores dispostos a mudar, a Anthropic surge como a alternativa “mais ética” - uma imagem que a empresa cultiva intencionalmente.

Ao mesmo tempo, multiplicam-se os apelos ao boicote da OpenAI. Ativistas defendem que os consumidores deixem de usar os seus produtos enquanto se mantiverem cooperações militares. Em várias publicações, fala-se de uma “quebra de barragem” que apaga definitivamente a fronteira entre IA civil e militar.

Porque é que a política deverá agora intervir

O conflito já ultrapassou o plano empresarial e entrou plenamente no debate político. O influente think tank Center for American Progress entende que esta disputa envia um sinal claro ao Congresso dos EUA. A ideia central é esta: não deve caber apenas a empresas privadas decidir até onde pode ir a IA em contexto militar.

Também investigadores têm deixado alertas. A especialista em ética Mariarosaria Taddeo, da Universidade de Oxford, considera problemático que justamente o fornecedor mais cauteloso em matéria de segurança esteja a ser afastado das negociações. Se as vozes mais prudentes desaparecerem, o limite do que é considerado aceitável sobe discretamente.

Como a IA militar já funciona hoje - e onde estão os riscos

Há anos que forças armadas de vários países trabalham com sistemas apoiados por IA. O objetivo é analisar em tempo real enormes volumes de informação provenientes de imagens de satélite, drones, comunicações por rádio e relatórios de serviços secretos. Quanto mais rápidas e precisas forem estas ferramentas, mais cedo as estruturas de comando conseguem reagir.

Empresas como a Palantir fornecem plataformas de software desenhadas precisamente para esse tipo de utilização. Segundo um gestor britânico da empresa, estes sistemas ajudam a tomar decisões com maior rapidez e, em certos cenários, também com efeitos mais letais. A IA torna-se assim um acelerador dos processos militares.

Permanece, no entanto, um problema central dos grandes modelos de linguagem como o ChatGPT ou o Claude: a tendência para as chamadas alucinações. Isto significa que inventam detalhes, tiram conclusões erradas ou apresentam informação incerta com grande convicção. No dia a dia isso pode ser apenas irritante; em contexto militar, pode ser fatal.

Responsáveis militares repetem por isso que o ser humano continuará “dentro do circuito”. Uma oficial norte-americana responsável por dados num grupo de trabalho da NATO aponta para mecanismos de controlo humano em todas as etapas da decisão. Ainda assim, os críticos questionam durante quanto tempo essa promessa resistirá num cenário real de conflito, quando a pressão do tempo e a exigência de eficiência aumentarem.

O que este conflito significa para utilizadores e sociedade

O debate atual marca um ponto de viragem. Até aqui, muitos utilizadores viam os chatbots de IA sobretudo como assistentes úteis para tarefas do quotidiano, como escrever emails, fazer trabalhos escolares ou gerar trechos de código. Agora torna-se evidente que os mesmos modelos também estão ligados a interesses de segurança e de estratégia militar.

Para os consumidores, isto levanta várias questões:

  • Em que condições pode um fornecedor de IA colaborar com forças armadas ou serviços secretos?
  • Que utilizações são divulgadas publicamente e quais permanecem ocultas?
  • Até que ponto valem as promessas éticas quando estão em causa contratos de milhares de milhões?

Juristas e conselhos de ética defendem regras claras para a IA militar - à semelhança do que existe com tratados de desarmamento em áreas como armas nucleares ou químicas. Entre as propostas discutidas estão proibições de sistemas de armas totalmente autónomos, deveres de transparência para as empresas e mecanismos internacionais de supervisão.

Para as tecnológicas, coloca-se ainda uma questão estratégica: conseguem abdicar de contratos governamentais altamente lucrativos para preservar uma imagem de confiança junto do grande público? A atual corrida ao Claude sugere que uma linha mais rígida pode compensar, pelo menos no curto prazo. Se isso se confirmará no longo prazo, só se verá quando mais Estados e alianças militares lançarem os seus próprios projetos de IA.

Para os utilizadores, vale a pena olhar com atenção para os termos de uso e para as orientações dos diferentes fornecedores. Expressões como “human-in-the-loop”, “sistemas autónomos” ou “dual-use” aparecem cada vez mais nesses documentos. Quem perceber o que realmente significam poderá decidir de forma mais consciente a que IA confia determinadas tarefas - e onde traça a sua própria linha vermelha.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário