ISRAEL

Israel cria "concorrente" do ChatGPT para espionar e monitorar palestinos

Modelo de linguagem natural servirá para vigilância de árabes na Cisjordânia e em Israel, afirma The Guardian

Créditos: Flickr/IDF
Escrito en GLOBAL el

O exército de Israel está desenvolvendo uma ferramenta de inteligência artificial (IA) semelhante ao ChatGPT, treinada com  conversas em árabe obtidas por meio da vigilância de palestinos nos territórios ocupados pelo sionismo.

A informação foi revelada por uma investigação conjunta do +972 Magazine, Local Call e The Guardian. O modelo de linguagem natural (LLM, na sigla em inglês) está sendo criado pela Unidade 8200, elite de ciberguerra da inteligência militar israelense, e tem como objetivo processar grandes volumes de dados de vigilância para identificar e monitorar indivíduos.

Diferente de LLMs públicos, como o ChatGPT, que são alimentados com dados da internet, o modelo israelense é treinado com informações coletadas da vida cotidiana de palestinos.

Fontes de segurança citadas na reportagem afirmam que a ferramenta permitirá ao exército responder rapidamente a perguntas sobre indivíduos específicos, ampliando a capacidade de controle e prisões.

“A IA amplifica o poder. Permite operações com dados de muito mais pessoas, facilitando o controle populacional”, disse uma fonte de inteligência em anonimato ao +972 Magazine.

A ferramenta, que já estava em desenvolvimento antes do conflito em Gaza, ganhou impulso após o recrutamento de especialistas em IA de empresas como Google, Meta e Microsoft, convocados como reservistas.

A Unidade 8200 busca superar limitações de modelos existentes, que não processam dialetos árabes falados, comuns na região. “Criamos o maior conjunto de dados possível, coletando tudo o que o Estado de Israel já teve em árabe”, explicou Chaked Roger Joseph Sayedoff, oficial de inteligência envolvido no projeto.

Organizações de direitos humanos alertam para os riscos do uso dessas tecnologias. O exército israelense não comentou detalhes, mas afirmou que o uso de ferramentas tecnológicas segue processos rigorosos para garantir a precisão das informações. Enquanto isso, a expansão da vigilância baseada em IA continua a gerar preocupações sobre violações de direitos e o potencial para erros graves.

Reporte Error
Comunicar erro Encontrou um erro na matéria? Ajude-nos a melhorar