CHATGPT

Escanear sua íris em troca de dinheiro: os riscos da proposta do CEO do ChatGPT

A empresa de Sam Altman já “escaneou” a íris de pelo menos 2.700 brasileiros; o pagamento é feito em ativo virtual que pode ser trocado por dinheiro. Entenda os riscos

Sam Altman e câmera 'Orb', do projeto World.Créditos: Divulgação | Sam Altman
Escrito en TECNOLOGIA el

Em novembro de 2024, uma empresa de tecnologia dedicada ao escaneamento de íris ocular, a Tools for Humanity, iniciou suas operações no Brasil, e começou a "recrutar" pessoas para escanear seus olhos em troca de dinheiro — isto é, de "Worldcoins", tokens digitais emitidos pela própria empresa, que podem ser trocados por criptomoedas ou reais (R$), e cujo valor estava avaliado em R$ 13,22 até o dia 16 de janeiro, como informa a Agência Brasil. 

Fica na cidade de São Paulo — mais especificamente, na Avenida Paulista — um dos locais para a coleta dos dados, que é feita via agendamento por aplicativo. 

O pagamento é de cerca de R$ 450 por íris escaneada, tendo em conta o valor do ativo digital da World, e os dados são armazenados pela empresa para gerar códigos de validação impossíveis de reproduzir usando tecnologia de inteligência artificial

O pagamento com a Worldcoin, que pode ser vendida no mercado de criptos, é feito assim: 20 Worldcoins após dois dias do escaneamento da íris, e mais 28 nos 12 meses a seguir. É um "incentivo à prova de humanidade", disse Rodrigo Tozzi, chefe de operações da empresa no Brasil.

O projeto, chamado World ID, tem como um de seus idealizadores Sam Altman, CEO da empresa OpenAI, responsável pelo ChatGPT

O intuito é formar um sistema de reconhecimento de padrões da íris humana usando dados de pelo menos 39 países, e alimentar, com esses dados, uma câmera de identificação avançada, chamada Orb, cujo principal objetivo é saber diferenciar humanos de robôs e IAs

De acordo com Tozzi, o projeto tem em vista ser "aberto e descentralizado", ajudar a "diferenciar interações humanas reais daquelas impulsionadas por IA", e proteger a privacidade online. A empresa ainda afirma que não há nenhuma vinculação entre os dados e o indivíduo a que pertencem, a fim de garantir sua privacidade. 

O código do reconhecimento "biométrico" da íris é guardado sob criptografia avançada e armazenado por "universidade e terceiros confiáveis" em nós computacionais. Algumas das instituições envolvidas nesse armazenamento são a Universidade de Berkeley, dos Estados Unidos, e a alemã Friedrich Alexander Erlangen-Nürnberg. 

Apesar disso, há riscos colaterais no manejo desses dados.

A Autoridade Nacional de Proteção de Dados (ANPD) já fiscaliza essas operações, afirma um comunicado da última quarta-feira (15), e tem pedido esclarecimentos sobre o contexto e a transparência das atividades.

"Os dados pessoais biométricos, tais como a palma da mão, as digitais dos dedos, a retina ou a íris dos olhos, o formato da face, a voz e a maneira de andar constituem dados pessoais sensíveis", informa a ANPD. "Em razão dos riscos mais elevados que o tratamento desse tipo de dado pessoal pode oferecer, o legislador conferiu a eles regime de proteção mais rigoroso, limitando as hipóteses legais que autorizam o seu tratamento."

O progresso da fiscalização pode ser acompanhado pelo módulo de pesquisa pública da ANPD.

A operação da Tools for Humanity já está presente nos EUA, no México, Espanha, Alemanha, Japão e Portugal, e pelo menos 2.700 brasileiros já tiveram sua íris coletadas, de acordo com a empresa.

A câmera Orb, desenvolvida para o projeto, "escaneia" a íris e cria para ela um código numérico único, que é "apagado em seguida", de acordo com os idealizadores do projeto. O agendamento da "sessão de coleta" é feito por meio do aplicativo World App, que agenda um horário em um dos locais disponíveis. 

E os objetivos são, aparentemente, múltiplos: além de desenvolver tecnologias mais assertivas de reconhecimento, a World também gostaria de usar esses dados em processos "democráticos" de governos, como a criação de uma renda básica universal. Isso sugeriria, entretanto, seu compartilhamento com governos específicos. 

De forma geral, os riscos dessa tecnologia envolvem, de acordo a ANPD: 

  • Uso de dados biométricos para finalidades que não foram inicialmente informadas; 
  • Coleta de dados pessoais sem ciência ou consentimento do titular, mesmo quando o consentimento seja necessário do ponto de vista legal; 
  • Consentimento inadequado, sem observância dos requisitos da LGPD para dados sensíveis (consentimento de forma específica e destacada, para finalidades específicas); 
  • Efeitos discriminatórios decorrentes de vieses sociais e culturais, atingindo especialmente pessoas de grupos vulneráveis; 
  • Acurácia limitada: erros em tecnologias como o reconhecimento facial podem impactar significativamente os titulares, expondo-os, inclusive, a situações vexatórias; 
  • Segurança da informação: sistemas mal protegidos aumentam o risco de incidentes de segurança. 
Reporte Error
Comunicar erro Encontrou um erro na matéria? Ajude-nos a melhorar