Em novembro de 2024, uma empresa de tecnologia dedicada ao escaneamento de íris ocular, a Tools for Humanity, iniciou suas operações no Brasil, e começou a "recrutar" pessoas para escanear seus olhos em troca de dinheiro — isto é, de "Worldcoins", tokens digitais emitidos pela própria empresa, que podem ser trocados por criptomoedas ou reais (R$), e cujo valor estava avaliado em R$ 13,22 até o dia 16 de janeiro, como informa a Agência Brasil.
Fica na cidade de São Paulo — mais especificamente, na Avenida Paulista — um dos locais para a coleta dos dados, que é feita via agendamento por aplicativo.
Te podría interesar
O pagamento é de cerca de R$ 450 por íris escaneada, tendo em conta o valor do ativo digital da World, e os dados são armazenados pela empresa para gerar códigos de validação impossíveis de reproduzir usando tecnologia de inteligência artificial.
O pagamento com a Worldcoin, que pode ser vendida no mercado de criptos, é feito assim: 20 Worldcoins após dois dias do escaneamento da íris, e mais 28 nos 12 meses a seguir. É um "incentivo à prova de humanidade", disse Rodrigo Tozzi, chefe de operações da empresa no Brasil.
Te podría interesar
O projeto, chamado World ID, tem como um de seus idealizadores Sam Altman, CEO da empresa OpenAI, responsável pelo ChatGPT.
O intuito é formar um sistema de reconhecimento de padrões da íris humana usando dados de pelo menos 39 países, e alimentar, com esses dados, uma câmera de identificação avançada, chamada Orb, cujo principal objetivo é saber diferenciar humanos de robôs e IAs.
De acordo com Tozzi, o projeto tem em vista ser "aberto e descentralizado", ajudar a "diferenciar interações humanas reais daquelas impulsionadas por IA", e proteger a privacidade online. A empresa ainda afirma que não há nenhuma vinculação entre os dados e o indivíduo a que pertencem, a fim de garantir sua privacidade.
O código do reconhecimento "biométrico" da íris é guardado sob criptografia avançada e armazenado por "universidade e terceiros confiáveis" em nós computacionais. Algumas das instituições envolvidas nesse armazenamento são a Universidade de Berkeley, dos Estados Unidos, e a alemã Friedrich Alexander Erlangen-Nürnberg.
Apesar disso, há riscos colaterais no manejo desses dados.
A Autoridade Nacional de Proteção de Dados (ANPD) já fiscaliza essas operações, afirma um comunicado da última quarta-feira (15), e tem pedido esclarecimentos sobre o contexto e a transparência das atividades.
"Os dados pessoais biométricos, tais como a palma da mão, as digitais dos dedos, a retina ou a íris dos olhos, o formato da face, a voz e a maneira de andar constituem dados pessoais sensíveis", informa a ANPD. "Em razão dos riscos mais elevados que o tratamento desse tipo de dado pessoal pode oferecer, o legislador conferiu a eles regime de proteção mais rigoroso, limitando as hipóteses legais que autorizam o seu tratamento."
O progresso da fiscalização pode ser acompanhado pelo módulo de pesquisa pública da ANPD.
A operação da Tools for Humanity já está presente nos EUA, no México, Espanha, Alemanha, Japão e Portugal, e pelo menos 2.700 brasileiros já tiveram sua íris coletadas, de acordo com a empresa.
A câmera Orb, desenvolvida para o projeto, "escaneia" a íris e cria para ela um código numérico único, que é "apagado em seguida", de acordo com os idealizadores do projeto. O agendamento da "sessão de coleta" é feito por meio do aplicativo World App, que agenda um horário em um dos locais disponíveis.
E os objetivos são, aparentemente, múltiplos: além de desenvolver tecnologias mais assertivas de reconhecimento, a World também gostaria de usar esses dados em processos "democráticos" de governos, como a criação de uma renda básica universal. Isso sugeriria, entretanto, seu compartilhamento com governos específicos.
De forma geral, os riscos dessa tecnologia envolvem, de acordo a ANPD:
- Uso de dados biométricos para finalidades que não foram inicialmente informadas;
- Coleta de dados pessoais sem ciência ou consentimento do titular, mesmo quando o consentimento seja necessário do ponto de vista legal;
- Consentimento inadequado, sem observância dos requisitos da LGPD para dados sensíveis (consentimento de forma específica e destacada, para finalidades específicas);
- Efeitos discriminatórios decorrentes de vieses sociais e culturais, atingindo especialmente pessoas de grupos vulneráveis;
- Acurácia limitada: erros em tecnologias como o reconhecimento facial podem impactar significativamente os titulares, expondo-os, inclusive, a situações vexatórias;
- Segurança da informação: sistemas mal protegidos aumentam o risco de incidentes de segurança.