A Human Rights Watch (HRW) alertou, nesta seguda-feira (10), que fotos pessoais de crianças e adolescentes brasileiros estão sendo coletadas da internet e utilizadas para desenvolver avançadas ferramentas de inteligência artificial (IA) na Alemanha, sem o conhecimento ou consentimento dos jovens envolvidos. Essas imagens são incorporadas a grandes conjuntos de dados que empresas utilizam para treinar suas ferramentas de IA.
Ainda mais preocupante: essas ferramentas estão sendo usadas por terceiros para criar deepfakes, aumentando o risco de exploração e danos a essas crianças. “Eles não deveriam ter que viver com medo de que suas fotos possam ser roubadas e usadas contra eles”, afirmou a pesquisadora de direitos da criança e tecnologia da Human Rights Watch, Hye Jung Han. “O governo deveria adotar urgentemente políticas para proteger os dados das crianças contra uso indevido impulsionado por IA”.
Te podría interesar
A organização descobriu 170 fotos de crianças de pelo menos 10 estados brasileiros - Alagoas, Bahia, Ceará, Mato Grosso do Sul, Minas Gerais, Paraná, Rio de Janeiro, Rio Grande do Sul, Santa Catarina e São Paulo - sendo usadas no conjunto de dados LAION-5B, que é amplamente utilizado para treinar ferramentas de IA populares, e foi construído a partir da coleta de uma vasta quantidade de informações da Internet, incluindo links para fotos identificáveis de crianças do Brasil.
Subnotificação
No entanto, isso pode ser apenas a ponta do iceberg. Considerando que a Human Rights Watch analisou menos de 0,0001% dos 5,85 bilhões de imagens e legendas contidas no conjunto de dados, é provável que a quantidade total de informações pessoais de crianças existentes no LAION-5B seja significativamente maior.
Te podría interesar
A maioria é de meninas. A investigação revela uma gama de momentos íntimos capturados durante a infância e adolescência. Estes incluem imagens de bebês recém-nascidos nas mãos de médicos, crianças pequenas comemorando aniversários soprando velas ou dançando em casa, estudantes fazendo apresentações escolares e adolescentes posando para fotos durante o Carnaval do colégio, isto é, fotos compartilhadas em redes privadas, de acordo com a HRW.
Invasão de privacidade
“A IA generativa ainda é uma tecnologia incipiente, e os danos associados que as crianças já estão enfrentando não são inevitáveis”, destacou Han. “Proteger agora a privacidade dos dados de crianças ajudará a moldar o desenvolvimento dessa tecnologia para uma que promova, em vez de violar, os direitos das crianças”.
Ainda segundo a HRW, a coleta e inserção de dados de crianças em sistemas de IA têm levado a um aumento nas ameaças à sua privacidade, devido a falhas na tecnologia. Modelos de IA, incluindo aqueles treinados no LAION-5B, são notoriamente conhecidos por vazar informações privadas, reproduzindo cópias idênticas do material no qual foram treinados, incluindo registros médicos e fotos de pessoas reais. As medidas de proteção implementadas por algumas empresas para evitar o vazamento de dados confidenciais têm sido repetidamente violadas.