VOCÊ VENDERIA SEUS OLHOS?
Vender o olho talvez soe como uma provocação exagerada, mas foi exatamente assim que uma influenciadora no TikTok resumiu sua decisão de escanear a própria íris em troca de dinheiro. A prática, que viralizou entre os internautas, é parte de um experimento global promovido pela Worldcoin, um projeto de Sam Altman, o nome por trás da OpenAI (a mesma empresa do ChatGPT). O objetivo? Criar uma identidade digital universal baseada em blockchain e em sua criptomoeda própria, a WLD.
A rede World justifica sua existência com um desafio crescente na era da inteligência artificial: como distinguir humanos de máquinas em um mundo cada vez mais dominado pela inteligência artificial (IA)? A solução apontada seria pela identificação da íris, escolhida por ser única e possuir uma precisão altíssima — com risco de erro estimado em 1 para cada 2 bilhões de verificações. Até aqui, mais de 150 mil brasileiros já aderiram ao sistema, escaneando os olhos em troca de 25 unidades da WLD. Com a criptomoeda valendo cerca de R$ 13,58, o valor oferecido alcança aproximadamente R$ 340.
Se a proposta parece atraente, os riscos associados transformam o experimento em um palco de discussões globais sobre privacidade e ética. Não é difícil imaginar o impacto: estamos falando de entregar dados biométricos sensíveis — aqueles que sequer podem ser substituídos se algo der errado — em troca de dinheiro. Tanto que a possibilidade de vazamentos ou usos indevidos acendeu o alerta de autoridades ao redor do mundo, inclusive no Brasil, onde a Autoridade Nacional de Proteção de Dados (ANPD) instaurou um processo de fiscalização contra a Tools for Humanity (TFH), empresa responsável pelo dispositivo Orb, que coleta e armazena as informações oculares.
A ANPD, respaldada pela Lei Geral de Proteção de Dados (LGPD), classifica a coleta de biometria da íris como especialmente crítica. Informações como essas estão protegidas por regras mais rígidas justamente por sua alta sensibilidade e irreversibilidade. Entre os questionamentos feitos à empresa estão desde a ausência de transparência até a possibilidade de discriminação decorrente de vieses nos sistemas de inteligência artificial. Se por um lado a Worldcoin promete que seus dados ficam seguros e criptografados no dispositivo pessoal do usuário, por outro lado, países como França e Alemanha decidiram agir de maneira incisiva, restringido as operações do projeto em seus territórios.
Na prática, a adesão à rede Worldcoin se sustenta sobre um argumento de necessidade econômica e confiança na revolução digital. Para alguns, R$ 340 são bem-vindos; para outros, representam o preço de uma aposta inconsciente sobre a própria privacidade.
Nos países onde o projeto foi proibido, a decisão mostra um ceticismo cada vez maior com grandes empresas de tecnologia ditando regras globais sem supervisão adequada. E por que deveria ser diferente? Há um consenso crescente de que reguladores precisam ser firmes para limitar o poder de sistemas que, com a desculpa de identificar humanos, podem muito bem acabar tratando-os como commodities no mercado de dados. Afinal, a questão não é por que alguém decide “vender os olhos”, mas quem mais poderá enxergar por meio deles.