O avanço da tecnologia trouxe à sociedade ferramentas poderosas, como a biometria facial e o reconhecimento de imagem, que prometem agilidade e eficiência em diversas áreas, desde segurança pública até serviços financeiros. O uso dessas ferramentas se expandiu significativamente, a biometria já equipa mais de 4,2 bilhões de dispositivos móveis no mundo, segundo a Juniper Research e no Brasil o reconhecimento facial já vigia cerca de 40% das pessoas em diversos contextos, de acordo com os estudos da Defensoria Pública da União (DPU) em parceria com o Centro de Estudos de Segurança e Cidadania (CESeC).
No entanto, esses recursos implicam riscos significativos para a privacidade e aos direitos fundamentais. Dados biométricos são sensíveis por natureza: ao contrário de senhas ou números de documentos, não podem ser alterados se vazados, tornando seu uso responsável uma obrigação legal e ética. Relatórios como o da Deloitte estimam que fraudes impulsionadas por IA podem gerar prejuízo de R$ 4,5 bilhões até o fim de 2025, com crescimento superior a 800% no uso de deepfakes no país.
O reconhecimento facial — utilizado em autenticação de transações financeiras e pagamentos, no controle de acesso físico em empresas, condomínios e aeroportos, e na identificação para emissão de documentos oficiais, entre outras aplicações — já é uma realidade comum em um mundo marcado pela disrupção tecnológica. A tecnologia deve, de fato, servir à sociedade; porém, seu uso responsável exige das organizações que oferecem esses serviços um equilíbrio entre inovação, ética e proteção aos direitos fundamentais.
No Brasil, a Lei Geral de Proteção de Dados (LGPD) estabelece regras claras sobre coleta, armazenamento e uso de dados biométricos, que são classificados como dados pessoais sensíveis (Art. 5º, II). O consentimento explícito e destacado do titular, com finalidades específicas, é obrigatório na maioria dos casos.
Além do consentimento, as empresas têm o dever de garantir transparência e segurança em todos os processos que envolvam essas informações. Vazamentos de dados ou usos indevidos podem gerar graves danos, como fraudes ou exposição não autorizada. Um risco adicional, frequentemente debatido, é o chamado “racismo algorítmico”, onde a falta de diversidade nos dados de treinamento pode levar a maior taxa de erros e discriminação contra certos grupos raciais no reconhecimento facial, como apontado em estudos sobre segurança pública.
Assim, a Autoridade Nacional de Proteção de Dados (ANPD) tem intensificado a regulamentação, inclusive com a abertura de Tomadas de Subsídios para orientar a futura atuação normativa sobre o tratamento de dados biométricos.
A penalidade por não cumprimento da LGPD pode resultar em multas de até 2% do faturamento da empresa, limitadas a R$ 50 milhões por infração, além de sanções como a suspensão ou proibição do tratamento de dados.
Contudo, com orientação jurídica adequada, que inclua a realização de Relatórios de Impacto à Proteção de Dados (RIPD), é possível adotar soluções avançadas sem comprometer a dignidade humana ou a segurança legal das empresas e, assim, assegurar que a tecnologia seja aliada e não fonte de violações legais e penalidades.
Nicoly Crepaldi Minchuerri, advogada especialista na área cível do escritório Mazzucco & Mello Sociedade de Advogados.
Leonardo Neri, advogado, mestre em negócios do esporte na Inglaterra e sócio da área de Tecnologia, Mídia e Telecomunicações (TMT) do escritório Mazzucco & Mello Sociedade de Advogados.
FONTE: TIINSIDE.