Regulamentação de IA no Brasil: impactos na proteção de dados pessoais
A inteligência artificial está transformando setores inteiros da economia brasileira — de sistemas bancários a plataformas de saúde, de processos seletivos a ferramentas jurídicas. Com essa transformação, cresce a pressão por regras claras que equilibrem inovação e proteção dos direitos dos cidadãos.
No Brasil, a regulamentação da IA ainda está se consolidando. Mas isso não significa vazio jurídico: a LGPD já se aplica a qualquer sistema de IA que trate dados pessoais, e a ANPD tem exercido seu papel regulatório crescente. Para além da LGPD, o PL 2338/2023 — o chamado Marco Legal da IA — tramita no Congresso e pode transformar obrigações para empresas de todos os setores.
Este artigo oferece um panorama atualizado do cenário regulatório de IA no Brasil e o que as organizações precisam fazer para se preparar.
Por que a LGPD já é o marco regulatório da IA com dados pessoais
A primeira afirmação que precisa ser feita é clara: não existe lacuna regulatória para IA que trata dados pessoais no Brasil. A LGPD se aplica sempre que um sistema de IA coleta, utiliza, armazena, compartilha ou produz decisões com base em dados pessoais — o que engloba a grande maioria dos sistemas de IA em uso comercial.
Os princípios da LGPD (Art. 6°) se traduzem diretamente em requisitos para IA:
- Finalidade: O sistema de IA deve ser treinado e operado para finalidades específicas e legítimas, informadas ao titular
- Adequação: Os dados utilizados devem ser compatíveis com as finalidades declaradas
- Necessidade: O modelo deve usar apenas os dados necessários para sua função
- Transparência: O titular tem direito a saber que seus dados são usados em sistemas automatizados
- Não discriminação: Sistemas de IA não podem produzir resultados discriminatórios ilícitos (Art. 6°, IX)
- Prevenção: Controladores devem adotar medidas para prevenir danos decorrentes do tratamento
O Art. 20 é a peça mais específica: garante ao titular o direito de solicitar revisão de decisões tomadas unicamente com base em tratamento automatizado, além de obrigar o controlador a explicar os critérios utilizados.
Em resumo: toda empresa que usa IA com dados pessoais já está sujeita à LGPD. Cumprir a LGPD é o passo mínimo obrigatório — independentemente de qualquer legislação específica de IA.
PL 2338/2023: o Marco Legal da IA
O Projeto de Lei 2338/2023 é a principal proposta legislativa de regulamentação da inteligência artificial no Brasil. Apresentado pelo Senado Federal, o PL foi aprovado pelo Senado em 10 de dezembro de 2024 e encaminhado à Câmara dos Deputados, onde ainda aguarda análise e votação.
Status atual (março de 2026): O PL 2338/2023 ainda não é lei. Está em análise na Câmara dos Deputados. As informações abaixo descrevem o texto aprovado pelo Senado, que pode ser modificado pela Câmara antes da sanção presidencial.
Abordagem baseada em risco
O PL 2338 adota uma abordagem baseada em risco, similar ao modelo europeu do EU AI Act. Sistemas de IA são classificados em categorias conforme o risco que representam para direitos e segurança:
Práticas proibidas (risco inaceitável):
- Sistemas que manipulam comportamento humano de forma subliminar ou enganosa
- Sistemas de pontuação social (social scoring) pelo poder público
- Uso de reconhecimento biométrico em espaços públicos de forma indiscriminada para fins de vigilância em massa (com exceções)
- Sistemas que exploram vulnerabilidades de grupos específicos
Alto risco:
- Infraestrutura crítica (energia, água, transportes)
- Processos educacionais e de acesso ao mercado de trabalho
- Concessão de crédito e serviços financeiros
- Sistemas de saúde e segurança
- Administração de justiça
- Serviços públicos essenciais
Sistemas de alto risco têm obrigações adicionais: avaliação de conformidade, documentação técnica, supervisão humana, robustez e acurácia, e transparência para usuários e autoridades.
Risco limitado: Sistemas com obrigações de transparência (ex: chatbots devem informar que o usuário está interagindo com IA).
Risco mínimo: A maioria dos sistemas de IA (filtros de spam, recomendação de conteúdo, etc.) — sem obrigações específicas adicionais.
Direitos garantidos
O PL assegura aos cidadãos:
- Explicabilidade: Direito a receber explicação sobre decisões automatizadas que afetem seus interesses
- Contestação: Direito de contestar decisões de IA e ter revisão por pessoa humana
- Não discriminação: Proteção contra uso de IA para fins discriminatórios
- Transparência: Direito de saber quando está interagindo com sistema de IA
Princípios orientadores
O texto do PL estabelece princípios que devem orientar o desenvolvimento e o uso de IA no Brasil:
- Desenvolvimento humano e centrado na pessoa
- Transparência
- Explicabilidade
- Robustez, segurança e precisão
- Privacidade e proteção de dados
- Não discriminação, equidade e justiça
- Responsabilização e prestação de contas
- Participação e supervisão humana
Governança
O PL prevê um sistema de governança com múltiplos atores: um Conselho Nacional de IA como órgão consultivo, e um sistema regulatório setorial onde cada autoridade competente — ANPD, BACEN, ANS, ANVISA, etc. — regulamenta a IA em seu setor, respeitando as diretrizes gerais da lei.
EU AI Act: a referência internacional
Para entender para onde a regulamentação brasileira tende a ir, é fundamental conhecer o EU AI Act — o Regulamento (UE) 2024/1689 da União Europeia sobre IA.
Publicado no Diário Oficial da UE em 12 de julho de 2024 e vigente desde 1° de agosto de 2024, o EU AI Act é o primeiro marco regulatório abrangente de IA do mundo. Suas características principais:
- Abordagem de risco (proibido → alto risco → risco limitado → risco mínimo)
- Proibições absolutas para sistemas de risco inaceitável (scoring social, manipulação subliminar, exploração de vulnerabilidades)
- Obrigações para sistemas de alto risco: avaliação de conformidade, registros, transparência, supervisão humana, gestão de risco
- Modelos de uso geral (como GPT-4, Gemini): obrigações de transparência e, para modelos com risco sistêmico, avaliações adicionais
- Sanções: até €35 milhões ou 7% do faturamento global para violações mais graves
Por que importa para o Brasil?
- Influência direta no PL 2338: O texto aprovado pelo Senado brasileiro foi explicitamente inspirado no modelo europeu
- Alcance extraterritorial: O EU AI Act se aplica a sistemas de IA colocados no mercado europeu ou cujos efeitos se produzem na UE — empresas brasileiras que exportam serviços digitais ou têm usuários na Europa podem estar sujeitas ao regulamento
- Parcerias internacionais: Empresas que participam de cadeias globais precisam compreender o framework europeu para contratos e due diligence
ISO/IEC 42001:2023: o padrão de gestão de IA
Publicada em dezembro de 2023, a ISO/IEC 42001 é a norma internacional para Sistemas de Gestão de Inteligência Artificial (SGAI). Ela fornece requisitos e diretrizes para que organizações demonstrem que desenvolvem, fornecem e usam IA de forma responsável.
A norma cobre:
- Estabelecimento de políticas de IA
- Gestão de riscos e impactos de IA
- Ciclo de vida do sistema de IA (da concepção ao descarte)
- Monitoramento e melhoria contínua
- Transparência e prestação de contas
A ISO 42001 não substitui obrigações legais — é uma ferramenta de gestão. Mas para empresas que querem demonstrar governança de IA de forma estruturada e verificável (para clientes, parceiros ou reguladores), a certificação pode ser um diferencial significativo.
O papel da ANPD na regulação de IA
A ANPD, como autoridade responsável pela implementação da LGPD, tem atuado cada vez mais na fronteira entre proteção de dados e IA.
Tomada de Subsídios sobre IA (2023-2024): A ANPD abriu consulta pública sobre IA em novembro de 2023, encerrada em janeiro de 2024. O processo coletou subsídios da sociedade civil, setor privado e academia para orientar posicionamentos regulatórios.
Nota Técnica n° 12/2025: Publicada em maio de 2025, a nota aborda especificamente o Art. 20 da LGPD e decisões automatizadas. Estabelece orientações sobre o escopo do direito de revisão, as obrigações de transparência e como o regulador interpreta o dispositivo.
A tendência é de crescente atuação da ANPD no tema, com possibilidade de regulamentações específicas complementares ao PL 2338 — especialmente sobre decisões automatizadas, uso de dados pessoais em treinamento de modelos e transferências internacionais de dados para sistemas de IA.
Direitos dos titulares no contexto de IA
Independentemente do Marco Legal da IA, os titulares já possuem direitos relevantes que se aplicam a sistemas de IA:
Direito à informação (Art. 9°): Saber que seus dados são utilizados, para qual finalidade, e os critérios usados em decisões automatizadas.
Direito de acesso (Art. 18, I e II): Confirmar a existência do tratamento e acessar os dados utilizados.
Direito à revisão (Art. 20): Solicitar revisão humana de decisões automatizadas que afetem seus interesses. O controlador deve responder ao pedido e informar os critérios da decisão.
Direito de oposição (Art. 18, VII): Opor-se a tratamentos realizados com fundamento em legítimo interesse, quando houver violação à LGPD.
Direito à eliminação (Art. 18, VI): Solicitar eliminação dos dados pessoais utilizados no treinamento ou operação de modelos, quando o tratamento for baseado em consentimento.
O que as empresas precisam fazer agora
Não é necessário esperar o Marco Legal da IA para agir. As obrigações já existentes e a trajetória regulatória clara indicam um conjunto de medidas que toda organização deve iniciar:
1. Inventariar sistemas de IA com dados pessoais
Identificar todos os sistemas, modelos e ferramentas de IA que processam dados pessoais — incluindo soluções de terceiros (SaaS, APIs, plataformas de nuvem). Para cada sistema, mapear:
- Que dados são usados
- Que decisões o sistema toma
- Quais grupos populacionais são afetados
- Qual é a base legal para o tratamento
2. Implementar Art. 20 da LGPD
Garantir que sistemas de decisão automatizada:
- Sejam documentados com os critérios utilizados
- Tenham processo definido para responder a pedidos de revisão humana
- Informem o titular quando uma decisão automatizada é tomada (quando aplicável)
3. Avaliar quais sistemas serão "alto risco" sob o PL 2338
Com base no texto aprovado pelo Senado, identificar antecipadamente quais sistemas da organização podem se enquadrar na categoria de alto risco. Isso permite iniciar a preparação com antecedência, incluindo documentação técnica, avaliações de conformidade e processos de supervisão humana.
4. Implementar privacy by design nos projetos de IA
Novos projetos de IA devem, desde a concepção, incluir:
- Análise de impacto (RIPD) quando há alto risco
- Avaliação de viés e fairness
- Minimização dos dados utilizados
- Mecanismos de explicabilidade
5. Revisar contratos com fornecedores de IA
Se a organização usa plataformas de IA de terceiros que tratam dados pessoais, os contratos devem incluir:
- Cláusulas de proteção de dados (DPA — Data Processing Agreement)
- Responsabilidades sobre conformidade com LGPD e regulamentações aplicáveis
- Mecanismos para atender pedidos de revisão e portabilidade
6. Monitorar o PL 2338 na Câmara
A Câmara pode modificar o texto aprovado pelo Senado. Acompanhar as alterações propostas e adaptar o planejamento de conformidade conforme o texto avança.
Tendências regulatórias para os próximos anos
O cenário regulatório de IA continuará evoluindo rapidamente. Algumas tendências a observar:
Regulamentação setorial: BACEN, ANS, ANATEL e outros reguladores setoriais devem publicar diretrizes específicas sobre IA em seus setores, especialmente após a aprovação do Marco Legal.
Maior fiscalização da ANPD sobre IA: A ANPD tem indicado que decisões automatizadas e sistemas de IA são áreas prioritárias de fiscalização nos próximos ciclos.
Convergência internacional: O EU AI Act está influenciando outros países além do Brasil — China, Reino Unido, Canadá e EUA também têm propostas em andamento. Empresas com operações globais precisarão navegar múltiplos frameworks.
Accountability e explicabilidade como padrão: A expectativa do mercado e dos reguladores é que sistemas de IA sejam cada vez mais auditáveis e explicáveis. Soluções de "caixa preta" enfrentarão crescente pressão regulatória e reputacional.
Conclusão: antecipação é vantagem competitiva
A regulamentação de IA no Brasil está chegando — seja pela LGPD, que já se aplica, seja pelo Marco Legal que tramita no Congresso. Empresas que aguardam a publicação da lei para iniciar a adequação terão uma desvantagem significativa em relação àquelas que já estruturaram sua governança de IA hoje.
O caminho mais seguro é combinar o cumprimento rigoroso da LGPD (especialmente o Art. 20) com a adoção de boas práticas internacionais (ISO 42001, referências do EU AI Act) e o acompanhamento ativo do avanço do PL 2338 na Câmara.
Para entender o que a ANPD espera das organizações na fiscalização de IA e proteção de dados nos próximos anos, acesse nosso material especial.
Baixe o eBook "ANPD: O que esperar da fiscalização em 2026" e prepare-se para o novo cenário regulatório de IA.
Artigos relacionados
Quer ir além? Conheça o Confidata
Sistema completo de gestão de conformidade LGPD com IA integrada para acelerar seu programa de privacidade.