Como fazer RIPD para sistemas de inteligência artificial
O Relatório de Impacto à Proteção de Dados Pessoais (RIPD) é uma das ferramentas mais importantes do arsenal de compliance — e uma das mais relevantes quando o assunto é inteligência artificial. Sistemas de IA que processam dados pessoais em larga escala, tomam decisões automatizadas ou utilizam dados sensíveis frequentemente acionam o dever de elaborar o RIPD antes da implementação.
Este guia explica quando o RIPD é obrigatório para sistemas de IA e como estruturá-lo considerando as características específicas dessas tecnologias.
O que é o RIPD e onde está previsto na LGPD
O RIPD é definido pelo Art. 5º, XVII da LGPD como a "documentação do controlador que contém a descrição dos processos de tratamento de dados pessoais que podem gerar riscos às liberdades civis e aos direitos fundamentais, bem como medidas, salvaguardas e mecanismos de mitigação de risco".
O Art. 38 da LGPD prevê que a ANPD pode solicitar ao controlador o RIPD "quando o tratamento de dados pessoais for suscetível de gerar riscos às liberdades civis e aos direitos fundamentais". O RIPD é, portanto, sempre relevante — mas a ANPD pode determinar casos de elaboração obrigatória proativa.
A Resolução CD/ANPD Nº 2/2022, que trata dos agentes de tratamento de pequeno porte, não dispensa o RIPD quando o tratamento envolve dados sensíveis ou alto risco — a redução de obrigações para pequenos agentes tem escopo limitado.
Quando sistemas de IA exigem RIPD
Não são todos os sistemas de IA que exigem RIPD — mas muitos exigem. Os gatilhos mais relevantes:
Gatilho 1: Decisões automatizadas que afetam titulares
Qualquer sistema de IA que tome ou apoie decisões automatizadas que afetem os interesses dos titulares — aprovação de crédito, seleção de candidatos, cálculo de risco, determinação de preços diferenciados — envolve alto risco para direitos e quase sempre demanda RIPD.
Gatilho 2: Tratamento em larga escala
Sistemas de IA que processam dados pessoais de grandes populações — algoritmos de recomendação, análise comportamental em escala, sistemas de análise de sentimentos em dados de clientes — operam em larga escala e tendem a acionar o dever de RIPD.
Gatilho 3: Dados sensíveis
Qualquer tratamento de dados sensíveis (Art. 5º, II — saúde, biometria, origem racial, etc.) com sistemas de IA, mesmo em escala limitada, exige avaliação cuidadosa documentada em RIPD. O risco de dano é estruturalmente maior com dados sensíveis.
Gatilho 4: Tecnologias inovadoras
Sistemas que utilizam abordagens novas — reconhecimento facial em larga escala, análise de emoções, perfilamento comportamental com múltiplas fontes de dados — envolvem riscos que podem não ser completamente conhecidos na época da implementação. O RIPD documenta os riscos identificados e as medidas de mitigação adotadas.
Gatilho 5: Monitoramento sistemático
IA usada para monitorar sistematicamente colaboradores (análise de produtividade, detecção de comportamentos, monitoramento de acesso) ou espaços (videovigilância com análise de IA) exige RIPD.
Estrutura do RIPD para sistemas de IA
Um RIPD para sistemas de IA tem os elementos comuns a qualquer RIPD, mais elementos específicos da tecnologia.
Seção 1: Descrição do sistema e do tratamento
Elementos gerais:
- Nome e descrição funcional do sistema
- Finalidade do sistema e do tratamento de dados
- Base legal (Art. 7º ou Art. 11 da LGPD)
- Categorias de dados utilizados (input) e gerados (output)
- Titulares afetados e volume estimado
- Ciclo de vida dos dados (retenção, descarte)
Elementos específicos para IA:
- Tipo de modelo (machine learning supervisionado/não supervisionado, deep learning, LLM, IA generativa, etc.)
- Como o modelo foi ou será treinado (origem dos dados de treinamento, metodologia)
- Se dados pessoais foram ou serão usados no treinamento — e com qual base legal
- Frequência de retreinamento do modelo
- Provedor (desenvolvimento interno, software de terceiro, modelo de linguagem de terceiro com fine-tuning)
Seção 2: Necessidade e proporcionalidade
Avaliação de que o tratamento é necessário e proporcional à finalidade:
- Por que é necessário usar dados pessoais para essa finalidade? Não seria possível com dados anonimizados ou pseudonimizados?
- O volume e o tipo de dados utilizados são os mínimos necessários (princípio da minimização, Art. 6º, III)?
- Os dados utilizados no treinamento tinham base legal adequada para esse uso específico?
- Há alternativas menos invasivas à privacidade que atenderiam à mesma finalidade?
Seção 3: Identificação e avaliação de riscos
Esta é a seção central do RIPD para IA.
Riscos gerais de privacidade:
| Risco | Probabilidade | Impacto | Severidade |
|---|---|---|---|
| Acesso não autorizado aos dados de input | A/M/B | A/M/B | Alta/Média/Baixa |
| Vazamento dos dados de treinamento | A/M/B | A/M/B | Alta/Média/Baixa |
| Reidentificação a partir dos outputs do modelo | A/M/B | A/M/B | Alta/Média/Baixa |
| Uso dos dados para finalidade diferente da declarada | A/M/B | A/M/B | Alta/Média/Baixa |
Riscos específicos de IA:
| Risco | Probabilidade | Impacto | Severidade |
|---|---|---|---|
| Viés algorítmico resultando em discriminação | A/M/B | A/M/B | Alta/Média/Baixa |
| Decisão automatizada incorreta com impacto severo | A/M/B | A/M/B | Alta/Média/Baixa |
| Opacidade: incapacidade de explicar decisão ao titular | A/M/B | A/M/B | Alta/Média/Baixa |
| Deriva do modelo (model drift) com degradação não detectada | A/M/B | A/M/B | Alta/Média/Baixa |
| Memorização de dados pessoais no modelo (risco de extração) | A/M/B | A/M/B | Alta/Média/Baixa |
| Alucinação com dados pessoais (para modelos generativos) | A/M/B | A/M/B | Alta/Média/Baixa |
Seção 4: Medidas de mitigação
Para cada risco de severidade alta ou média, documentar as medidas adotadas:
Medidas técnicas:
- Controles de acesso ao sistema e aos dados
- Criptografia de dados em repouso e em trânsito
- Técnicas de privacidade no treinamento (differential privacy, federated learning, onde aplicável)
- Técnicas de explicabilidade (LIME, SHAP, modelos interpretáveis)
- Monitoramento de viés por grupos protegidos
- Testes de adversarial robustness
Medidas organizacionais:
- Processo de revisão humana para decisões de alto impacto (Art. 20 da LGPD)
- Canal para solicitação de revisão pelo titular
- Treinamento da equipe sobre o sistema e suas limitações
- Processo de gestão de incidentes relacionados ao sistema
- Revisão periódica do modelo e das suas métricas
Seção 5: Mecanismo de revisão do RIPD
O RIPD para sistemas de IA não é estático — precisa ser revisado:
- Quando o modelo é significativamente retreinado ou modificado
- Quando o escopo de uso é ampliado
- Quando incidentes revelam riscos não previstos
- Periodicamente (recomendação: ao menos anualmente para sistemas de alto risco)
O risco de viés: documentação específica no RIPD
O risco de viés algorítmico merece atenção especial. Viés em sistemas de IA pode resultar em violação do princípio da não discriminação (Art. 6º, IX da LGPD) e criar responsabilidade jurídica. O RIPD deve documentar:
- Quais grupos protegidos foram avaliados (gênero, raça/cor, faixa etária, localização, etc.)
- Quais métricas de equidade foram utilizadas
- Resultados das análises de viés pré-implantação
- Medidas tomadas para mitigar viés identificado
- Como o viés será monitorado pós-implantação
Fontes de viés mais comuns em sistemas de IA:
- Viés nos dados de treinamento: dados históricos que refletem discriminações passadas
- Viés de representação: subrepresentação de grupos minoritários nos dados
- Viés de rotulagem: rótulos atribuídos por humanos que refletem preconceitos
- Viés de proxy: uso de variáveis correlacionadas com atributos protegidos
RIPD para sistemas de IA de terceiros
Um desafio frequente: a organização usa um sistema de IA desenvolvido por terceiro (modelo de crédito, ferramenta de recrutamento com IA, sistema de análise de sentimentos) sobre o qual tem acesso limitado à documentação técnica.
Nesse caso, o RIPD deve:
- Documentar o que é conhecido sobre o sistema (a partir da documentação do fornecedor)
- Identificar os dados que a organização fornece ao sistema
- Avaliar riscos com base nas capacidades e limitações documentadas
- Incluir como medida de mitigação a formalização de obrigações contratuais com o fornecedor (DPA com transparência sobre o funcionamento do modelo)
- Documentar o processo de due diligence realizado sobre o fornecedor
Exemplo simplificado: RIPD para sistema de aprovação de crédito com IA
Descrição: Sistema de machine learning para score de crédito e aprovação automatizada de empréstimos pessoais.
Input: histórico de pagamentos, renda declarada, comportamento em conta, dados de bureau de crédito.
Output: score de 0–1000 + decisão recomendada (aprovar/negar/revisar manualmente).
Titulares: clientes pessoas físicas que solicitam crédito.
Principais riscos e medidas:
- Viés discriminatório por dados históricos (alta probabilidade, alto impacto) → análise de viés por gênero e faixa etária antes da implantação; monitoramento mensal pós-implantação
- Decisão sem possibilidade de revisão (Art. 20) → canal de contestação integrado ao app; revisão por gerente de crédito em até 5 dias úteis
- Opacidade/inexplicabilidade → implementação de SHAP para gerar explicação das 3 principais razões da decisão
- Vazamento dos dados de treinamento → criptografia; acesso restrito; ambiente de treinamento segregado
Conclusão
O RIPD para sistemas de IA não é burocracia — é um mecanismo de descoberta e mitigação de riscos. O processo de elaboração frequentemente revela problemas que ninguém havia identificado: viés no dataset de treinamento, ausência de processo de revisão para decisões de alto impacto, dados com base legal inadequada para o uso pretendido.
Organizações que fazem o RIPD antes da implantação têm a oportunidade de corrigir esses problemas. As que não fazem descobrem os problemas quando já causaram dano — para os titulares e para a própria organização. Com o Marco Legal de IA (PL 2.338/2023) aprovado pelo Senado e em análise na Câmara em 2026, a avaliação de impacto de sistemas de IA de alto risco deve se tornar uma obrigação formal — o que torna o RIPD ainda mais estratégico como ferramenta de conformidade antecipada.
A Confidata estrutura o RIPD para sistemas de IA com campos específicos para documentação técnica de modelos, avaliação de viés e mecanismos de revisão de decisões automatizadas — integrando conformidade LGPD com boas práticas de AI governance.
Artigos relacionados
Quer ir além? Conheça o Confidata
Sistema completo de gestão de conformidade LGPD com IA integrada para acelerar seu programa de privacidade.