Inteligência Artificial14 min de leitura

Como fazer RIPD para sistemas de inteligência artificial

Equipe Confidata·
Compartilhar

O Relatório de Impacto à Proteção de Dados Pessoais (RIPD) é uma das ferramentas mais importantes do arsenal de compliance — e uma das mais relevantes quando o assunto é inteligência artificial. Sistemas de IA que processam dados pessoais em larga escala, tomam decisões automatizadas ou utilizam dados sensíveis frequentemente acionam o dever de elaborar o RIPD antes da implementação.

Este guia explica quando o RIPD é obrigatório para sistemas de IA e como estruturá-lo considerando as características específicas dessas tecnologias.


O que é o RIPD e onde está previsto na LGPD

O RIPD é definido pelo Art. 5º, XVII da LGPD como a "documentação do controlador que contém a descrição dos processos de tratamento de dados pessoais que podem gerar riscos às liberdades civis e aos direitos fundamentais, bem como medidas, salvaguardas e mecanismos de mitigação de risco".

O Art. 38 da LGPD prevê que a ANPD pode solicitar ao controlador o RIPD "quando o tratamento de dados pessoais for suscetível de gerar riscos às liberdades civis e aos direitos fundamentais". O RIPD é, portanto, sempre relevante — mas a ANPD pode determinar casos de elaboração obrigatória proativa.

A Resolução CD/ANPD Nº 2/2022, que trata dos agentes de tratamento de pequeno porte, não dispensa o RIPD quando o tratamento envolve dados sensíveis ou alto risco — a redução de obrigações para pequenos agentes tem escopo limitado.


Quando sistemas de IA exigem RIPD

Não são todos os sistemas de IA que exigem RIPD — mas muitos exigem. Os gatilhos mais relevantes:

Gatilho 1: Decisões automatizadas que afetam titulares

Qualquer sistema de IA que tome ou apoie decisões automatizadas que afetem os interesses dos titulares — aprovação de crédito, seleção de candidatos, cálculo de risco, determinação de preços diferenciados — envolve alto risco para direitos e quase sempre demanda RIPD.

Gatilho 2: Tratamento em larga escala

Sistemas de IA que processam dados pessoais de grandes populações — algoritmos de recomendação, análise comportamental em escala, sistemas de análise de sentimentos em dados de clientes — operam em larga escala e tendem a acionar o dever de RIPD.

Gatilho 3: Dados sensíveis

Qualquer tratamento de dados sensíveis (Art. 5º, II — saúde, biometria, origem racial, etc.) com sistemas de IA, mesmo em escala limitada, exige avaliação cuidadosa documentada em RIPD. O risco de dano é estruturalmente maior com dados sensíveis.

Gatilho 4: Tecnologias inovadoras

Sistemas que utilizam abordagens novas — reconhecimento facial em larga escala, análise de emoções, perfilamento comportamental com múltiplas fontes de dados — envolvem riscos que podem não ser completamente conhecidos na época da implementação. O RIPD documenta os riscos identificados e as medidas de mitigação adotadas.

Gatilho 5: Monitoramento sistemático

IA usada para monitorar sistematicamente colaboradores (análise de produtividade, detecção de comportamentos, monitoramento de acesso) ou espaços (videovigilância com análise de IA) exige RIPD.


Estrutura do RIPD para sistemas de IA

Um RIPD para sistemas de IA tem os elementos comuns a qualquer RIPD, mais elementos específicos da tecnologia.

Seção 1: Descrição do sistema e do tratamento

Elementos gerais:

  • Nome e descrição funcional do sistema
  • Finalidade do sistema e do tratamento de dados
  • Base legal (Art. 7º ou Art. 11 da LGPD)
  • Categorias de dados utilizados (input) e gerados (output)
  • Titulares afetados e volume estimado
  • Ciclo de vida dos dados (retenção, descarte)

Elementos específicos para IA:

  • Tipo de modelo (machine learning supervisionado/não supervisionado, deep learning, LLM, IA generativa, etc.)
  • Como o modelo foi ou será treinado (origem dos dados de treinamento, metodologia)
  • Se dados pessoais foram ou serão usados no treinamento — e com qual base legal
  • Frequência de retreinamento do modelo
  • Provedor (desenvolvimento interno, software de terceiro, modelo de linguagem de terceiro com fine-tuning)

Seção 2: Necessidade e proporcionalidade

Avaliação de que o tratamento é necessário e proporcional à finalidade:

  • Por que é necessário usar dados pessoais para essa finalidade? Não seria possível com dados anonimizados ou pseudonimizados?
  • O volume e o tipo de dados utilizados são os mínimos necessários (princípio da minimização, Art. 6º, III)?
  • Os dados utilizados no treinamento tinham base legal adequada para esse uso específico?
  • Há alternativas menos invasivas à privacidade que atenderiam à mesma finalidade?

Seção 3: Identificação e avaliação de riscos

Esta é a seção central do RIPD para IA.

Riscos gerais de privacidade:

RiscoProbabilidadeImpactoSeveridade
Acesso não autorizado aos dados de inputA/M/BA/M/BAlta/Média/Baixa
Vazamento dos dados de treinamentoA/M/BA/M/BAlta/Média/Baixa
Reidentificação a partir dos outputs do modeloA/M/BA/M/BAlta/Média/Baixa
Uso dos dados para finalidade diferente da declaradaA/M/BA/M/BAlta/Média/Baixa

Riscos específicos de IA:

RiscoProbabilidadeImpactoSeveridade
Viés algorítmico resultando em discriminaçãoA/M/BA/M/BAlta/Média/Baixa
Decisão automatizada incorreta com impacto severoA/M/BA/M/BAlta/Média/Baixa
Opacidade: incapacidade de explicar decisão ao titularA/M/BA/M/BAlta/Média/Baixa
Deriva do modelo (model drift) com degradação não detectadaA/M/BA/M/BAlta/Média/Baixa
Memorização de dados pessoais no modelo (risco de extração)A/M/BA/M/BAlta/Média/Baixa
Alucinação com dados pessoais (para modelos generativos)A/M/BA/M/BAlta/Média/Baixa

Seção 4: Medidas de mitigação

Para cada risco de severidade alta ou média, documentar as medidas adotadas:

Medidas técnicas:

  • Controles de acesso ao sistema e aos dados
  • Criptografia de dados em repouso e em trânsito
  • Técnicas de privacidade no treinamento (differential privacy, federated learning, onde aplicável)
  • Técnicas de explicabilidade (LIME, SHAP, modelos interpretáveis)
  • Monitoramento de viés por grupos protegidos
  • Testes de adversarial robustness

Medidas organizacionais:

  • Processo de revisão humana para decisões de alto impacto (Art. 20 da LGPD)
  • Canal para solicitação de revisão pelo titular
  • Treinamento da equipe sobre o sistema e suas limitações
  • Processo de gestão de incidentes relacionados ao sistema
  • Revisão periódica do modelo e das suas métricas

Seção 5: Mecanismo de revisão do RIPD

O RIPD para sistemas de IA não é estático — precisa ser revisado:

  • Quando o modelo é significativamente retreinado ou modificado
  • Quando o escopo de uso é ampliado
  • Quando incidentes revelam riscos não previstos
  • Periodicamente (recomendação: ao menos anualmente para sistemas de alto risco)

O risco de viés: documentação específica no RIPD

O risco de viés algorítmico merece atenção especial. Viés em sistemas de IA pode resultar em violação do princípio da não discriminação (Art. 6º, IX da LGPD) e criar responsabilidade jurídica. O RIPD deve documentar:

  • Quais grupos protegidos foram avaliados (gênero, raça/cor, faixa etária, localização, etc.)
  • Quais métricas de equidade foram utilizadas
  • Resultados das análises de viés pré-implantação
  • Medidas tomadas para mitigar viés identificado
  • Como o viés será monitorado pós-implantação

Fontes de viés mais comuns em sistemas de IA:

  • Viés nos dados de treinamento: dados históricos que refletem discriminações passadas
  • Viés de representação: subrepresentação de grupos minoritários nos dados
  • Viés de rotulagem: rótulos atribuídos por humanos que refletem preconceitos
  • Viés de proxy: uso de variáveis correlacionadas com atributos protegidos

RIPD para sistemas de IA de terceiros

Um desafio frequente: a organização usa um sistema de IA desenvolvido por terceiro (modelo de crédito, ferramenta de recrutamento com IA, sistema de análise de sentimentos) sobre o qual tem acesso limitado à documentação técnica.

Nesse caso, o RIPD deve:

  • Documentar o que é conhecido sobre o sistema (a partir da documentação do fornecedor)
  • Identificar os dados que a organização fornece ao sistema
  • Avaliar riscos com base nas capacidades e limitações documentadas
  • Incluir como medida de mitigação a formalização de obrigações contratuais com o fornecedor (DPA com transparência sobre o funcionamento do modelo)
  • Documentar o processo de due diligence realizado sobre o fornecedor

Exemplo simplificado: RIPD para sistema de aprovação de crédito com IA

Descrição: Sistema de machine learning para score de crédito e aprovação automatizada de empréstimos pessoais.

Input: histórico de pagamentos, renda declarada, comportamento em conta, dados de bureau de crédito.

Output: score de 0–1000 + decisão recomendada (aprovar/negar/revisar manualmente).

Titulares: clientes pessoas físicas que solicitam crédito.

Principais riscos e medidas:

  1. Viés discriminatório por dados históricos (alta probabilidade, alto impacto) → análise de viés por gênero e faixa etária antes da implantação; monitoramento mensal pós-implantação
  2. Decisão sem possibilidade de revisão (Art. 20) → canal de contestação integrado ao app; revisão por gerente de crédito em até 5 dias úteis
  3. Opacidade/inexplicabilidade → implementação de SHAP para gerar explicação das 3 principais razões da decisão
  4. Vazamento dos dados de treinamento → criptografia; acesso restrito; ambiente de treinamento segregado

Conclusão

O RIPD para sistemas de IA não é burocracia — é um mecanismo de descoberta e mitigação de riscos. O processo de elaboração frequentemente revela problemas que ninguém havia identificado: viés no dataset de treinamento, ausência de processo de revisão para decisões de alto impacto, dados com base legal inadequada para o uso pretendido.

Organizações que fazem o RIPD antes da implantação têm a oportunidade de corrigir esses problemas. As que não fazem descobrem os problemas quando já causaram dano — para os titulares e para a própria organização. Com o Marco Legal de IA (PL 2.338/2023) aprovado pelo Senado e em análise na Câmara em 2026, a avaliação de impacto de sistemas de IA de alto risco deve se tornar uma obrigação formal — o que torna o RIPD ainda mais estratégico como ferramenta de conformidade antecipada.


A Confidata estrutura o RIPD para sistemas de IA com campos específicos para documentação técnica de modelos, avaliação de viés e mecanismos de revisão de decisões automatizadas — integrando conformidade LGPD com boas práticas de AI governance.

Compartilhar
#RIPD#DPIA#inteligência artificial#avaliação de impacto#LGPD#Art. 38#machine learning

Artigos relacionados

Quer ir além? Conheça o Confidata

Sistema completo de gestão de conformidade LGPD com IA integrada para acelerar seu programa de privacidade.

© 2026 Confidata — Todos os direitos reservados|Privacidade|Cookies
Falar com especialista