LGPD e ChatGPT nas Empresas — Riscos, Controles e Política de Uso
Em abril de 2023, engenheiros da Samsung Semiconductor colaram código-fonte proprietário e transcrições de reuniões internas no ChatGPT em três incidentes separados — buscando correções de código e geração de atas. Os dados entraram no corpus de treinamento da OpenAI e não puderam ser recuperados. A Samsung baniu o uso de IA generativa na empresa, conduziu investigações disciplinares e posteriormente desenvolveu uma ferramenta de IA interna.
O caso Samsung não é isolado. Pesquisas indicam que 15% dos funcionários compartilham regularmente dados sensíveis com o ChatGPT no ambiente corporativo. E no Brasil, a LGPD impõe obrigações específicas quando dados pessoais de clientes, funcionários ou parceiros são inseridos em ferramentas de IA generativa.
Este guia aborda os riscos concretos, os controles técnicos disponíveis e como estruturar uma política de uso de IA generativa que proteja sua organização.
Quais são os riscos reais de funcionários usando ChatGPT no trabalho?
Os riscos não são teóricos. Quando um funcionário digita um prompt no ChatGPT, os dados saem do perímetro da empresa e são processados por um terceiro. Na versão gratuita, esses dados podem ser usados para treinar modelos futuros da OpenAI.
Cenários de risco concretos
Dados de clientes em prompts: "Resuma este contrato com o cliente João Silva, CPF 123.456.789-00, valor R$ 500 mil" — dados pessoais e informações comerciais sigilosas enviados à OpenAI.
Código-fonte proprietário: exatamente o que ocorreu na Samsung. Desenvolvedores colam código para obter correções ou otimizações, expondo propriedade intelectual.
Dados de funcionários: "Escreva um feedback de desempenho para Maria, que está na empresa há 3 anos e teve problemas de saúde no último trimestre" — dados pessoais sensíveis (saúde) enviados sem base legal.
Documentos internos: relatórios financeiros, planos estratégicos, atas de reunião com informações confidenciais.
Dados de saúde e dados sensíveis: profissionais de saúde que inserem informações de pacientes buscando apoio diagnóstico ou redação de laudos.
Quem é o controlador quando o funcionário usa ChatGPT para trabalho?
A resposta depende do contexto:
- Uso institucional (empresa contratou ChatGPT Enterprise/Team): a empresa é controladora, a OpenAI é operadora. A empresa define finalidades e meios — e responde por incidentes.
- Uso individual do funcionário (conta pessoal): zona cinzenta. Se o funcionário usa para fins de trabalho, a empresa pode ser considerada controladora dos dados pessoais de terceiros que foram inseridos na ferramenta — mesmo sem ter contratado o serviço.
- Shadow AI: quando funcionários usam IA generativa sem autorização da empresa. A organização pode ser responsabilizada mesmo sem saber do uso.
O que acontece com os dados no ChatGPT? Comparação entre versões
Nem todo ChatGPT é igual. As diferenças de privacidade entre versões são substanciais:
ChatGPT Free e Plus
| Aspecto | Tratamento |
|---|---|
| Treinamento | Dados usados para treinar modelos por padrão (opt-out disponível em Configurações > Controles de Dados) |
| Retenção | Conversas retidas indefinidamente; chats deletados purgados em 30 dias |
| Criptografia | TLS padrão em trânsito |
| Compliance | Nenhuma certificação |
| Residência de dados | Apenas EUA |
ChatGPT Team e Enterprise
| Aspecto | Tratamento |
|---|---|
| Treinamento | Nunca — dados não são usados para treinar modelos |
| Retenção | Configurável; opção de zero data retention via API |
| Criptografia | AES-256 em repouso + TLS 1.2+ em trânsito; Enterprise Key Management disponível |
| Compliance | SOC 2 Type 2, CSA STAR, alinhado com ISO 27001/27017/27018/27701; HIPAA BAA disponível |
| Residência de dados | Múltiplas regiões (EUA, Europa, Reino Unido, Japão, Canadá, Coreia do Sul, entre outras) |
| Controles admin | SSO, SCIM, controle total sobre contas e conteúdo |
Conclusão prática: a versão gratuita/Plus do ChatGPT é incompatível com a maioria dos cenários corporativos que envolvem dados pessoais sob a LGPD. A versão Enterprise/Team oferece garantias significativamente melhores — mas ainda requer DPA formalizado e avaliação de transferência internacional.
Termos de uso: OpenAI, Google e Anthropic — o que muda
Para uso empresarial (API e versões corporativas)
Os três principais fornecedores convergiram para garantias similares no tier empresarial:
- OpenAI (Enterprise/API): não treina com dados do cliente; SOC 2 Type 2; HIPAA BAA; residência de dados em 10+ regiões; Enterprise Key Management
- Google (Gemini para Workspace/Vertex AI): não treina com dados do cliente; SOC 2/3; ISO 27001; HIPAA BAA; dados permanecem no Google Cloud com controles regionais
- Anthropic (Claude for Work/API): não treina com dados da API; SOC 2 Type 2; retenção de logs reduzida a 7 dias; acordo de Zero Data Retention disponível; indenização por direitos autorais
Para uso pessoal/gratuito
| Aspecto | ChatGPT (Free) | Gemini (Free) | Claude (Free) |
|---|---|---|---|
| Treina com dados | Sim (opt-out) | Sim (revisão humana possível) | Usuário escolhe ao se cadastrar |
| Retenção | Indefinida | 18 meses (ajustável) | ~30 dias se recusou; até 5 anos se aceitou |
Ponto crítico para a LGPD: quando a versão gratuita treina com os dados, os dados pessoais inseridos pelo funcionário se tornam parte do modelo — e o Art. 15 da LGPD (eliminação de dados) se torna tecnicamente impossível de cumprir.
Azure OpenAI vs. API direta da OpenAI — diferenças de processamento
Para empresas que querem usar modelos da OpenAI com mais controle, a Microsoft oferece o Azure OpenAI Service. As diferenças são significativas:
| Aspecto | Azure OpenAI | OpenAI API direta |
|---|---|---|
| Isolamento | Operado inteiramente pela Microsoft; dados nunca enviados à OpenAI | Processado diretamente pela OpenAI |
| Treinamento | Nunca usado para treinar modelos | Não usado para treino (API); versão gratuita pode ser usada |
| Rede | Private Endpoints dentro do VNet do cliente; tráfego não passa pela internet pública | Endpoints públicos |
| Residência de dados | Escolha de região Azure — incluindo Brazil South | Baseado nos EUA |
| Compliance | GDPR, HIPAA, ISO 27001, SOC 2, FedRAMP | SOC 2 Type 2 |
Implicação para LGPD: o Azure OpenAI permite implantar modelos na região Brazil South, mantendo dados dentro do Brasil. A API direta da OpenAI roteia todos os dados por servidores nos EUA — configurando transferência internacional de dados (Art. 33 da LGPD). Para empresas brasileiras, o Azure oferece uma vantagem regulatória significativa.
Modelo de política de uso de IA generativa para empresas
Uma política de uso eficaz deve cobrir cinco dimensões:
1. Ferramentas autorizadas
A [EMPRESA] autoriza o uso das seguintes ferramentas de IA generativa
para fins profissionais:
- [ChatGPT Enterprise / Azure OpenAI / Claude for Work — listar]
É PROIBIDO o uso de versões gratuitas ou pessoais de ferramentas de
IA generativa (ChatGPT Free, Gemini Free, Claude Free, etc.) para
qualquer atividade que envolva dados da empresa, clientes, parceiros
ou funcionários.
2. Dados proibidos em prompts
É PROIBIDO inserir nas ferramentas de IA generativa:
- Dados pessoais identificáveis (nome, CPF, RG, endereço, telefone)
- Dados pessoais sensíveis (saúde, biometria, religião, orientação sexual)
- Dados financeiros de clientes ou da empresa
- Código-fonte proprietário ou segredos de negócio
- Documentos classificados como confidenciais ou restritos
- Dados de menores de idade
- Senhas, tokens de acesso ou credenciais
Em caso de dúvida, consulte o DPO antes de inserir qualquer
informação na ferramenta.
3. Boas práticas
Ao utilizar IA generativa autorizada:
- Anonimize dados antes de inserir (substitua nomes por "Pessoa A",
CPFs por "XXX.XXX.XXX-XX")
- Não copie e-mails inteiros com dados de clientes
- Revise as respostas da IA antes de usar — IA generativa pode
produzir informações incorretas
- Não confie na IA para aconselhamento jurídico, médico ou contábil
sem revisão profissional
- Registre o uso de IA em entregas que serão publicadas ou enviadas
a terceiros
4. Responsabilidades
- O DPO é responsável por aprovar novas ferramentas de IA generativa
- O gestor de TI é responsável por configurar controles técnicos (DLP)
- Cada funcionário é responsável pelo conteúdo que insere nas ferramentas
- Violações desta política sujeitam o colaborador a medidas disciplinares
5. Revisão periódica
Esta política será revisada a cada 6 meses ou sempre que houver:
- Mudança nas ferramentas autorizadas
- Nova regulamentação da ANPD sobre IA
- Incidente envolvendo uso de IA generativa
RIPD antes de adotar IA generativa corporativa
O Art. 5º, XVII da LGPD define o RIPD como documentação que descreve processos de tratamento que podem gerar riscos às liberdades civis e direitos fundamentais dos titulares. A adoção de IA generativa no ambiente corporativo aciona múltiplos gatilhos para elaboração de RIPD:
- Uso de novas tecnologias — IA generativa é, por definição, nova tecnologia
- Potencial para decisões automatizadas — Art. 20 da LGPD
- Transferência internacional de dados — se a ferramenta processa dados fora do Brasil
- Tratamento em larga escala — quando muitos funcionários usam a ferramenta diariamente
O que o RIPD deve cobrir
- Mapeamento de dados: quais dados pessoais serão inseridos (prompts com nomes, CPFs, dados de clientes)
- Base legal: legítimo interesse, consentimento ou outra base adequada
- Transferência internacional: a ferramenta processa dados fora do Brasil?
- Medidas de segurança: DLP, política de uso, treinamento, versão enterprise
- Direitos dos titulares: como garantir acesso, correção e eliminação quando dados estão em sistemas de IA
- Riscos identificados: vazamento, reidentificação, uso para treinamento de modelos
- Medidas mitigadoras: versão enterprise (sem treinamento), anonimização prévia, controles de acesso
Consulte o guia completo sobre como elaborar um RIPD.
Treinamento de funcionários — o que pode e o que não pode
O treinamento é a medida mais custo-efetiva. Um programa de treinamento em proteção de dados específico para IA generativa deve cobrir:
O que comunicar
O que NÃO pode:
- Colar dados de clientes em prompts
- Usar versões gratuitas para trabalho
- Confiar cegamente nas respostas (alucinações)
- Usar IA para tomar decisões sobre pessoas sem revisão humana
O que PODE (com controles):
- Usar ferramentas autorizadas para redigir textos genéricos
- Pedir ajuda com código (sem dados proprietários)
- Resumir documentos públicos
- Brainstorming e geração de ideias
Formato recomendado
- Treinamento obrigatório antes de liberar acesso à ferramenta
- Reforço trimestral com exemplos de incidentes reais (como o caso Samsung)
- Canal direto com o DPO para dúvidas antes de usar IA com dados sensíveis
Monitoramento de uso — DLP e controles técnicos
Política sem monitoramento é papel. Ferramentas de DLP (Data Loss Prevention) evoluíram para interceptar dados sensíveis antes que cheguem a ferramentas de IA generativa:
Soluções disponíveis
| Ferramenta | Capacidade para IA generativa |
|---|---|
| Microsoft Purview DLP | Monitora ChatGPT, Gemini, DeepSeek, Copilot; integra com Edge for Business |
| Palo Alto Networks Enterprise DLP | Inspeção de conteúdo inline para ChatGPT; bloqueia dados sensíveis sem bloquear a ferramenta |
| Netskope | CASB + DLP; monitoramento em tempo real de apps de IA generativa |
| Nightfall AI | Escaneamento de prompts em tempo real; detecta PII, PHI e segredos antes de entrarem na IA |
| Cyberhaven | Rastreamento de linhagem de dados com IA; cobre uploads web, e-mail e ferramentas de IA generativa |
Capacidades modernas de DLP para IA
- Detecção de conteúdo baseada em IA — vai além de regex e palavras-chave
- Rastreamento de linhagem de dados — identifica origem e movimento dos dados
- Interceptação no navegador — bloqueia dados sensíveis em ferramentas web
- Descoberta de shadow AI — detecta uso não autorizado de ferramentas de IA generativa
- Redação automática — remove dados sensíveis do prompt antes de enviar à IA
O que a ANPD já fez sobre IA generativa
A ANPD não tem regulamentação específica para uso corporativo de IA generativa, mas já tomou ações relevantes:
Radar Tecnológico — IA Generativa
A ANPD publicou o terceiro volume do "Radar Tecnológico" focado em IA generativa, analisando scraping de dados, geração de conteúdo sintético e compartilhamento de dados pessoais em sistemas de IA — avaliados contra os princípios da LGPD.
Caso Meta (julho de 2024)
A ANPD emitiu medida preventiva suspendendo a nova política de privacidade da Meta que permitia usar dados de Facebook e Instagram para treinar o Meta AI no Brasil. Multa: R$ 50 mil/dia por descumprimento. A Meta foi obrigada a cumprir imediatamente e assinou Plano de Conformidade em agosto de 2024.
Investigação OpenAI
A ANPD investigou se a OpenAI violou o Art. 48 da LGPD (notificação obrigatória de incidentes) após credenciais de aproximadamente 100 mil usuários brasileiros do ChatGPT serem comprometidas por malware do tipo info-stealer. O Brasil foi o terceiro país mais afetado.
Essas ações sinalizam que a ANPD está atenta ao ecossistema de IA generativa e seus riscos para a privacidade.
Checklist para empresas que usam IA generativa
- Inventário de todas as ferramentas de IA generativa em uso (incluindo shadow AI)
- Política de uso de IA generativa aprovada e comunicada a todos os funcionários
- Versão enterprise contratada (sem treinamento com dados, com DPA formalizado)
- RIPD elaborado antes da adoção institucional
- Base legal documentada para o tratamento de dados via IA generativa
- Avaliação de transferência internacional de dados (Art. 33 LGPD)
- DLP implementado para interceptar dados sensíveis em prompts
- Treinamento obrigatório para todos os usuários
- Canal de dúvidas com o DPO para uso de IA com dados pessoais
- Processo para atender pedidos de revisão de decisões automatizadas (Art. 20 LGPD)
- Cláusulas contratuais com o fornecedor de IA alinhadas à LGPD
- Revisão periódica da política (mínimo semestral)
- Monitoramento de uso efetivo (logs, DLP, auditorias)
- Plano de resposta a incidentes atualizado para cobrir vazamentos via IA
Conclusão
IA generativa não é mais uma curiosidade — é uma ferramenta de trabalho que já está dentro da sua empresa, autorizada ou não. O risco de não agir é duplo: vazamento de dados pessoais e confidenciais (com potencial sanção da ANPD) e perda de propriedade intelectual (como no caso Samsung).
A abordagem correta não é proibir — é governar. Contrate a versão enterprise, implemente controles técnicos, treine os funcionários e documente tudo. A governança de IA é uma extensão natural do programa de proteção de dados — e será cada vez mais exigida à medida que a regulamentação avança.
A Confidata oferece funcionalidades para governança de IA e proteção de dados corporativos: inventário de atividades de tratamento com classificação de sistemas de IA, RIPD com campos específicos para avaliação de impacto de IA generativa e gestão de políticas internas — permitindo documentar e evidenciar conformidade com a LGPD no uso de inteligência artificial.
Artigos relacionados
Quer ir além? Conheça o Confidata
Sistema completo de gestão de conformidade LGPD com IA integrada para acelerar seu programa de privacidade.