Como este tema funciona no porte da sua empresa
Você quer usar ChatGPT para rascunho, mas tem medo de colocar CPF de cliente e violar LGPD. Realidade: anonimize antes (tire CPF, coloque "Cliente X"), coloque em IA, depois re-personalize. Risco é baixo se você não coloca dado sensível.
Você tem CRM com clientes. Risco: IA de marketing lendo base de cliente para gerar campanha, dados podem ser retidos por OpenAI (se usar free). Solução: contrato com fornecedor de IA + cláusula de não-retenção. Ou use ChatGPT Business plan (não treina em seus dados).
Você pode ter projeto de IA maior (análise preditiva, recomendação). Risco: exposição involuntária durante integração de sistemas (spillover de dados). Solução: DPA formal com provedor de IA, audit trail de dados, anonimização antes do uso. ANPD pode auditar.
IA e LGPD na PME é a intersecção entre usar IA generativa (ChatGPT, Claude) para ganhar eficiência E cumprir Lei Geral de Proteção de Dados (LGPD) que protege dados pessoais de cliente. Não é proibição de IA — é usar IA sem expor CPF/email/dados sensíveis de cliente involuntariamente.
O que a LGPD diz sobre IA e dados pessoais
LGPD art. 7º diz que você precisa de base legal para processar dado pessoal. As 3 bases mais práticas são: (1) consentimento do titular (cliente autoriza explicitamente), (2) contrato (você usa IA para cumprir contrato com cliente), (3) interesse legítimo (bem documentado e comunicado).
LGPD art. 9º diz que dado sensível (saúde, financeiro, biometria) é ainda mais protegido. Você precisa de consentimento explícito (não vale interesse legítimo).
LGPD art. 32 diz que você deve proteger dado com criptografia e medidas de segurança. Se você coloca CPF de cliente em ChatGPT free (que treina em seus prompts), você violou art. 32 (dado exposto sem proteção adequada).
Resolução ANPD sobre IA (2024) recomenda: usar IA responsável, documentar decisões de IA, auditar outputs de IA antes de publicar.
Quando é SEGURO colocar dados em IA generativa
SEGURO: Dados anonimizados (você tirou CPF, email, qualquer identificador). Exemplo: "Cliente quer mudar de fornecedor, argumentos são X, Y, Z — como respondo?" (nenhum dado pessoal). "Resuma esse contrato de venda de equipamento" (nenhuma informação de cliente específico).
NÃO SEGURO: Dados com identificador. Exemplo: "Meu cliente João Silva (CPF 123.456.789-00) quer desconto — o que ofereço?" (você expôs CPF + nome). "Email do cliente é [email protected] — como faço campanha?" (você expôs email).
Regra simples: antes de colocar em IA, pergunte "esse dado precisa estar pessoalmente identificável?". Se não, tire identificador. Se sim, não coloque em IA free.
DPA (Data Processing Agreement): quando você precisa?
DPA é contrato entre você (controlador de dados) e fornecedor de IA (processador de dados). Ele diz: você (OpenAI, Anthropic) não vai treinar em meus dados, não vai compartilhar, vai deletar depois de 30 dias, etc.
Para PME pequena: não é obrigatório (informalmente, você pode usar IA com cuidado). Para PME pequena-média: recomendado em escrito. Para média: obrigatório (ANPD espera em auditorias).
Fornecedores principais: OpenAI oferece Business plan (DPA incluso, não treina em seus dados). Anthropic não treina em dados de usuários (política padrão). Google Workspace com IA (depende do plano).
Se você usa ChatGPT free ou Plus, seu dados podem ser usados para treinar (ler ToS). Business plan não.
Anonimização vs Pseudonimização: qual é melhor?
Anonimização real: Você remove todos os identificadores de forma irreversível. Exemplo: "123 clientes compraram produto X" (você não sabe quem são). Dessa forma, LGPD não se aplica (não é mais dado pessoal). IA pode processar sem restrição.
Pseudonimização: Você substitui identificador por código (João ? Cliente001). Mas código pode ser revertido (você tem tabela: Cliente001 = João). LGPD se aplica ainda (é reversível). IA não pode processar sem DPA.
Na prática: anonimização real é rara (você precisa de código para depois rastrear resultado). Pseudonimização é comum (você coloca "Cliente X" em vez de "João", mas lembr que ainda é protegido).
Enterprise SaaS de IA sem treinamento em seus dados
OpenAI Business plan (US$ acima de certo threshold): Não treina em seus prompts. Dados são deletados após 30 dias. Ideal se você processa dados de cliente.
Anthropic (Claude): Política padrão: não treina em dados de usuários (nem free, nem pago). Ideal se você quer garantia.
Microsoft Copilot (depende do plano): Enterprise plans não treinam em seus dados. Planos pessoais/básicos podem.
Se você usa IA free (ChatGPT free, Google Gemini free), sua dados podem ser usados para treinar. Leia ToS antes de colocar algo sensível.
Política interna: template de dados permitidos e proibidos em IA
Crie documento interno simples: "Dados Permitidos em IA" e "Dados Proibidos".
PERMITIDO: Documentos internos sem informação de cliente (processo, template, ideia), feedback genérico ("como melhorar campanha de email?"), análise sem dado pessoal.
PROIBIDO: CPF, email, telefone, endereço, informação bancária, dado de saúde, qualquer coisa que identifique cliente. Se você tem dúvida, não coloque.
Treinar equipe em 1 reunião (15 min) é suficiente. Depois, auditoria ocasional: você vê o que time está colocando em IA (checar logs se plataforma tem).
Sinais de que você precisa estruturar IA com compliance LGPD
Se você se reconhece em três ou mais cenários abaixo, política de IA é urgente:
- Você usa ChatGPT com dados de cliente mas não sabe se é legal
- Não tem contrato escrito com o provedor de IA que usa
- Já colocou informações sensíveis de cliente em IA e agora fica em dúvida
- Time sugeriu IA para análise de dados mas você tem medo de LGPD
- Você processa dado pessoal (CRM com clientes) e quer integrar IA
Caminhos para usar IA em compliance com LGPD
Você cria política simples (dados permitidos vs proibidos). Usa IA com cuidado (anonimiza antes). Plano de contrato: se processa muita dado, migra para OpenAI Business ou Anthropic (que não treinam).
- Perfil necessário: Você + alguém que entenda dados. 2 horas para policy + 1 reunião com time.
- Tempo estimado: 1 semana design + 1 semana treinamento = 2 semanas até implementação.
- Faz sentido quando: PME pequena, você processa pouco dado sensível, quer solução rápida.
- Risco principal: Policy inadequada (deixa brecha) ou time não segue.
Advogado especialista em LGPD + consultor IA desenham policy formalizada, negociam DPA com fornecedor, treinam time, auditam depois.
- Tipo de fornecedor: Advogado especialista em LGPD, Consultoria de Conformidade, Especialista em IA responsável.
- Vantagem: Policy juridicamente sólida, DPA negociado, tranquilidade.
- Faz sentido quando: Você processa muito dado sensível. Quer garantia legal. PME médio.
- Resultado típico: Policy em 2 semanas, DPA em 2-4 semanas, treinamento completo.
Quer ajuda para estruturar IA em compliance com LGPD?
Usar IA sem conformidade pode resultar em multa ANPD (até R$ 50 milhões por violação séria). Na oHub, você se conecta com advogados especialistas em LGPD, consultores de IA responsável, e especialistas em conformidade que já ajudaram PMEs a estruturar política de IA segura. Eles criam policy, negociam DPA, treinam time, auditam. Sem custo inicial, sem compromisso.
Encontrar fornecedores de PME no oHub
Sem custo, sem compromisso. Você recebe propostas e decide se e com quem avançar.
Perguntas frequentes
Posso usar ChatGPT com dados de clientes na minha PME?
Apenas se dados são anonimizados (nenhum identificador). Se usa ChatGPT free, seus dados podem ser treinados. Se usa Business plan, não. Leia ToS da ferramenta antes.
IA generativa viola LGPD se eu inserir dados pessoais no prompt?
Potencialmente sim (se para fim não autorizado). Melhor prática: não coloque. Se precisa, anonimize. Se usa tool que não treina (Business plan, Anthropic), risco é menor.
Preciso de consentimento do cliente para usar IA com dados dele?
Depende. Se é para cumprir contrato com cliente (análise para melhorar serviço), interesse legítimo vale. Se é para outro fim (treino em dados dele), precisa consentimento explícito. Documenta a base legal.
Qual é a diferença entre DPA e contrato normal?
DPA é contrato específico de proteção de dados entre controlador (você) e processador (IA). Contrato normal é sobre serviço. DPA é adicional (você pode ter ambos).
Anonimização de dados funciona para usar IA de forma segura?
Anonimização real (irreversível) sim. Pseudonimização (reversível) não — LGPD ainda se aplica. Cheque que anonimização é de verdade (não dá pra re-identificar).
Como auditar se a IA que uso respeita LGPD?
Leia ToS + checklist: (1) a IA treina em meus dados? (2) dados são deletados quando? (3) há criptografia? (4) quem pode acessar dados? (5) há DPA disponível? Se respostas forem boas, IA é segura.
Fontes e referências
- ANPD. Guias e Orientações sobre IA. Disponível em: https://www.gov.br/anpd/pt-br
- Anthropic. Research & Safety. Disponível em: https://www.anthropic.com/research
- OpenAI. Business & Enterprise. Disponível em: https://openai.com/enterprise
- NIST. AI Risk Management Framework 2024. Disponível em: https://www.nist.gov/artificial-intelligence
- Lei Geral de Proteção de Dados (LGPD). Lei 13.709/18, Brasil.