Como este tema funciona na sua empresa
Provavelmente não é afetada (a menos que venda IA para Europa). Se vende, precisa entender se produto é alto risco e qual conformidade é exigida. Pode terceirizar conformidade.
Se tem operação ou clientes na Europa, conformidade é obrigatória. Impacto moderado se produto é baixo risco, maior se alto risco. Implementação: 3–6 meses.
Se opera na Europa ou vende para Europa, conformidade é mandatória. Impacto significativo: compliance team dedicada, integração com governance, auditoria periódica, possível redesign.
EU AI Act é regulação europeia mais rigorosa sobre IA que classifica sistemas por risco (proibido, alto, transparência, baixo) e exige requisitos específicos por nível. Afeta empresas que vendem para Europa ou operam infraestrutura europeia[1].
Quem é afetado e quando entra em vigor
EU AI Act se aplica a: fornecedores de sistemas de IA (você desenvolve e vende), usuários de IA de alto risco (empresa que usa IA em contexto de alto risco), distribuidores (você revende IA). Localização física não importa — se você vende para Europa, está sujeito. Cronograma: Proibições (mass surveillance biométrica) já em vigor. Alto risco: 2026–2027. Outros requisitos: escalonado até 2027.
Impacto: se você tem cliente na Europa, precisa estar em conformidade. Não está? Risco: bloqueio de venda, multa (até 7% receita global), processo legal[2].
Impacto direto é baixo se não opera na UE. Mas se fornece software ou serviço para empresa europeia, pode ser afetada. Monitorar requisitos de clientes internacionais é suficiente por enquanto.
Avaliar se algum produto, serviço ou cliente cai no escopo do AI Act. Se sim, mapear quais sistemas de IA estão em uso e em qual categoria de risco. Compliance proativo evita surpresa contratual.
Montar task force jurídico-técnica para mapear todos os sistemas de IA contra as categorias do AI Act. Documentação de conformidade e avaliação de risco são requisitos — não opcionais para quem opera na UE.
Classificação de risco: proibido, alto, transparência, baixo
Proibido: mass surveillance biométrica, análise de emoções em determinados contextos, credit scoring sem intervenção humana (certos casos). Alto risco: sistemas que afetam direitos fundamentais (contratação, educação, justiça, serviços públicos, acesso a crédito). Transparência: chatbots, deepfakes — usuário deve saber que fala com IA. Baixo risco: resto (análise interna, recomendações não críticas).
Para cada nível, requisitos diferentes. Sua responsabilidade: classificar seu sistema corretamente, implementar requisitos.
Requisitos por categoria: documentação, testes, auditoria, transparência
Alto risco: documentação técnica, testes de viés, monitoramento contínuo, auditoria periódica, explicabilidade, data sheets sobre modelo. Transparência: divulgar ao usuário que está falando com IA (chatbot precisa informar). Baixo risco: documentação básica, conformidade mínima. Proibido: não implementar, ponto.
Esforço de conformidade: varia muito. Sistema simples (chatbot de FAQ) = conformidade transparência é fácil. Sistema complexo (decisão de crédito) = teste de viés, auditoria, documentação técnica leva semanas.
Processo de conformidade: avaliação, classificação, implementação, auditoria
Passo 1: Classificar seu sistema (é proibido? alto risco? transparência? baixo?). Passo 2: Implementar requisitos associados à categoria. Passo 3: Documentar (crie data sheet de modelo, documentação técnica, registro de decisões). Passo 4: Teste de conformidade (você atende todos requisitos?).
Passo 5: Auditoria (terceiro independente valida conformidade). Passo 6: Documentação de conformidade (arquivo completo guardado, pronto para regulador). Tempo total: 3–6 meses para sistema simples, 6–12 meses para sistema complexo.
Penalidades e proteção legal
Multa por não conformidade: até 7% de receita global (faturamento global, não só receita da Europa). Além disso: bloqueio de venda na Europa, processo legal, dano reputacional. Proteção: se você pode demonstrar conformidade (documentação completa, auditoria realizada), proteção legal é forte contra multa.
Recomendação: começar conformidade agora. Custo de conformidade hoje << custo de multa depois. Além disso, conformidade com EU AI Act oferece baseline para regulações em outros países (Lei de IA brasileira, regulações dos EUA).
Sinais de que seu sistema pode estar em risco com EU AI Act
- Seu sistema afeta decisão sobre pessoa (contratação, crédito, educação) e você nunca testou viés.
- Você vende para Europa mas não conhece EU AI Act.
- Seu sistema usa biometria ou análise de emoções.
- Sem documentação de dados de treino, testes, decisões de design.
- Seu sistema está em produção na Europa mas não passou por auditoria.
Caminhos para conformidade com EU AI Act
Viável se tem equipe técnica experiente em compliance.
- Tempo: 3–6 meses (sistema simples) a 6–12 meses (complexo)
- Faz sentido quando: pequena/média empresa, sistema simples ou tempo disponível
Indicado para garantir conformidade defensável, sistema complexo.
- Fornecedor: consultoria de compliance de IA, auditores independentes
- Resultado: implementação guiada, auditoria, data sheets, documentação completa
Precisa de apoio para conformidade com EU AI Act?
Se conformidade EU AI Act é prioridade, oHub conecta você gratuitamente a consultores especializados. Em menos de 3 minutos, descreva sua necessidade e receba propostas, sem compromisso.
Encontrar fornecedores de TI no oHub
Sem custo, sem compromisso. Você recebe propostas e decide se e com quem avançar.
Perguntas frequentes
Meu sistema é simplesmente um chatbot. Preciso de mais?
Sim, transparência mínima: chatbot deve informar ao usuário que é IA. Se é chatbot de atendimento ao cliente, teste viés também (pode estar discriminando). Esforço: documentação mínima, teste, comunicação ao usuário.
Qual é custo de conformidade?
Varia: chatbot simples = R$ 10k–30k (documentação, transparência). Sistema alto risco = R$ 50k–200k+ (testes completos, auditoria, redesign potencial).
Quem auditada conformidade EU AI Act?
Você pode fazer auto-avaliação. Para maior credibilidade legal: auditores independentes certificados em AI governance (não ainda formalizado, mas consultores com expertise em compliance).
E se vendo para Europa mas não estou conforme quando Lei entrar em vigor?
Risco alto: bloquei de venda, multa, processo. Recomendação: começar conformidade antes de 2026. Custo de conformidade agora << multa se descoberto fora de conformidade.
EU AI Act se aplica mesmo se uso API de terceiro (ex: OpenAI)?
Depende. Se você desenvolver sistema usando API e vender: sim, você responde pela conformidade. Se cliente usa API diretamente: cliente responde. Sempre clareza em contrato sobre quem é responsável.