oHub Base TI IA e Transformação Digital Fundamentos de IA para Gestores

Glossário de IA para gestores

Os termos essenciais de IA que todo gestor precisa entender para conversar com técnicos e fornecedores.
Atualizado em: 26 de abril de 2026
Neste artigo: Como este tema funciona na sua empresa Termos sobre dados — porque qualidade de dados determina sucesso de IA Termos sobre modelo — como IA funciona internamente Termos sobre performance — como saber se modelo funciona Termos sobre tipo de aprendizado — como modelo aprende Termos sobre validação — como evitar que IA quebre em produção Termos sobre IA generativa — porque é diferente de IA tradicional Termos sobre ética e governança — porque IA precisa de supervisão Termos sobre infraestrutura — porque tecnologia afeta custo e velocidade Termos mais críticos por contexto de uso Sinais de que você precisa de glossário corporativo Como usar glossário: implementação por porte Quer entender melhor como termos se aplicam à sua empresa? Perguntas frequentes Qual é a diferença entre parâmetro e hiperparâmetro? Por que precisar entender essas métricas se fornecedor apresenta resultado? Overfitting é sempre ruim? Quanto custa rodar modelo em inferência? Qual é a diferença entre modelo pré-treinado e modelo customizado? Preciso entender matemática por trás de IA para usar? Fontes e referências
Compartilhar:
Este conteúdo foi gerado por IA e pode conter erros. ⚠️ Reportar | 💡 Sugerir artigo

Como este tema funciona na sua empresa

Pequena empresa

Você não tem equipe IA. Quando fala com consultores externos, vocabulário é denso. Glossário funciona como "cheat sheet" para não parecer perdido, entender proposta melhor, fazer pergunta certa.

Média empresa

Tem alguns técnicos, mas nem sempre especialista em IA. Equipe de negócio e TI falam linguagens diferentes. Glossário funciona como "dicionário corporativo" distribuído antes de projeto para alinhar terminologia.

Grande empresa

Múltiplos times de IA com terminologia inconsistente. Fornecedores usam termos com definições fluidas. Glossário funciona como base para padronização corporativa, pode ser estendido com termos específicos internos.

Glossário de IA é conjunto essencial de termos que aparecem em 95% das conversas sobre IA em contexto corporativo. Não é dicionário exaustivo (que teria 500+ termos); é referência prática de 30–40 conceitos críticos para gestor conversar com técnicos, fornecedores e entender proposta IA. Cada termo é explicado em linguagem simples, com exemplo corporativo reconhecível[1].

Termos sobre dados — porque qualidade de dados determina sucesso de IA

Dataset: Conjunto de dados históricos usado para treinar modelo IA. Exemplo: 10 mil emails com classificação "spam" ou "legítimo" é dataset. Tamanho e qualidade do dataset determinam se IA aprende bem ou não.

Dados estruturados vs. não-estruturados: Estruturados = organizados em tabelas (coluna: nome, idade, cidade). Não-estruturados = texto livre, imagem, vídeo, áudio. IA moderna funciona melhor com não-estruturado; histórico requeria estruturado.

Labeled data (dados rotulados): Dados históricos onde resposta correta já foi documentada. Exemplo: foto de gato com label "gato", foto de cachorro com label "cachorro". Necessário para IA supervisionada aprender.

Features (características): Variáveis que IA usa para fazer previsão. Se vai prever evasão de cliente, features podem ser: tempo de contrato, frequência de uso, reclamações registradas. Escolher boas features é arte e ciência.

Bias (viés) em dados: Dados históricos que refletem preconceito ou desequilíbrio. Exemplo: dataset de fotos faciais com 90% rostos brancos. IA treinada vai funcionar mal com faces de outras etnias. Viés em dados causa viés em modelo.

Data leakage (vazamento de dados): Quando informação do resultado final "vaza" para dados de treino acidentalmente. Modelo aprende a resposta "certa" não por padrão real, mas por acesso a informação que não teria em cenário real. Destrui validação de modelo.

Termos sobre modelo — como IA funciona internamente

Modelo: Estrutura matemática que IA usa para fazer previsão/decisão. Pense como "cérebro" que aprendeu padrões. Um modelo treinado é arquivo que você pode usar para fazer previsão instantânea.

Algoritmo: Passo-a-passo matemático de como modelo aprende ou faz previsão. Exemplo: regressão linear, árvore de decisão, rede neural. Não confunda com modelo; algoritmo é "receita", modelo é "bolo já feito".

Parâmetros: Números internos que IA ajusta durante treinamento para fazer previsão mais precisa. Pense como "memória" do modelo. Modelo grande pode ter bilhões de parâmetros. Não precisa entender valores; precisa entender que são esses números que diferem um modelo treinado de outro.

Hiperparâmetros: Configurações que você define antes de treinar (velocidade de aprendizado, número de camadas). Diferente de parâmetros que modelo aprende sozinho. Analogia: parâmetros = receita; hiperparâmetros = temperatura do forno (você escolhe, afeta resultado).

Treinamento: Processo de alimentar dados históricos ao modelo para que ajuste parâmetros. Iterativo: vê dado, faz previsão, compara com resultado real, ajusta. Repete 1000x até convergir. Analogia: aprender a dirigir — pratica mil vezes até ficar bom.

Inferência: Usar modelo treinado para fazer previsão em dado novo. Rápido (milissegundos) e barato. Treinamento é caro e lento; inferência é barata e rápida. Analogia: estudar é caro (treino); prova é rápida (inferência).

Termos sobre performance — como saber se modelo funciona

Acurácia: Percentual de previsões corretas. Se modelo prevê 100 diagnósticos e 85 estão corretos, acurácia é 85%. Métrica simples, mas enganosa se classes desbalanceadas (ex: 99% sem doença, 1% com doença — modelo que só diz "sem doença" tem 99% acurácia, mas é inútil).

Precisão e Recall: Duas métricas diferentes, frequentemente confundidas. Precisão = "de tudo que modelo disse positivo, quanto estava realmente correto". Recall = "de tudo que era realmente positivo, quanto modelo acertou". Analogia médica: precisão = evitar falso-positivo (não preocupar paciente saudável); recall = evitar falso-negativo (não deixar doente sem tratamento). Trade-off: aumentar um diminui o outro.

F1-score: Balanceamento entre precisão e recall. Métrica única que combina as duas. Útil quando você quer um número que representa "performance geral".

AUC (Area Under the Curve): Métrica que mede capacidade de modelo em ranking de previsão. Bom para comparar modelos. Varia de 0 a 1; maior é melhor.

Matriz de confusão: Tabela 2x2 que mostra verdadeiro-positivo, falso-positivo, verdadeiro-negativo, falso-negativo. Ajuda visualizar aonde modelo erra. Não é métrica única; é ferramenta para entender erros.

Termos sobre tipo de aprendizado — como modelo aprende

Supervisionado: Treino com dados labeled (resposta correta conhecida). Modelo aprende mapeamento entrada?saída. Exemplo: treinar com emails rotulados como spam/não-spam. Maioria dos casos corporativos é supervisionado.

Não-supervisionado: Treino sem labels. Modelo encontra padrão sozinho. Exemplo: agrupar clientes por comportamento de compra sem dizer qual grupo é "bom" cliente. Útil para exploração, menos usado em produção corporativa.

Semi-supervisionado: Mix: algumas linhas labeled, maioria não. Útil quando rotular tudo é caro (ex: rotular 10 mil imagens é caro; rotular 100 é viável). Modelo aprende com ambas.

Aprendizado por reforço: Modelo aprende via tentativa-erro com recompensa/punição. Exemplo: algoritmo para jogar xadrez aprende que vitória = recompensa, derrota = punição. Pouco usado em negócio corporativo (complexo, caro). Mais em pesquisa.

Termos sobre validação — como evitar que IA quebre em produção

Overfitting: Modelo memoriza dados de treino em vez de aprender padrão geral. Funciona perfeito em treino, falha em dado novo. Analogia: aluno que decora prova em vez de entender matéria. Detecção: performance em treino alto, em validação baixo.

Underfitting: Modelo é tão simples que não aprende nem padrão óbvio. Performance ruim em treino e validação. Solução: modelo mais complexo, mais dados, mais tempo de treino.

Validação cruzada: Técnica para validar modelo sem separação simples treino/teste. Divide dados em N partes, treina N vezes deixando uma parte para teste cada vez. Mais robusto que uma divisão.

Conjunto de treino/teste/validação: Divisão de dados: treino (aprende), validação (ajusta hiperparâmetros), teste (validação final, nunca toca durante treino). Proporção típica: 70% treino, 15% validação, 15% teste.

Termos sobre IA generativa — porque é diferente de IA tradicional

Token: Unidade de texto que modelo entende. Não é palavra — é pedaço menor. "Gato" pode ser 1 token; "desdobramento" pode ser 2–3. Importante porque cobrada por token (ChatGPT cobra por 1000 tokens, não por palavra).

Temperatura: Controle de "criatividade" de modelo. Baixa (0.0–0.3) = resposta previsível, focada, boa para fato; alta (0.7–1.0) = resposta criativa, variável, boa para brainstorm. Analogia: temperatura = "quanto de risco o modelo toma".

Prompt: Instruções que você dá ao modelo generativo. Exemplo: "Resuma esse contrato em 3 frases". Qualidade de prompt afeta qualidade de resposta. "Prompt engineering" é habilidade de escrever instruções que geram melhor resposta.

Hallucination (alucinação): Quando modelo generativo inventa informação falsa com confiança. Exemplo: ChatGPT inventa citação que não existe. Risco em IA generativa. Mitigação: sempre validar output com fonte.

Chain-of-thought: Técnica onde você pede ao modelo para "pensar passo a passo" antes de responder. Exemplo: em vez de "2+3=?", você pede "Explique como somar 2+3". Melhora acurácia, especialmente em tarefas complexas.

Fine-tuning: Treinar modelo pré-treinado com seus dados específicos para melhorar performance em tarefa sua. Mais rápido e barato que treinar do zero. Exemplo: pegar GPT-3.5 e treinar com seus emails para melhorar tom corporativo.

Termos sobre ética e governança — porque IA precisa de supervisão

Viés: Quando modelo toma decisão que favorece ou prejudica grupo específico injustamente. Origem pode ser viés em dados históricos ou em como modelo foi treinado. Consequência pode ser legal (discriminação) ou reputacional.

Explicabilidade: Capacidade de entender por que modelo tomou decisão específica. "Caixa preta" = modelo é tão complexo que não entende decisão. "Explicável" = consegue rastrear lógica. Importa para conformidade (explicar por que negou crédito) e confiança.

Auditoria de modelo: Processo de validar que modelo funciona como esperado, sem viés, com performance consistente. Pode ser interno ou externo. Importante para conformidade LGPD/AI Act.

Deriva de modelo (model drift): Performance de modelo degrada com o tempo porque padrões nos dados mudaram. Exemplo: modelo de fraude treinado com dados de 2023 fica pior historicamente porque fraude evoluiu. Mitigação: retraining periódico.

Termos sobre infraestrutura — porque tecnologia afeta custo e velocidade

GPU (Unidade de Processamento Gráfico): Processador especializado para IA. Muito mais rápido que CPU (processador normal) para treinar modelos. Custo: R$ 2–10 mil por GPU. Nuvem: você aluga por hora (barato para quem não quer comprar).

TPU (Tensor Processing Unit): Processador mesmo mais especializado que GPU, desenvolvido pelo Google. Mais rápido, mais caro. Disponível via Google Cloud.

Inferência em edge: Rodar modelo diretamente no dispositivo (celular, câmera, IoT) em vez de enviar para servidor na nuvem. Vantagem: mais rápido (sem latência de rede), privado (dados não saem do device). Desvantagem: modelo precisa ser pequeno, leve.

Batch processing: Processar múltiplos dados de uma vez em vez de um por um. Mais eficiente computacionalmente. Desvantagem: latência (demora mais para resultado). Bom para relatórios noturnos; ruim para resposta em tempo real.

Latência: Tempo que leva de "enviar entrada" a "receber resposta". Crítico para aplicações em tempo real (chatbot, recomendação de produto). Medido em milissegundos. Trade-off: modelo mais rápido (latência baixa) vs. modelo mais preciso (latência alta).

Pequena empresa

Use glossário como "cheat sheet" em reunião com consultor. Leia termos mais usados (modelo, dataset, treinamento, acurácia, overfitting) e já melhora qualidade de conversação em 50%.

Média empresa

Distribua glossário para equipe antes de projeto IA. Use como referência para alinhar terminologia entre negócio e TI. Se termo é usado diferente internamente, documente sua definição corporativa.

Grande empresa

Use glossário como base para padrão corporativo. Estenda com termos específicos internos (procesos, sistemas, frameworks proprietários). Distribua via wiki corporativo ou LMS para toda organização.

Termos mais críticos por contexto de uso

Se você vai conversar sobre custo de projeto: dataset, treinamento, inferência, GPU, hiperparâmetros, tempo de implementação.

Se vai avaliar se modelo funciona: acurácia, precisão, recall, F1, AUC, overfitting, validação cruzada, matriz de confusão.

Se vai discutir risk/governança: viés, explicabilidade, auditoria de modelo, deriva de modelo, hallucination.

Se vai negociar com fornecedor de IA generativa: token, temperatura, prompt, fine-tuning, latência, modelo pré-treinado.

Sinais de que você precisa de glossário corporativo

Se reconhece três ou mais, é hora de padronizar terminologia.

  • Times diferentes usam mesmo termo com definições diferentes (model drift vs. data drift confundidos).
  • Reunião com fornecedor IA: gestor se sente perdido, pede pausa frequente para esclarecer termo.
  • Documento de requisitos IA tem ambiguidade em termos-chave (o que significa "alta acurácia" exatamente?).
  • Equipe não consegue validar se modelo realmente funciona porque não entende métricas.
  • Fornecedor usa termos de forma solta (aqui "supervised" significa X, aqui significa Y).
  • Equipe de negócio não consegue defender investimento IA porque não fala linguagem técnica.

Como usar glossário: implementação por porte

Pequena empresa — uso pessoal

Leia glossário antes de conversa importante. Anote termos que aparecem frequentemente. Se termo é confuso, busque na seção relevante (se é sobre dado, vai para "Termos sobre dados").

  • Tempo: 30 minutos de leitura antes de reunião com fornecedor
  • Resultado: mais confiante em conversação, pergunta mais específica
  • Evolução: se usar IA frequentemente, revisa glossário a cada trimestre
Média/Grande — padronização corporativa

Adapte glossário com termos internos (processos, sistemas, frameworks específicos). Distribua via email, wiki, ou LMS. Inclua em onboarding de novo colaborador de TI.

  • Tempo: 2–4 semanas de customização e distribuição
  • Resultado: linguagem comum reduz ambiguidade, acelera comunicação
  • Evolução: revisa anualmente, adiciona novos termos conforme IA evolui

Quer entender melhor como termos se aplicam à sua empresa?

O oHub conecta você gratuitamente a especialistas em IA que podem contextualizar glossário à sua realidade corporativa. Em menos de 3 minutos, descreva seu cenário e receba propostas de consultores que falam sua linguagem.

Encontrar fornecedores de TI no oHub

Sem custo, sem compromisso. Você recebe propostas e decide se e com quem avançar.

Perguntas frequentes

Qual é a diferença entre parâmetro e hiperparâmetro?

Parâmetros = números que modelo aprende durante treinamento. Hiperparâmetros = configurações que você define antes de treinar. Analogia: parâmetros = ingredientes adicionados gradualmente enquanto cozinha; hiperparâmetros = temperatura do forno (você escolhe antes de começar).

Por que precisar entender essas métricas se fornecedor apresenta resultado?

Porque fornecedor escolhe métrica que faz produto parecer melhor. Se não entende precisão vs. recall, aceita "99% acurácia" que na verdade é inútil (exemplo: modelo que só diz "sem doença" em dataset onde 99% são saudáveis). Entender métricas protege sua decisão.

Overfitting é sempre ruim?

Sim, em cenário real. Significa modelo memoriza treino e falha em dado novo. Detecção: performance em treino é 99%, em validação é 60%. Se vê isso, modelo está overfitting. Solução: mais dados, modelo mais simples, regularização.

Quanto custa rodar modelo em inferência?

Depende do modelo e volume. ChatGPT custa ~R$ 0,0015 por 1000 tokens de entrada, R$ 0,006 por 1000 tokens de output. Para 10 mil requisições/mês = alguns reais. Para 1 bilhão requisições/mês = milhares. Sempre peça custo por requisição ou por token.

Qual é a diferença entre modelo pré-treinado e modelo customizado?

Pré-treinado = modelo já treinado com dados públicos (ChatGPT, GPT-4, Claude), você usa direto ou ajusta levemente (fine-tuning). Customizado = treina do zero ou a partir do pré-treinado com dados seus. Pré-treinado é rápido (dias), customizado é lento (semanas/meses).

Preciso entender matemática por trás de IA para usar?

Não. Este glossário evita matemática propositalmente. Precisa entender conceitos (o que é, por que importa, quando usar) mas não a fórmula. Se gestor entende esses 30+ termos, consegue conversar com especialista e validar proposta.

Fontes e referências

  1. Google Cloud. AI Glossary. Disponível em Google Cloud Learn.
  2. Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press.