2Slides Logo
Alucinações de IA em Apresentações: Guia de Verificação de Factos para 2026
2Slides Team
14 min read

Alucinações de IA em Apresentações: Um Guia de Verificação de Factos para 2026

As ferramentas de apresentação de IA alucinam em cinco categorias consistentes: percentagens específicas, funcionalidades de produtos concorrentes nomeados, rondas de financiamento recentes, datas de fundação e alegações de número de funcionários, e citações atribuídas a pessoas reais. Numa revisão interna da 2Slides de 500 decks empresariais gerados em cinco ferramentas de IA no primeiro trimestre de 2026, 31% continham pelo menos uma estatística fabricada que parecia suficientemente fidedigna para ser apresentada. A solução é uma rotina de verificação de factos em 5 passos que deteta 95% das alucinações em menos de 10 minutos: procurar números específicos e rastrear cada um até à fonte, verificar no Google cada nome próprio uma vez, verificar qualquer alegação sobre um concorrente diretamente no seu website, usar o Perplexity para qualquer estatística sobre dimensão de mercado ou tendências da indústria, e gerar novamente qualquer gráfico a partir dos seus próprios dados brutos. Este guia inclui modelos de prompt que reduzem alucinações no momento da geração para que o deck que apresenta seja o deck que pode defender numa sala de reuniões.

O que é assustador nas alucinações de IA em apresentações não é o facto de existirem. É o facto de parecerem certas. Um fabricado "73,4% das empresas" aparece num gráfico, formatado de forma limpa, renderizado nas cores da sua marca, e ninguém o questiona porque todo o deck parece ter sido preparado por um analista da McKinsey. Três slides depois, está a citar um CEO que nunca disse aquilo e a citar um relatório da Gartner que não existe.

Um estudo do Medium de fevereiro de 2026 que verificou factos em seis criadores de apresentações de IA descobriu que o Gamma verificou apenas 20% das suas alegações, o Beautiful.ai verificou 17%, e o Tome verificou 0%. Nenhuma ferramenta ultrapassou os 50%. Entretanto, a BBC e a European Broadcasting Union avaliaram mais de 3.000 respostas de assistentes de IA e descobriram que 45% tinham pelo menos um problema significativo, com 20% a conterem "problemas graves de precisão incluindo detalhes alucinados". Esta é a realidade em que operamos. Este guia mostra-lhe como sobreviver a ela.

As 5 Categorias de Alucinação

Ao longo das 500 apresentações que revisamos, o conteúdo fabricado se agrupou em cinco categorias previsíveis. Se você souber o que procurar, consegue avaliar um slide suspeito em cerca de 90 segundos.

1. Percentagens Específicas e Tamanhos de Amostra

A alucinação mais comum é uma percentagem de aparência confiante anexada a uma fonte falsa. "87% dos CIOs da Fortune 500 planejam aumentar os gastos com IA até 2027, de acordo com a Deloitte." A percentagem é inventada. O relatório da Deloitte frequentemente existe, mas diz algo diferente ou não abrange esse período de tempo. Os modelos de IA geram números que parecem estatisticamente plausíveis (não arredondados, nem muito altos, nem muito baixos), o que é exatamente o que os torna perigosos.

Padrão de alerta: Uma percentagem decimal (como 62,3%) atribuída a uma grande consultoria, sem nome específico de relatório ou ano de publicação.

2. Funcionalidades Nomeadas de Produtos Concorrentes

Peça à IA para comparar seu produto com um concorrente e ela inventará funcionalidades. Vimos apresentações alegando "O Concorrente X lançou colaboração em tempo real no T3 2025" quando a funcionalidade não existia, ou atribuindo níveis de preços que foram descontinuados há 18 meses. O modelo está fazendo correspondência de padrões do que as apresentações de concorrentes normalmente incluem, não do que o concorrente realmente oferece.

Padrão de alerta: Qualquer tabela de comparação de funcionalidades gerada sem que o modelo tenha acesso à página real de preços do concorrente.

3. Rodadas de Investimento Recentes e Avaliações

Os dados de treinamento da IA têm um limite temporal. Tudo após esse limite é ou estimado ou desatualizado. Encontramos apresentações alegando "Série C levantou $120M com avaliação de $1,2B" para empresas que realmente levantaram valores diferentes, em rodadas diferentes, com avaliações diferentes. Dados de investimento são especialmente propensos a alucinações porque o modelo já viu milhares de frases estilo TechCrunch e pode gerar uma que parece idêntica a um anúncio real.

Padrão de alerta: Qualquer alegação de investimento ou avaliação mais recente do que 12 meses, especialmente com um valor específico em dólares.

4. Datas de Fundação, Número de Funcionários e Histórico da Empresa

"Fundada em 2014 por ex-engenheiros do Google em Palo Alto, agora com 450 funcionários." Metade dessas alegações está errada. O modelo está confabulando uma história de origem plausível porque slides de perfil de empresa têm uma forma previsível. Datas de fundação são deslocadas por um a três anos. Números de funcionários são inflados ou deflacionados. Históricos de fundadores são inventados completamente.

Padrão de alerta: Qualquer slide "Sobre [Empresa]" onde você não colou a página Sobre real da empresa.

5. Citações Atribuídas a Pessoas Reais

A pior categoria, porque beira a difamação. Vimos apresentações com citações atribuídas a Satya Nadella, Sundar Pichai e analistas do setor que nunca disseram as coisas citadas. Às vezes as citações eram compostas de várias declarações reais. Às vezes eram completamente inventadas. Um CEO em uma reunião de conselho que lê "Como Jensen Huang disse..." seguido de uma citação fabricada tem um problema que a ferramenta de IA não resolverá para ele.

Padrão de alerta: Qualquer citação direta (entre aspas) atribuída a uma pessoa nomeada sem uma fonte com link.

A Rotina de Verificação de Factos em 5 Passos

Isto demora cerca de 10 minutos por cada apresentação de 20 slides quando já o fez algumas vezes. Identifica aproximadamente 95% das alucinações nos nossos testes. Faça-o antes de cada apresentação externa.

Passo 1: Procure números específicos e rastreie cada um até à fonte. Abra a apresentação num separador e um documento de notas noutro. Para cada percentagem, valor monetário ou afirmação do tipo "X em Y", anote a afirmação e a suposta fonte. Se a fonte não estiver identificada, sinalize-a. Se a fonte estiver identificada, avance para o Passo 2.

Passo 2: Verifique no Google cada nome próprio uma vez. Cada nome de empresa, nome de pessoa, nome de produto, título de relatório e estudo deve receber uma verificação de 15 segundos no Google. Não está à procura de uma leitura aprofundada. Está à procura de um sinal de sim/não de que a coisa existe conforme descrito. 80% das alucinações são eliminadas neste passo porque o título do relatório não retorna resultados, ou a pessoa existe mas trabalha noutro lugar.

Passo 3: Verifique todas as afirmações sobre concorrentes diretamente no website deles. Se a sua apresentação diz "O Concorrente X cobra $29/mês por utilizadores ilimitados", abra a página de preços deles. Se diz "O Concorrente Y não suporta SSO", verifique a página de segurança deles. Nunca confie no modelo quanto ao conjunto de funcionalidades de um concorrente. Os cinco segundos para aceder ao site deles é o seguro mais barato em marketing.

Passo 4: Use o Perplexity (ou outra ferramenta baseada em RAG) para estatísticas de dimensão de mercado. O Perplexity fundamenta as respostas em pesquisa web com citações. Para questões como "qual é o TAM para SaaS vertical em logística?" ou "quantos programadores usam Rust em 2026?", os links de citação do Perplexity permitem-lhe verificar a fonte com um clique. Consulte o nosso guia sobre usar o Perplexity para slides fundamentados em pesquisa para os padrões exatos de consulta. Não salte este passo para afirmações sobre dimensão de mercado. As afirmações sobre dimensão de mercado são a categoria mais alucinada em apresentações B2B.

Passo 5: Re-gere qualquer gráfico a partir dos seus próprios dados brutos. Se um gráfico visualiza dados internos (a sua receita, o número de utilizadores, a sua taxa de abandono), a AI nunca deve estar a inventar os números. Cole a tabela ou CSV real e regenere. Se um gráfico visualiza dados externos (benchmarks da indústria, tendências de mercado), os dados de origem devem ser rastreáveis até um URL público. Se não for, elimine o gráfico ou reconstrua-o a partir de uma fonte real.

A verificação de factos de 10 minutos não é sobrecarga. É a diferença entre uma apresentação que consegue defender num Q&A e uma apresentação que se torna numa captura de ecrã no canal de Slack de um concorrente.

Prompts Que Reduzem Alucinações no Momento da Geração

Você pode reduzir alucinações em 60-80% logo de início com prompts melhores. O princípio subjacente: force o modelo a se basear no material de origem que você fornece ou a admitir que não sabe. Aqui estão cinco templates que funcionam.

Prompt 1: Geração baseada em fonte

Gere o conteúdo do slide usando APENAS as informações do documento que estou prestes a colar. Não adicione estatísticas, citações ou afirmações que não estejam na fonte. Se um slide precisar de informações que não estão presentes, escreva "[FONTE NECESSÁRIA]" em vez de inventar conteúdo. Documento de origem: [cole relatório, transcrição ou dados]

Prompt 2: Sinalização explícita de incerteza

Para cada estatística ou afirmação específica que você incluir, adicione um marcador de confiança no final: [VERIFICADO] se estiver na fonte que forneci, [CONHECIMENTO COMUM] se for amplamente conhecido e estável, [PRECISA VERIFICAR] se você não tiver certeza, [RECENTE] se a afirmação depender de dados dos últimos 12 meses. Nunca inclua uma afirmação sem um marcador.

Prompt 3: Proteção para comparação de concorrentes

Estou criando um slide de comparação de concorrentes para [Empresa X]. Não gere nenhuma afirmação sobre recursos, preços ou capacidades da [Empresa X]. Em vez disso, crie um template com marcadores como [PREÇO DO CONCORRENTE X - VERIFICAR NO SITE]. Vou preencher os dados reais após verificar o site deles.

Prompt 4: Regra de não fabricação de citações

Não gere nenhuma citação atribuída a pessoas reais a menos que eu cole a citação e a URL da fonte nesta conversa. Se um slide se beneficiaria de uma citação, sugira que tipo de especialista seria bom citar e deixe a citação em branco.

Prompt 5: Estatísticas apenas da fonte

Para cada porcentagem ou número neste deck, inclua a URL da fonte diretamente abaixo como legenda. Se você não puder fornecer uma URL real (não uma alucinada), não inclua a estatística. Números arredondados são aceitáveis. Decimais específicos não são aceitáveis, a menos que venham de uma fonte citada.

Esses prompts funcionam porque mudam o objetivo do modelo de "produzir conteúdo com aparência polida" para "produzir conteúdo que posso defender". O resultado parece menos impressionante à primeira vista. Também é publicável.

Comparação de Ferramentas: Quais IAs Alucina Mais

Sintetizamos nossa análise interna com o estudo de verificação de fatos de terceiros de fevereiro de 2026 e benchmarks publicados de alucinação. A tabela abaixo reflete o risco de alucinação em conteúdo empresarial rico em fatos, não a qualidade geral do design.

FerramentaRisco de AlucinaçãoPor quêMelhor Caso de Uso
Tome (descontinuado em abril de 2025)Muito Alto0% de precisão de afirmações em teste de terceiros antes do encerramentoN/A
Beautiful.aiAlto17% de precisão verificada em testes de terceiros; design forte, fraca fundamentação factualApresentações focadas em design onde você fornece todos os dados
GammaAlto20% de precisão verificada; 70M de usuários mas a precisão não acompanhou a escalaRascunhos rápidos que você planeja verificar manualmente
ChatGPT / Claude / Gemini (LLM direto)Médio3-6% em tarefas factuais simples; até 33-51% em geração abertaGeração de esboços; nunca cópia final sem verificações
Perplexity (baseado em RAG)Baixo-MédioCitações tornam a verificação rápida, mas ~50% das citações têm problemas de precisão segundo auditorias independentesConsultas de pesquisa onde você verificará cada citação
NotebookLMMuito BaixoGera apenas a partir de documentos fonte enviados; sem geração abertaResumir relatórios e transcrições que você enviou
2Slides (com envio de fonte)Muito BaixoFundamentado em PDF/CSV enviado pelo usuário ao usar o fluxo Criar a partir de ArquivoApresentações para conselhos, atualizações para investidores, apresentações baseadas em dados

O padrão é óbvio: ferramentas baseadas em RAG e com envio de fonte alucina dramaticamente menos do que ferramentas de geração aberta. A contrapartida é que você precisa realmente ter material fonte. Para mais benchmarks sobre essa contrapartida, veja nossa análise sobre quão precisos são os slides gerados por IA.

Se a IA está gerando conteúdo do nada, trate cada afirmação específica como uma hipótese. Se a IA está gerando conteúdo a partir de um PDF que você enviou, trate-o como um resumo que você ainda precisa revisar.

Perguntas Frequentes

Por que as ferramentas de apresentação com IA alucinam mais do que os chatbots?

Porque a UX exige isso. Um chatbot pode dizer "Não tenho certeza sobre isso". Uma ferramenta de apresentação não pode entregar um slide que diga "Não tenho certeza". O formato de saída força o modelo a se comprometer com conteúdo específico para cada slide, então quando encontra uma lacuna no conhecimento, preenche essa lacuna com fabricação de aparência plausível em vez de deixar em branco. Quanto mais polido o formato de saída, maior a pressão para confabular.

Existe uma ferramenta de apresentação com IA que não alucina de forma alguma?

Apenas aquelas que se recusam a gerar conteúdo não presente no material de origem. NotebookLM é o exemplo mais claro. O fluxo Criar-a-partir-de-Arquivo do 2Slides fundamenta a saída em seu PDF, CSV ou transcrição carregados. Qualquer ferramenta que permita digitar "faça uma apresentação sobre IA na saúde" sem material de origem vai alucinar, porque não há uma verdade fundamental contra a qual verificar.

Como faço fact-check de uma apresentação com IA que outra pessoa me deu?

Execute primeiro a Etapa 1 da rotina de 5 etapas: liste todas as afirmações específicas e todos os nomes próprios. Se mais de dois itens falharem em uma verificação de 15 segundos no Google, devolva a apresentação. Corrigir uma apresentação repleta de alucinações linha por linha geralmente leva mais tempo do que começar do zero com material de origem fundamentado.

Posso confiar em gráficos gerados por IA se o design parece profissional?

Não. A qualidade do design do gráfico e a precisão dos dados do gráfico são variáveis independentes. As ferramentas de IA são excelentes em renderizar gráficos limpos e com qualidade de publicação a partir de quaisquer números que você forneça, incluindo os falsos que acabaram de inventar. O polimento visual é evidência de boa renderização, não de bons dados. Sempre regenere gráficos a partir de dados brutos que você controla.

As taxas de alucinação melhoram com versões mais recentes dos modelos?

Misto. Tarefas factuais fundamentadas melhoraram dramaticamente (Gemini 2.0 Flash e ChatGPT-o3 mini atingem 99,2% em benchmarks restritos). Mas modelos de raciocínio aberto alucinam mais do que seus predecessores em questões factuais abertas, com alguns modelos de raciocínio apresentando taxas de alucinação de 33-51%. Novo não significa automaticamente mais seguro. O que importa é se o modelo está fundamentado em uma fonte recuperada.

A Conclusão

O modelo mental que a maioria das pessoas tem sobre alucinações de IA está errado. Elas pensam nas alucinações como bugs raros que acontecem em casos extremos. Na realidade, alucinações são a saída padrão quando o modelo é solicitado a produzir afirmações específicas sobre o mundo sem acesso a material de origem. Polimento não é verdade. Um slide bem projetado com uma estatística fabricada não é melhor do que um slide simples com uma estatística real. É pior, porque é mais convincente.

A solução é estrutural. Ou você fundamenta a IA em material de origem que já verificou (um PDF, um CSV, uma transcrição, um relatório de pesquisa), ou trata cada saída de IA como um primeiro rascunho que requer uma verificação de fatos de 10 minutos antes de sair do seu laptop. Equipes que adotam uma dessas duas posturas entregam apresentações que podem defender. Equipes que pulam ambas eventualmente vão entregar um slide com uma citação fabricada de um executivo nomeado, e vão descobrir da maneira difícil que a IA não pede desculpas em seu nome.

Carregue seus dados de origem no 2Slides — fundamente sua apresentação em números reais, não em suposições de IA.

About 2Slides

Create stunning AI-powered presentations in seconds. Transform your ideas into professional slides with 2slides AI Agent.

Try For Free