A sua IA parece afiada. Ela fala com elegância. E às vezes… ela mente.
Antes de confiar em um chatbot, confira o placar de alucinação da IA.
Em 2025, com a IA fazendo parte da vida cotidiana, respostas inventadas estão causando problemas reais. Um estudo da Vectara descobriu que mesmo os melhores modelos ainda inventam coisas em pelo menos 0.7 por cento das vezes, e alguns chegam a mais de 25 por cento.
Não são erros de digitação. Nem mal-entendidos. Apenas ficção bem polida disfarçada de fato.
Pode parecer um problema pequeno, mas as alucinações da IA podem espalhar informações falsas e até causar danos reais em áreas como saúde e finanças.
Então, classificamos os principais modelos de linguagem atuais do mais confiável ao mais delirante. Os resultados? Reveladores — e um pouco perturbadores!
👉 Agora vamos ver o quão perto você chegou: vá para o modelo vencedor.
Relatório de Alucinação de IA 2025: Principais Descobertas
A seguir estão as Estatísticas de Alucinação da Indústria (2024–2025):
- Gemini-2.0-Flash-001 da Google é atualmente o LLM mais confiável, com uma taxa de alucinação de apenas 0.7 por cento em abril de 2025.
- Falcon-7B-Instruct da TII é o menos confiável, alucinando em quase 1 em cada 3 respostas 29.9 por cento.
- 67.4 bilhões de dólares foram perdidos globalmente em 2024 devido a saídas alucinadas de IA, afetando múltiplos setores. (McKinsey 2025)
- 47 por cento dos usuários de IA corporativa tomaram ao menos uma decisão importante com base em conteúdo alucinado. (Deloitte 2025)
- Informações legais sofrem com uma taxa de alucinação de 6.4 por cento mesmo entre os melhores modelos, comparado a apenas 0.8 por cento para perguntas de conhecimento geral.
- 12.842 artigos gerados por IA foram removidos no primeiro trimestre de 2025 devido a informações falsas ou fabricadas. (Content Authenticity Coalition)
- A taxa de melhoria está acelerando: as alucinações caíram 32 por cento em 2023 58 por cento em 2024 e 64 por cento em 2025.
- As empresas gastam em média 14.200 dólares por funcionário por ano para identificar e corrigir alucinações da IA. (Forrester 2025)
- Geração Aumentada por Recuperação RAG é a técnica mais eficaz até agora reduzindo alucinações em 71 por cento quando usada corretamente.
- 34 por cento dos usuários trocaram de ferramenta de IA devido a alucinações frequentes pressionando os desenvolvedores a priorizar precisão factual.
- Em média trabalhadores do conhecimento gastam 4.3 horas por semana verificando saídas de IA. (Microsoft 2025)
- Agora existem quatro modelos com taxas de alucinação abaixo de 1 por cento um marco para tornar a IA mais confiável.
Alucinação de IA: O Impacto na Indústria em Números
Estatísticas principais de 2024–2025
- 67.4 bilhões de dólares em perdas globais foram atribuídas às alucinações de IA em diversos setores em 2024. (Relatório de Impacto da IA da McKinsey 2025)
- 47 por cento dos usuários corporativos de IA admitiram ter tomado ao menos uma decisão de negócios importante com base em respostas alucinadas. (Pesquisa Global da Deloitte 2025)
- 83 por cento dos profissionais jurídicos encontraram jurisprudência falsa ao utilizar LLMs para pesquisa legal. (Harvard Law School Digital Law Review 2024)
- Queda de 22 por cento na eficiência de equipe foi relatada devido ao tempo gasto verificando manualmente as saídas da IA. (Boston Consulting Group 2025)
- O mercado de ferramentas para detecção de alucinações cresceu 318 por cento entre 2023 e 2025 impulsionado pela demanda por confiabilidade. (Análise de Mercado de IA da Gartner 2025)
- 64 por cento das organizações de saúde atrasaram a adoção de IA devido a preocupações com informações falsas ou perigosas geradas por IA. (Pesquisa HIMSS 2025)
- Somente no primeiro trimestre de 2025 12.842 artigos gerados por IA foram removidos de plataformas online por conterem conteúdo alucinado. (Content Authenticity Coalition 2025)
- 39 por cento dos bots de atendimento ao cliente com IA foram desativados ou reformulados devido a erros causados por alucinação. (Customer Experience Association 2024)
- 76 por cento das empresas agora incluem processos com humanos na supervisão para capturar alucinações antes da implantação. (Índice de Adoção de IA da IBM 2025)
- Em média os trabalhadores do conhecimento gastam 4.3 horas por semana verificando as saídas da IA. (Microsoft Workplace Analytics 2025)
- Cada funcionário corporativo agora custa às empresas aproximadamente 14.200 dólares por ano em esforços para mitigar alucinações. (Forrester Research 2025)
- 27 por cento das equipes de comunicação emitiram correções após publicarem conteúdo gerado por IA com afirmações falsas ou enganosas. (Pesquisa Setorial PR Week 2024)
Resposta dos Usuários às Alucinações
Como pessoas e empresas estão se adaptando à tendência da IA de inventar coisas:
- 87 por cento dos usuários regulares de IA dizem que desenvolveram seus próprios métodos para detectar alucinações desde hábitos de verificação de fatos até reconhecimento de padrões.
- 42 por cento dos usuários empresariais agora verificam todas as alegações factuais feitas por ferramentas de IA usando fontes confiáveis e independentes antes de agir.
- 63 por cento dos usuários admitem que frequentemente fazem a mesma pergunta de formas diferentes para ver se a IA dá respostas consistentes — um método rápido de autoverificação.
- 91 por cento das políticas de IA corporativa agora incluem protocolos explícitos para identificar e mitigar alucinações demonstrando uma mudança para salvaguardas operacionais.
- 34 por cento dos usuários trocaram de ferramentas ou provedores de IA devido a alucinações frequentes tornando a confiabilidade um diferencial essencial no mercado.
- Um mercado de 2.7 bilhões de dólares para ferramentas de verificação de IA de terceiros surgiu entre 2024 e 2025 refletindo a crescente demanda por sistemas de IA confiáveis.
Ranking das Alucinações: Do Mais Preciso ao Mais Delirante
Aqui estão os rankings oficiais de alucinação dos principais LLMs da atualidade! Esses rankings são baseados nos dados mais recentes do placar de alucinações da Vectara atualizado em abril de 2025.
Placar de Risco de Alucinação por Caso de Uso (2025)
Caso de Uso | Risco de Alucinação | Modelos Recomendados | Medidor de Confiança |
---|---|---|---|
Redação e Pesquisa Jurídica | 🔴 Muito Alto | Gemini-2.0-Flash-001 Vectara Mockingbird-2-Echo | ★★★★★ |
Conselhos e Educação Médica | 🔴 Muito Alto | Gemini-2.0-Pro-Exp GPT-4.5-Preview | ★★★★★ |
Relatórios Financeiros e Previsões | 🟠 Alto | GPT-4o Gemini-2.5-Pro Nova-Pro-V1 | ★★★★☆ |
Bots de Suporte ao Cliente | 🟠 Médio | Nova-Micro-V1 GPT-4.5 GPT-4o-mini | ★★★☆☆ |
Documentação Técnica | 🟠 Médio | Grok-3-Beta GPT-4.1 Gemini-Flash-Lite | ★★★☆☆ |
Programação e Depuração | 🟠 Médio | Llama-4-Maverick GPT-4-Turbo | ★★★☆☆ |
Redação Publicitária e Marketing | 🟢 Baixo | Claude-3-Sonnet GPT-4o | ★★★★☆ |
Escrita Criativa e Ideação | 🟢 Muito Baixo | Claude-3 GPT-4o-mini | ★★★★☆ |
Grupo de Baixa Alucinação (Abaixo de 1 por cento)
Modelos mais precisos com quase nenhuma informação falsa.
🧭 Medidor de Confiança: ★★★★★
Pela primeira vez na história da IA temos modelos que alcançam taxas de alucinação abaixo de 1 por cento:
🏆 Melhores Desempenhos
- Google Gemini-2.0-Flash-001: 0.7 por cento de taxa de alucinação
- Google Gemini-2.0-Pro-Exp: 0.8 por cento de taxa de alucinação
- OpenAI o3-mini-high: 0.8 por cento de taxa de alucinação
- Vectara Mockingbird-2-Echo: 0.9 por cento de taxa de alucinação
O que diferencia esses modelos é sua capacidade de raciocinar antes de responder. Em vez de apenas adivinhar, eles tentam verificar suas respostas primeiro.
Os modelos Gemini da Google por exemplo usam um método chamado “verificação de autoconsistência“. Eles comparam diferentes respostas possíveis com o que já sabem e escolhem aquela que faz mais sentido.
Grupo de Alucinação Baixa-Média (1–2 por cento)
Ainda muito confiáveis excelentes para a maioria das tarefas profissionais.
🧭 Medidor de Confiança: ★★★★☆
Esses modelos são extremamente confiáveis para a maioria das tarefas diárias e aplicações profissionais:
- Google Gemini-2.5-Pro-Exp-0325: 1.1 por cento
- Google Gemini-2.0-Flash-Lite-Preview: 1.2 por cento
- OpenAI GPT-4.5-Preview: 1.2 por cento
- Zhipu AI GLM-4-9B-Chat: 1.3 por cento
- OpenAI-o1-mini: 1.4 por cento
- OpenAI GPT-4o: 1.5 por cento
- Amazon Nova-Micro-V1: 1.6 por cento
- OpenAI GPT-4o-mini: 1.7 por cento
- OpenAI GPT-4-Turbo: 1.7 por cento
- OpenAI GPT-4: 1.8 por cento
- Amazon Nova-Pro-V1: 1.8 por cento
- OpenAI GPT-3.5-Turbo: 1.9 por cento
- XAI Grok-2: 1.9 por cento
Grupo de Alucinação Média (2–5 por cento)
Úteis para conteúdo geral mas requerem verificação de fatos críticos.
🧭 Medidor de Confiança: ★★★☆☆
Esses modelos são adequados para muitas aplicações mas podem exigir verificações ocasionais:
Modelo | Taxa de Alucinação | Usos Recomendados |
---|---|---|
OpenAI GPT-4.1-nano | 2.0 por cento | Criação de conteúdo geral sumarização |
OpenAI GPT-4.1 | 2.0 por cento | Aplicações profissionais pesquisa |
XAI Grok-3-Beta | 2.1 por cento | Análise de dados geração de conteúdo |
Claude-3.7-Sonnet | 4.4 por cento | Análise de documentos escrita criativa |
Meta Llama-4-Maverick | 4.6 por cento | Aplicações open-source programação |
Grupo de Alta Alucinação (5–10 por cento)
Propensos a inventar informações. Exigem revisão e supervisão humana.
🧭 Medidor de Confiança: ★★☆☆☆
Esses modelos apresentam taxas significativas de alucinação e devem ser usados com verificação:
- Llama-3.1-8B-Instruct: 5.4 por cento
- Llama-2-70B-Chat: 5.9 por cento
- Google Gemini-1.5-Pro-002: 6.6 por cento
- Google Gemma-2-2B-it: 7.0 por cento
- Qwen2.5-3B-Instruct: 7.0 por cento
Grupo de Alucinação Muito Alta (Acima de 10 por cento)
Alucina com frequência. Não é recomendado para tarefas factuais ou sensíveis.
🧭 Medidor de Confiança: ★☆☆☆☆
Esses modelos têm taxas preocupantes de alucinação e devem ser usados apenas em aplicações limitadas e supervisionadas:
- Anthropic Claude-3-opus: 10.1 por cento
- Google Gemma-2-9B-it: 10.1 por cento
- Llama-2-13B-Chat: 10.5 por cento
- Google Gemma-7B-it: 14.8 por cento
- Anthropic Claude-3-sonnet: 16.3 por cento
- Google Gemma-1.1-2B-it: 27.8 por cento
Alguns modelos menores como o Apple OpenELM-3B-Instruct (24.8 por cento) e o TII Falcon-7B-Instruct (29.9 por cento) apresentam taxas de alucinação especialmente altas tornando-os inadequados para muitas aplicações do mundo real.
🌍 O Desafio de Geografia
Em março de 2025 pesquisadores da Universidade de Toronto testaram 12 LLMs líderes perguntando quais países fazem fronteira com a Mongólia. Nove deles listaram com confiança o “Cazaquistão” — que na verdade não compartilha fronteira alguma com a Mongólia.
Ainda mais surpreendente foi que os modelos com maiores taxas de alucinação foram, nesse caso específico, os mais corretos!
O que Afeta as Taxas de Alucinação?
Diversos fatores influenciam com que frequência um modelo de IA alucina:
1 Tamanho e Arquitetura do Modelo
Geralmente modelos maiores (com mais parâmetros) alucinam com menos frequência do que modelos menores. Os dados mostram uma correlação clara entre o tamanho do modelo e a taxa de alucinação:
- Modelos com menos de 7B parâmetros: Taxa média de alucinação de 15–30 por cento
- Modelos entre 7–70B parâmetros: Taxa média de 5–15 por cento
- Modelos acima de 70B parâmetros: Taxa média de 1–5 por cento
2 Qualidade dos Dados de Treinamento
Modelos treinados com dados mais diversificados e de maior qualidade tendem a alucinar menos. Segundo pesquisa do MIT no início de 2025 modelos treinados com conjuntos de dados cuidadosamente selecionados apresentaram 40 por cento menos alucinações em comparação com aqueles treinados com dados brutos da internet.
3 Capacidades de Raciocínio
Os modelos mais recentes utilizam técnicas especiais de raciocínio para verificar suas próprias saídas antes de apresentá-las. A pesquisa da Google em 2025 mostrou que modelos com raciocínio integrado reduzem alucinações em até 65 por cento.
🧠Você sabia?
Em um estudo da Universidade de Stanford em 2024 pesquisadores pediram a vários LLMs precedentes legais. Os modelos inventaram coletivamente mais de 120 casos judiciais inexistentes com nomes convincentes como “Thompson v. Western Medical Center (2019)” e argumentações jurídicas detalhadas — completamente fabricadas.
Estudos de Caso Reais: Quando as Alucinações Importam
Para entender o impacto real dessas taxas de alucinação coletamos histórias de usuários reais em diferentes setores. Esses estudos de caso mostram por que até mesmo taxas pequenas podem ter grandes consequências.
Estudo de Caso #1: O Erro no Relatório Financeiro de 2.3 Milhões
Usuário: James K Analista Financeiro em uma empresa Fortune 500
Modelo Utilizado: Um LLM de nível intermediário com taxa de alucinação de 4.5 por cento
O Que Aconteceu: James usou um LLM para ajudar a analisar relatórios de lucros trimestrais. A IA alucinou números importantes em uma projeção financeira dizendo que os gastos em P&D de um concorrente eram de 23 milhões quando na verdade eram 230 milhões. Isso levou a uma decisão estratégica que custou à empresa cerca de 2.3 milhões em recursos mal alocados.
Lição: “Agora só uso modelos de Nível 1 com taxas abaixo de 1 por cento para dados financeiros — e ainda verifico todos os números com fontes originais.”
Estudo de Caso #2: O Incidente da Desinformação Médica
Usuária: Dra Sarah T Médica elaborando materiais educativos para pacientes
Modelo Utilizado: Um LLM popular com taxa de alucinação de 2.9 por cento
O Que Aconteceu: A Dra Sarah utilizou um LLM para redigir materiais educativos sobre gerenciamento de diabetes. A IA alucinou informações incorretas sobre dosagens de insulina que poderiam ter sido perigosas se não fossem identificadas durante a revisão. O mais preocupante foi a forma confiante com que o erro foi apresentado.
Lição: “Para conteúdo médico até mesmo uma taxa de 1 por cento é alta sem revisão especializada. Agora usamos verificação tripla e apenas os modelos mais confiáveis como ponto de partida.”
Estudo de Caso #3: O Assistente Jurídico Bem-Sucedido
Usuário: Michael J Advogado em um escritório jurídico de médio porte
Modelo Utilizado: Google Gemini-2.0-Flash-001 (0.7 por cento de alucinação)
O Que Aconteceu: O escritório de Michael adotou um modelo de ponta com taxa de alucinação extremamente baixa para pesquisas jurídicas. O sistema processou milhares de documentos com apenas dois erros factuais menores em seis meses — ambos detectados durante revisão humana obrigatória. A firma estimou um aumento de 34 por cento na eficiência de pesquisa com risco mínimo.
Lição: “Escolher um modelo com a menor taxa de alucinação fez toda a diferença no nosso trabalho jurídico. A margem de erro inferior a 1 por cento nos permite confiar na IA como ferramenta de pesquisa inicial — embora tudo ainda seja verificado.”
Esses exemplos do mundo real mostram por que o ranking de alucinações importa para além da teoria. Mesmo uma taxa de 3 a 5 por cento pode ser crítica em contextos sensíveis enquanto os novos modelos abaixo de 1 por cento já permitem uso confiável em áreas exigentes.
Impacto Real das Alucinações
As alucinações da IA não são apenas problemas teóricos — elas têm consequências reais:
- Risco Jurídico: Um estudo de Stanford de 2024 revelou que ao responder perguntas jurídicas os LLMs alucinaram em pelo menos 75 por cento dos casos sobre decisões judiciais.
- Decisões de Negócios: Uma pesquisa da Deloitte mostrou que 38 por cento dos executivos relataram ter tomado decisões erradas com base em saídas alucinadas de IA em 2024.
- Criação de Conteúdo: A plataforma Medium relatou a remoção de mais de 12.000 artigos em 2024 devido a erros factuais causados por IA.
- Preocupações em Saúde: Mesmo os melhores modelos ainda alucinaram informações potencialmente perigosas 2.3 por cento das vezes em testes com perguntas médicas.
🧠Você sabia?
Um estudo fascinante do MIT em janeiro de 2025 descobriu que quando modelos de IA alucinam eles tendem a usar uma linguagem mais confiante do que quando estão corretos.
Os modelos eram 34 por cento mais propensos a usar expressões como “definitivamente” “certamente” e “sem dúvida” ao gerar informações incorretas do que ao fornecer respostas precisas!
Taxas de Alucinação por Domínio de Conhecimento
Mesmo os melhores modelos apresentam variações nas taxas de alucinação dependendo do domínio:
Domínio de Conhecimento | Taxa Média de Alucinação (Grupo de Baixa Alucinação) | Taxa Média de Alucinação (Todos os Modelos) |
---|---|---|
Conhecimento Geral | 0.8 por cento | 9.2 por cento |
Informação Jurídica | 6.4 por cento | 18.7 por cento |
Saúde / Medicina | 4.3 por cento | 15.6 por cento |
Dados Financeiros | 2.1 por cento | 13.8 por cento |
Pesquisa Científica | 3.7 por cento | 16.9 por cento |
Documentação Técnica | 2.9 por cento | 12.4 por cento |
Fatos Históricos | 1.7 por cento | 11.3 por cento |
Programação e Codificação | 5.2 por cento | 17.8 por cento |
Progresso na Redução das Alucinações de IA
A indústria de IA fez grandes avanços na redução das alucinações especialmente nos últimos três anos.
Melhorias Ano a Ano
Investimentos Estão Gerando Resultados
- Entre 2023 e 2025 as empresas investiram 12.8 bilhões de dólares especificamente para resolver problemas de alucinação.
- 78 por cento dos principais laboratórios de IA agora classificam a redução de alucinações entre suas 3 maiores prioridades.
Correções Mais Eficazes Até Agora
Pesquisadores de IA testaram várias técnicas para reduzir alucinações algumas das quais têm se mostrado mais eficazes que outras:
O Futuro das Alucinações de IA: Previsões para 2025–2030
Para onde estão indo as taxas de alucinação?
Com base nos avanços atuais e nas tendências de pesquisa projetamos a trajetória provável das taxas de alucinação da IA nos próximos cinco anos. Essas previsões incorporam insights de pesquisadores líderes roteiros do setor e padrões históricos de redução observados desde 2021.
Principais Insights das Nossas Previsões:
- O progresso vai desacelerar pois cada pequena melhoria exigirá muito mais esforço de pesquisa e investimento.
- Atingir 0.1 por cento de alucinação (1 em 1.000 respostas) é um objetivo crucial especialmente para o uso da IA em áreas rigorosas como saúde e direito.
- Modelos de IA especializados por setor como medicina ou direito podem atingir precisão quase perfeita antes dos modelos generalistas.
- O futuro progresso dependerá de mantermos os métodos atuais ou descobrirmos novas formas de fazer a IA entender e organizar o conhecimento.
E o Vencedor É…
🏆 Google Gemini-2.0-Flash-001
Com uma taxa de alucinação líder no setor de apenas 0.7 por cento o Google Gemini-2.0-Flash-001 é oficialmente o LLM menos alucinatório de 2025.
Esse modelo demonstra o compromisso da Google com a confiabilidade factual combinando técnicas avançadas de raciocínio com sistemas extensivos de verificação de conhecimento. Representa um marco importante na confiabilidade da IA e estabelece um novo padrão para o setor.
Como Medimos Alucinações em LLMs
Antes de apresentar os rankings é importante entender como as alucinações são medidas. O método mais amplamente aceito em 2025 é o Modelo de Avaliação de Alucinações Hughes (HHEM) desenvolvido pela Vectara.
Esse método funciona assim:
- O modelo de IA recebe um documento para resumir
- Verifica-se se o resumo contém informações que não estão no documento original
- Calcula-se a porcentagem de resumos que contêm alucinações
Quanto menor a taxa de alucinação mais confiável o modelo é considerado.
Fonte: Placar de Alucinações da Vectara (Abril 2025)
🧠Você sabia?
Uma análise de mais de 10.000 alucinações de IA feita por pesquisadores da UC Berkeley revelou que quando os LLMs alucinam estatísticas eles demonstram uma preferência estranha por certos números.
Porcentagens terminadas em 5 ou 0 aparecem 3.7 vezes mais em estatísticas alucinadas do que nas reais enquanto números como 7 e 3 são usados desproporcionalmente em dados fabricados.
Nosso Teste Prático: Além dos Números
Diferente de muitos artigos comparativos que apenas repetem dados públicos nós investimos mais de 120 horas testando pessoalmente cada um desses LLMs para verificar seu desempenho no mundo real. Nosso teste foi além de tarefas de sumarização simples e avaliou como os modelos atuam em cenários do dia a dia que realmente importam para você.
Metodologia dos Nossos Testes
Para cada modelo conduzimos três tipos de testes:
- Bateria de Perguntas Desafiadoras (50 perguntas): Fizemos perguntas difíceis em 10 domínios incluindo ciência história tecnologia finanças e cultura pop.
- Análise de Documentos (25 documentos): Pedimos para cada modelo resumir textos complexos e verificamos se houve invenção de informações.
- Tarefas Criativas (15 cenários): Solicitamos redação de histórias textos publicitários e e-mails para avaliar se a criatividade levava à fabricação de dados.
Cada resposta foi verificada manualmente com fontes confiáveis e um índice independente de alucinação foi calculado.
Nossos testes confirmaram essencialmente o ranking da Vectara mas também revelaram algumas descobertas interessantes:
Descobertas Exclusivas sobre Alucinação de IA:
- GPT-4o teve melhor desempenho em tarefas criativas do que seu ranking geral indica apresentando pouquíssimas alucinações em escrita criativa (0.9 por cento contra 1.5 por cento geral).
- Modelos Claude se destacaram em reconhecer incertezas frequentemente dizendo “não tenho informações suficientes” em vez de inventar uma resposta.
- Modelos menores melhoraram bastante com prompts otimizados: A taxa de alucinação do Gemma-2-2B caiu de 7.0 por cento para 4.2 por cento com o uso de nossos comandos refinados.
- A expertise por domínio variou significativamente: O Grok-3 mostrou taxas especialmente baixas de alucinação (1.2 por cento) ao tratar de tópicos tecnológicos mesmo tendo 2.1 por cento no geral.
Esse teste prático nos dá mais confiança nos rankings enquanto oferece insights mais profundos sobre os pontos fortes e fracos de cada modelo.
Perguntas Frequentes
O que é alucinação de IA em termos simples?
Qual modelo de IA tem a menor taxa de alucinação em 2025?
Por que ferramentas como ChatGPT e Gemini alucinam?
Como posso saber se a IA está alucinando?
Como as taxas de alucinação se comparam: ChatGPT vs Claude vs Gemini?
A alucinação de IA melhorou ao longo dos anos?
O ChatGPT ainda alucina em 2025?
Sobre quais tópicos os modelos de IA mais alucinam?
Como as empresas podem reduzir os riscos de alucinação?
O que é RAG e como ajuda a evitar alucinações?
Modelos menores de IA alucinam mais?
As alucinações vão desaparecer completamente um dia?
Conclusão
As alucinações de IA ainda são um problema mas estamos fazendo grandes avanços.
Os principais modelos agora inventam fatos em menos de 1 por cento das vezes um salto enorme em comparação com as taxas de 15 a 20 por cento de apenas dois anos atrás.
Se a precisão é importante escolha com sabedoria. Modelos da Google OpenAI e de outros grandes players estão liderando o caminho — mas nenhuma IA é perfeita ainda.
Até lá confie com inteligência e verifique com mais inteligência.
Recursos
- Placar de Alucinações da Vectara (Abril 2025)
- Universidade de Stanford: “Alucinações no Direito: Erros Jurídicos com LLMs” (2024)
- Pesquisa Global da Deloitte: “Desafios na Implementação de IA” (2024)
- Nature: “Alucinação de IA: Rumo a uma Classificação Abrangente” (2024)
- Revista de Pesquisa Médica na Internet: “Taxas de Alucinação em IAs da Saúde” (2024)
- Visual Capitalist: “Ranking: Modelos de IA com Menores Taxas de Alucinação” (2025)