Imagine-se numa situação cotidiana: você está na cozinha, tentando preparar uma nova receita. Entre uma etapa e outra, surge uma dúvida, e você decide recorrer à Inteligência Artificial (IA) para obter ajuda. Sua pergunta é simples, mas a resposta que você recebe é tão absurda que chega a ser cômica: “Cozinhe o macarrão em gasolina”. Esse exemplo ilustra um dos maiores desafios atuais com a IA: como confiar em sistemas que, por vezes, parecem saber tudo, mas que, em outros momentos, revelam uma perigosa ignorância.
Nos últimos anos, ferramentas como ChatGPT e Gemini ganharam milhões de usuários ao redor do mundo, fornecendo informações sobre uma vasta gama de tópicos — desde culinária até conselhos sobre saúde. Entretanto, conforme dependemos mais dessas tecnologias, surge uma questão crítica: devemos confiar cegamente no que elas nos dizem? E mais importante, como podemos avaliar a confiabilidade de sistemas que não são capazes de justificar suas próprias respostas?
Introdução: A Era da Dependência da IA
O CEO da OpenAI, Sam Altman, ao falar no Fórum Econômico Mundial em janeiro, garantiu que, no futuro, a IA será capaz de explicar seu raciocínio de maneira clara e compreensível. Altman afirmou: “Não posso olhar em seu cérebro para entender por que você está pensando o que está pensando. Mas posso pedir que você explique seu raciocínio e decida se isso parece razoável para mim ou não. Acho que nossos sistemas de IA também serão capazes de fazer a mesma coisa. Eles serão capazes de nos explicar os passos de A a B, e podemos decidir se achamos que esses são bons passos”.
Essa promessa é atraente. Afinal, para confiar em qualquer sistema de informação, é crucial que possamos entender os motivos por trás das respostas que ele nos dá. Contudo, apesar da confiança de Altman, há um problema fundamental: o conhecimento requer justificação. E, até agora, a IA falha em fornecer isso.
O Conhecimento Requer Justificação
No campo da epistemologia — a área da filosofia que estuda o conhecimento — há um princípio claro: para algo ser considerado conhecimento, é necessário que seja justificado. Isso significa que, quando acreditamos em algo, nossa crença deve estar embasada em evidências confiáveis. Um exemplo simples: quando você diz que sabe algo, como que o céu é azul, essa afirmação está ancorada em fatos verificáveis e observações que justificam a sua crença.
No entanto, quando se trata da IA, a situação é bem diferente. Ferramentas como ChatGPT, por exemplo, não possuem um raciocínio estruturado. Elas funcionam a partir de modelos estatísticos que analisam grandes volumes de textos humanos para prever padrões de linguagem. Em outras palavras, elas produzem respostas com base na probabilidade de que determinada sequência de palavras faça sentido. Isso significa que, em muitos casos, a IA pode fornecer informações corretas — mas não porque entendeu o problema ou raciocinou logicamente sobre ele.
Para entender melhor, pense em um exemplo comum. Suponha que você pergunte ao ChatGPT sobre a qualidade do ar no Tennessee e a IA responda que a neblina naquele dia foi causada por incêndios florestais no Canadá. Agora, imagine que, no dia anterior, essa mesma IA garantiu que as cobras fazem parte de rituais de defesa de teses universitárias. Claramente, algo está errado. Diante de respostas tão contrastantes, como podemos confiar em sua capacidade de justificar as informações?
O Que Dizem os Especialistas?
Estudos recentes apontam que o uso crescente da IA na educação e nas indústrias de tecnologia pode, de fato, trazer benefícios enormes, mas também levanta preocupações éticas. Segundo Nick Bostrom, professor de filosofia da Universidade de Oxford e diretor do Instituto do Futuro da Humanidade, a questão não é apenas como melhorar a precisão da IA, mas também como garantir que as pessoas saibam quando e como confiar nos resultados gerados.
Por outro lado, Gary Marcus, crítico vocal da IA atual, ressalta que as máquinas ainda estão longe de alcançar um nível de compreensão genuína. Ele afirma: “Os sistemas de IA de hoje são impressionantes em muitos aspectos, mas sua principal falha é a falta de compreensão profunda. Eles podem produzir textos e respostas que parecem lógicas, mas, na realidade, não sabem nada.”
Essas observações destacam a necessidade de continuar desenvolvendo IAs que não apenas imitem padrões de linguagem, mas que também sejam capazes de raciocinar e justificar suas respostas de maneira que possamos confiar plenamente nelas.
Com esses desafios em mente, a jornada para criar IAs que realmente “sabem” o que estão dizendo está apenas começando. Enquanto isso, é nossa responsabilidade, como usuários, manter uma postura crítica e consciente em relação ao que a IA nos apresenta.
A Falta de Raciocínio da IA: Um Problema Estrutural
O problema central é que os sistemas de IA não foram projetados para raciocinar como os humanos. Quando uma IA fornece uma resposta, ela não está se baseando em evidências reais. Em vez disso, ela está simplesmente projetando a continuação de padrões de linguagem. Isso levanta uma questão: como podemos acreditar que algo é verdadeiro se a própria IA não pode explicar a lógica por trás da sua afirmação?
Essa questão é abordada por filósofos e especialistas em IA como Hicks, Humphries e Slater. Eles defendem que, em muitos casos, a IA está produzindo o que eles chamam de “besteira justificada” — ou seja, respostas que parecem verdadeiras, mas que não possuem compromisso com a verdade. Isso se alinha ao conceito filosófico de casos Gettier, nomeado em homenagem ao filósofo Edmund Gettier, que descreve situações em que alguém acredita em algo que é verdade, mas sem ter uma justificativa válida para essa crença.
O Caso Gettier e a IA
Para entender melhor o que isso significa na prática, vamos explorar um exemplo clássico: Imagine que você está caminhando pelo deserto e vê o que parece ser uma poça d’água. Ao se aproximar, percebe que era apenas uma miragem. No entanto, ao cavar o chão, você encontra uma fonte de água exatamente no local onde pensava ter visto a poça. Nesse caso, você realmente “sabia” que havia água ali? Claro que não. Você foi enganado pela miragem e teve sorte de encontrar água por acaso.
Esse é o dilema central quando lidamos com sistemas de IA. A IA pode, ocasionalmente, fornecer respostas corretas, mas isso não significa que elas sejam baseadas em um raciocínio válido. Assim como a miragem não justificava a crença de que havia água no deserto, as respostas da IA muitas vezes não têm uma base lógica sólida.
O Risco de Confiança Cega: Impactos na Sociedade
Com o avanço da IA, um número crescente de pessoas depende dessas tecnologias para obter informações sobre questões complexas. Desde adolescentes pesquisando temas escolares até adultos buscando conselhos sobre saúde ou finanças, a confiança nas respostas da IA está aumentando rapidamente. Mas o que acontece quando essas respostas estão erradas ou são baseadas em justificativas “de miragem”?
Especialistas alertam que essa confiança cega pode nos levar a tomar decisões erradas. De acordo com um estudo conduzido pelo Center for the Governance of AI, cerca de 60% das pessoas que utilizam IA para tarefas acadêmicas não verificam as informações obtidas. Esse comportamento é preocupante, pois pode levar à disseminação de desinformação em larga escala. Mais alarmante ainda é o fato de que, à medida que as IAs se tornam mais sofisticadas, elas também se tornam mais convincentes, dificultando a distinção entre fatos e ficção.
Justificativa ou Ilusão: O Futuro da IA e a Necessidade de Transparência
Diante desse cenário, surge uma questão crucial: como podemos garantir que as IAs sejam capazes de fornecer justificativas reais para suas respostas? A resposta está na transparência. É necessário que os desenvolvedores de IA sejam claros sobre as limitações desses sistemas e que haja um esforço para melhorar a forma como as IAs são treinadas.
Sam Altman, da OpenAI, mencionou que no futuro a IA será capaz de explicar seu raciocínio. No entanto, até que isso aconteça, é fundamental que os usuários compreendam que, apesar da sofisticação crescente, a IA ainda não é capaz de fornecer justificativas verdadeiras. A chave está em usar a IA como uma ferramenta auxiliar, mas sempre mantendo um nível saudável de ceticismo e verificando as informações por outras fontes confiáveis.
Conclusão: O Caminho Para a Confiança Consciente
Olhando para o futuro, é evidente que a IA continuará desempenhando um papel central em nossas vidas. Desde nos ajudar a encontrar respostas rápidas até facilitar o processo de aprendizagem e tomada de decisão, o potencial dessas tecnologias é inegável. No entanto, como qualquer ferramenta poderosa, a IA precisa ser usada com responsabilidade.
A confiança cega em suas respostas pode nos levar a erros graves, especialmente quando lidamos com questões complexas ou vitais, como saúde, educação e finanças. Portanto, é essencial que, enquanto a IA não for capaz de justificar plenamente suas afirmações, continuemos a questioná-la, verificando sempre as informações que ela nos fornece.
Então, da próxima vez que você perguntar algo a uma IA, lembre-se: talvez ela acerte, mas pode ser que esteja apenas seguindo padrões sem entender o que está dizendo. Em última análise, o poder de discernir entre a verdade e a miragem está em nossas mãos.

Olá, eu sou Marcos Rodrigues!
Sou apaixonado por Geopolítica, Ciência, Tecnologia e Atualidades em geral e dedico meu tempo a escrever artigos de blogs das principais notícias do Brasil e do mundo a cerca desses assuntos citados