Não confie no ChatGPT para matemática:
É crucial validar tudo o que vem de ChatGPT أو bate-papo أو Google Bardo Ou qualquer Outro programa de bate-papo . Acredite ou não, isso é especialmente verdadeiro para a matemática. Não assuma que o ChatGPT pode fazer as contas. Os chatbots de IA modernos são melhores em escrita criativa do que em aritmética e aritmética.
Chatbots não são computadores
Como sempre, ao trabalhar com IA, a engenharia ágil é importante. Você deseja fornecer muitas informações e elaborar seu prompt de texto com cuidado para obter uma boa resposta.
Mas mesmo se você obtiver uma lógica impecável na resposta, você pode olhar no meio dela e perceber que o ChatGPT cometeu um erro nas linhas de 1 + 1 = 3. No entanto, o ChatGPT geralmente perde a lógica - e não é bom na contagem também.
Pedir a um grande modelo de linguagem para agir como uma calculadora é como pedir a uma calculadora para escrever uma peça - o que você esperava? Não é isso.
Nossa principal mensagem aqui: é fundamental verificar duas ou três vezes o funcionamento da IA. Isso se aplica a mais do que apenas matemática.
Aqui estão alguns exemplos de ChatGPT caindo de cara no chão. Nós costumavamos ChatGPT O gpt-3.5-based-turbo gratuito para este artigo também bate-papo , que é baseado no GPT 4. Portanto, embora o ChatGPT Plus com GPT 4 seja melhor do que a versão gratuita do ChatGPT, você terá que enfrentar esses problemas mesmo com um chatbot com alto nível de IA.
ChatGPT não pode ser calculado
ChatGPT e Bing não parecem confiáveis para calcular listas de itens. Parece uma tarefa essencial - mas não conte com uma resposta confiável.
Fornecemos ao ChatGPT uma coluna de números e pedimos que contasse as ocorrências de um número. (Você não precisa contar: a resposta correta é que o número 100 aparece 14 vezes.)
Mesmo quando você corrige o ChatGPT, pede desculpas e fornece uma nova resposta, você não obterá necessariamente uma resposta correta.
O ChatGPT geralmente age como alguém tentando freneticamente encobrir um erro e dar a você uma resposta - qualquer resposta - para tirá-lo de suas costas. É realmente muito realista!
Como de costume, um dos grandes problemas é a certeza absoluta que o ChatGPT tem sobre todas as suas respostas, mesmo quando ele atira em você com respostas diferentes.
Tentamos o GPT 4 via Bing Chat da Microsoft e encontramos um problema semelhante. O Bing decidiu escrever algum código Python para resolver esse problema difícil, mas também não conseguiu obter a resposta certa. (O Bing ainda não executou o código.)
ChatGPT luta com problemas de lógica matemática
Se você der ao ChatGPT um "problema de palavras" em matemática, muitas vezes verá estranhas reviravoltas de lógica que não lhe darão a resposta certa.
O ChatGPT nos forneceu um problema matemático baseado em frutas que reflete o que alguém poderia perguntar se estivesse tentando reequilibrar uma carteira de investimentos alocando uma contribuição entre fundos diferentes - ou talvez apenas comprando muitas frutas e mantendo uma carteira baseada em frutas
O ChatGPT começa bem, mas rapidamente se transforma em lógica sem sentido e não dá uma resposta correta.
Você não precisa seguir cada turno e virar para perceber que a resposta final está incorreta.
O ChatGPT também pesquisará e discutirá com você sobre as respostas deles. (Novamente, esse é um comportamento muito humano.)
Nesse caso, argumentou o ChatGPT, isso não deu a você a resposta certa - mas o aproximou da porcentagem que você queria do que antes! Isso é muito engraçado.
Para registro, o Bing Chat da Microsoft baseado no GPT 4 também lutou com esse problema, dando-nos uma resposta obviamente incorreta. A lógica GPT 4 entra em ação rapidamente aqui também.
Recomendamos não tentar seguir todas as reviravoltas da lógica - a resposta está claramente incorreta.
Quando apontamos que a resposta de Bing estava incorreta, ela continuou a discutir conosco em círculos, dando resposta errada após resposta errada.
O ChatGPT também não pode fazer as contas de forma confiável
Vale a pena notar que o ChatGPT às vezes é ignorado e também menciona incorretamente a conta principal. Vimos respostas lógicas para problemas aritméticos incorretos semelhantes a 1 + 1 = 3 bem no meio de uma resposta bem fundamentada.
Certifique-se de verificar novamente tudo o que você obtém do ChatGPT e outros chatbots de IA.