Ne faites pas confiance à ChatGPT pour les mathématiques

Ne faites pas confiance à ChatGPT pour les mathématiques :

Il est crucial de valider tout ce qui vient de ChatGPT  ou  Chat Bing  ou  Barde Google Ou tout Un autre programme de chat . Croyez-le ou non, cela est particulièrement vrai pour les mathématiques. Ne présumez pas que ChatGPT peut faire le calcul. Les chatbots d'IA modernes sont meilleurs en écriture créative qu'en arithmétique et en arithmétique.

Les chatbots ne sont pas des ordinateurs

Comme toujours, lorsque vous travaillez avec l'IA, l'ingénierie agile est importante. Vous voulez fournir beaucoup d'informations et rédiger votre invite de texte avec soin pour obtenir une bonne réponse.

Mais même si vous obtenez une logique sans faille dans la réponse, vous pourriez regarder au milieu de celle-ci et réaliser que ChatGPT a fait une erreur du type 1 + 1 = 3. Cependant, ChatGPT manque souvent de logique - et ce n'est pas bon à compter non plus.

Demander à un grand modèle de langage d'agir comme une calculatrice, c'est comme demander à une calculatrice d'écrire une pièce de théâtre - à quoi vous attendiez-vous ? Ce n'est pas ça.

Notre message principal ici : il est essentiel de vérifier ou de vérifier le fonctionnement de l'IA. Cela s'applique à plus que les mathématiques.

Voici quelques exemples de ChatGPT tombant à plat sur son visage. Nous avons utilisé ChatGPT Le turbo gratuit basé sur gpt-3.5 pour cet article également Chat Bing , qui est basé sur GPT 4. Ainsi, même si ChatGPT Plus avec GPT 4 sera meilleur que la version gratuite de ChatGPT, vous devrez rencontrer ces problèmes même avec un chatbot avec un haut niveau d'IA.

ChatGPT ne peut pas être calculé

ChatGPT et Bing ne semblent pas être fiables pour calculer les listes d'éléments. Cela semble être une tâche essentielle - mais ne comptez pas obtenir une réponse fiable.

Nous avons fourni à ChatGPT une colonne de nombres et lui avons demandé de compter les occurrences d'un nombre. (Vous n'êtes pas obligé de vous compter : la bonne réponse est que le nombre 100 apparaît 14 fois.)

Même lorsque vous corrigez ChatGPT, que vous vous excusez et que vous fournissez une nouvelle réponse, vous n'obtiendrez pas nécessairement une réponse correcte.

ChatGPT agit souvent comme quelqu'un qui essaie frénétiquement de dissimuler une erreur et de vous donner une réponse - n'importe quelle réponse - pour vous faire oublier. C'est vraiment très réaliste !

Comme d'habitude, l'un des gros problèmes est de savoir à quel point ChatGPT est absolument sûr de toutes ses réponses, même lorsqu'il vous tire dessus avec des réponses différentes.

Nous avons essayé GPT 4 via Bing Chat de Microsoft et avons rencontré un problème similaire. Bing a décidé d'écrire du code Python pour résoudre ce problème difficile, mais il n'a pas non plus réussi à obtenir la bonne réponse. (Bing n'a pas réellement exécuté le code.)

ChatGPT se débat avec des problèmes de logique mathématique

Si vous donnez à ChatGPT un "problème de mots" en mathématiques, vous verrez souvent d'étranges rebondissements de logique qui ne vous donneront pas la bonne réponse.

ChatGPT nous a fourni un problème mathématique basé sur les fruits qui reflète ce que quelqu'un pourrait demander s'il essayait de rééquilibrer un portefeuille d'investissement en allouant une contribution entre différents fonds - ou peut-être simplement acheter beaucoup de fruits et s'en tenir à un portefeuille basé sur les fruits 

ChatGPT démarre bien mais se transforme rapidement en une logique absurde et ne donnera pas de réponse correcte.

Vous n'avez pas besoin de suivre chaque tour pour vous rendre compte que la réponse finale est incorrecte.

ChatGPT recherchera souvent et discutera également avec vous de leurs réponses. (Encore une fois, c'est un comportement très humain.)

Dans ce cas, ChatGPT a fait valoir que cela ne vous a pas donné la bonne réponse - mais cela vous a rapproché du pourcentage que vous vouliez qu'auparavant ! C'est très drôle.

Pour mémoire, Bing Chat de Microsoft basé sur GPT 4 a également rencontré ce problème, nous donnant une réponse manifestement incorrecte. La logique GPT 4 démarre rapidement ici aussi.

Nous vous recommandons de ne pas essayer de suivre chaque rebondissement de la logique - la réponse est clairement incorrecte.

Lorsque nous avons fait remarquer que la réponse de Bing était incorrecte, elle a continué à discuter avec nous en cercles, donnant mauvaise réponse après mauvaise réponse.

ChatGPT ne peut pas non plus faire le calcul de manière fiable

Il convient de noter que ChatGPT est parfois ignoré et mentionne également de manière incorrecte le compte principal. Nous avons vu des réponses logiques à des problèmes arithmétiques incorrects similaires à 1 + 1 = 3 en plein milieu d'une réponse bien raisonnée.

Assurez-vous de vérifier et de revérifier tout ce que vous obtenez de ChatGPT et d'autres chatbots AI.

articles similaires
Publier l'article sur

Ajouter un commentaire