Ne fidu ChatGPT por matematiko

Ne fidu ChatGPT por matematiko:

Gravas validigi ĉion el kio venas Babilado GPT aŭ Bing Babilejo aŭ Guglo mojosa aŭ iu ajn Alia babilprogramo . Kredu aŭ ne, ĉi tio validas precipe pri matematiko. Ne supozu, ke ChatGPT povas fari la matematikon. Modernaj AI-babilrotoj estas pli bonaj pri krea skribo ol pri aritmetiko kaj aritmetiko.

Chatbots ne estas komputiloj

Kiel ĉiam, kiam vi laboras kun AI, lerta inĝenierado gravas. Vi volas provizi multajn informojn kaj zorge krei vian tekston por ricevi bonan respondon.

Sed eĉ se vi ricevas perfektan logikon en la respondo, vi eble gapas en la mezo de ĝi kaj rimarkos, ke ChatGPT faris eraron laŭ la linioj de 1 + 1 = 3. Tamen, ChatGPT ofte maltrafas logikon - kaj ĝi ne estas bona. ĉe kalkulado ĉu.

Demandi al granda lingvomodelo agi kiel kalkulilo estas kiel peti kalkulilon verki teatraĵon - kion vi atendis? Tio ne estas kio ĝi estas.

Nia ĉefa mesaĝo ĉi tie: Estas grave kontroli aŭ trioble kontroli la funkciadon de AI. Ĉi tio validas por pli ol nur matematiko.

Jen kelkaj ekzemploj de ChatGPT falanta sur sia vizaĝo. Ni uzis Babilado GPT La senpaga gpt-3.5-bazita-turbo ankaŭ por ĉi tiu artikolo Bing Babilejo , kiu baziĝas sur GPT 4. Do, dum ChatGPT Plus kun GPT 4 estos pli bona ol la senpaga versio de ChatGPT, vi devos sperti ĉi tiujn problemojn eĉ kun babilejo kun alta nivelo de AI.

ChatGPT ne povas esti kalkulita

ChatGPT kaj Bing ne ŝajnas esti fidindaj por kalkuli eronlistojn. Ŝajnas esenca tasko - sed ne kalkulu ricevi fidindan respondon.

Ni provizis ChatGPT per kolumno de nombroj kaj petis ĝin kalkuli okazojn de nombro. (Vi ne devas kalkuli vin mem: la ĝusta respondo estas, ke la nombro 100 aperas 14 fojojn.)

Eĉ kiam vi korektas ChatGPT kaj pardonpetas kaj donas novan respondon, vi ne nepre ricevos ĝustan respondon.

ChatGPT ofte agas kiel iu freneze provanta kaŝi eraron kaj doni al vi respondon - ajnan respondon - por forigi vin de sia dorso. Ĝi efektive estas tre viveca!

Kiel kutime, unu el la grandaj problemoj estas kiom absolute certa ChatGPT estas pri ĉiuj siaj respondoj, eĉ kiam ĝi pafas vin per malsamaj respondoj.

Ni provis GPT 4 per Bing Chat de Microsoft kaj renkontis similan problemon. Bing decidis skribi iun Python-kodon por solvi ĉi tiun malfacilan problemon, sed ĝi ankaŭ ne sukcesis ricevi la ĝustan respondon. (Bing fakte ne rulis la kodon.)

ChatGPT luktas kun matematikaj logikproblemoj

Se vi donas al ChatGPT "vortproblemon" en matematiko, vi ofte vidos strangajn tordojn kaj turnojn de logiko, kiuj ne ricevos al vi la ĝustan respondon.

ChatGPT provizis al ni frukt-bazitan matematikan problemon, kiu reflektas tion, kion iu povus demandi, se ili klopodus reekvilibrigi investan biletujon asignante kontribuon inter malsamaj financoj - aŭ eble simple aĉetante multajn fruktojn kaj aliĝante al frukto-bazita biletujo. 

ChatGPT komenciĝas bone sed rapide fariĝas sensenca logiko kaj ne donos ĝustan respondon.

Vi ne devas sekvi ĉiun turnon kaj turnon por rimarki, ke la fina respondo estas malĝusta.

ChatGPT ofte serĉos kaj kverelos kun vi ankaŭ pri iliaj respondoj. (Denove, ĉi tio estas tre homsimila konduto.)

En ĉi tiu kazo, ChatGPT argumentis, ĉi tio ne ricevis al vi la ĝustan respondon - sed ĝi proksimigis vin al la procento kiun vi deziris ol vi estis antaŭe! Tio estas tre amuza.

Por la rekordo, la Bing Babilejo de Microsoft bazita sur GPT 4 luktis kun ĉi tiu afero ankaŭ, donante al ni evidente malĝustan respondon. GPT 4-logiko ankaŭ rapide ekfunkcias ĉi tie.

Ni rekomendas ne provi sekvi ĉiun turniĝon de logiko - la respondo estas klare malĝusta.

Kiam ni atentigis, ke la respondo de Bing estis malĝusta, ŝi daŭre diskutis kun ni ronde, donante malĝustan respondon post malĝusta respondo.

ChatGPT ankaŭ ne povas fidinde fari la matematikon

Indas noti, ke ChatGPT foje estas preterlasita kaj malĝuste mencias ankaŭ la ĉefan konton. Ni vidis logikajn respondojn al malĝustaj aritmetikaj problemoj similaj al 1 + 1 = 3 smack-dab en la mezo de bone rezonita respondo.

Nepre rekontrolu kaj rekontrolu ĉion, kion vi ricevas de ChatGPT kaj aliaj AI-babilrotoj.

Rilataj artikoloj
Publikigi la artikolon sur

Aldoni komenton