수학에 대한 ChatGPT를 신뢰하지 마십시오

수학에 대해 ChatGPT를 신뢰하지 마세요:

에서 오는 모든 것을 검증하는 것이 중요합니다. ChatGPT أو 빙챗 أو 구글 바드 또는 어떤 다른 채팅 프로그램 . 믿거나 말거나, 이것은 특히 수학에 해당됩니다. ChatGPT가 수학을 할 수 있다고 가정하지 마십시오. 최신 AI 챗봇은 산술 및 산술보다 창의적인 글쓰기에 더 능숙합니다.

챗봇은 컴퓨터가 아닙니다

언제나 그렇듯이 AI와 작업할 때는 민첩한 엔지니어링이 중요합니다. 좋은 응답을 얻기 위해 많은 정보를 제공하고 텍스트 메시지를 신중하게 작성해야 합니다.

그러나 응답에서 완벽한 논리 조각을 얻더라도 그 중간을 응시하고 ChatGPT가 1 + 1 = 3 라인을 따라 오류를 범했음을 깨달을 수 있습니다. 그러나 ChatGPT는 종종 논리를 놓치고 좋지 않습니다. 카운트 중 하나.

큰 언어 모델에게 계산기 역할을 하도록 요청하는 것은 계산기에게 희곡을 쓰라고 요청하는 것과 같습니다. 무엇을 기대했습니까? 그게 아닙니다.

여기서 우리의 주요 메시지는 다음과 같습니다. AI의 작동을 두 번 또는 세 번 확인하는 것이 중요합니다. 이것은 단순한 수학 이상에 적용됩니다.

다음은 ChatGPT가 완전히 무너지는 몇 가지 예입니다. 우리는 사용했었다 ChatGPT 이 기사의 무료 gpt-3.5-based-turbo도 마찬가지입니다. 빙챗 , GPT 4를 기반으로합니다. 따라서 ChatGPT Plus with GPT 4가 ChatGPT의 무료 버전보다 낫지 만 높은 수준의 AI를 갖춘 챗봇으로도 이러한 문제를 경험해야합니다.

ChatGPT를 계산할 수 없습니다.

ChatGPT 및 Bing은 항목 목록을 계산하는 데 신뢰할 수 없는 것 같습니다. 필수 작업처럼 보이지만 신뢰할 수 있는 답변을 얻는 데 의존하지 마십시오.

우리는 ChatGPT에 숫자 열을 제공하고 숫자 발생 횟수를 세도록 요청했습니다. (자신을 세지 않아도 됩니다. 정답은 숫자 100이 14번 나오는 것입니다.)

ChatGPT를 수정하고 사과하고 새로운 답변을 제공하더라도 반드시 정답이 나오는 것은 아닙니다.

ChatGPT는 종종 미친 듯이 실수를 은폐하고 답변을 제공하려는 사람처럼 행동합니다. 실제로 매우 생생합니다!

늘 그렇듯이 큰 문제 중 하나는 ChatGPT가 다른 답변으로 당신을 쏘더라도 모든 답변에 대해 얼마나 절대적으로 확신하는지입니다.

Microsoft의 Bing Chat을 통해 GPT 4를 시도했지만 비슷한 문제가 발생했습니다. Bing은 이 어려운 문제를 해결하기 위해 일부 Python 코드를 작성하기로 결정했지만 올바른 답을 얻지 못했습니다. (Bing은 실제로 코드를 실행하지 않았습니다.)

ChatGPT는 수학적 논리 문제로 어려움을 겪고 있습니다.

ChatGPT에 수학에서 "단어 문제"를 주면 정답을 얻지 못하는 이상한 왜곡과 회전을 종종 보게 될 것입니다.

ChatGPT는 다른 펀드 간에 기여금을 할당하여 투자 포트폴리오의 균형을 재조정하려고 하는지 또는 단순히 과일을 많이 구입하고 과일 기반 포트폴리오를 고수하는지 묻는 질문을 반영하는 과일 기반 수학 문제를 제공했습니다. 

ChatGPT는 잘 시작하지만 빠르게 무의미한 논리로 바뀌고 정답을 제공하지 않습니다.

최종 답이 틀렸다는 것을 깨닫기 위해 모든 차례를 따를 필요는 없습니다.

ChatGPT는 종종 그들의 응답에 대해서도 검색하고 논쟁할 것입니다. (다시 말하지만 이것은 매우 인간적인 행동입니다.)

이 경우 ChatGPT는 이것이 정답을 얻지는 못했지만 이전보다 원하는 비율에 가까워졌다고 주장했습니다! 정말 웃기다.

공식적으로 GPT 4를 기반으로 하는 Microsoft의 Bing Chat도 이 문제로 어려움을 겪었고 분명히 잘못된 답변을 제공했습니다. 여기에서도 GPT 4 논리가 빠르게 시작됩니다.

모든 논리를 따르려고 하지 않는 것이 좋습니다. 대답은 분명히 잘못되었습니다.

우리가 Bing의 대답이 틀렸다고 지적했을 때, 그녀는 오답을 연달아 오답을 내며 원을 그리며 우리와 논쟁을 계속했습니다.

ChatGPT도 수학을 안정적으로 수행할 수 없습니다.

ChatGPT가 때때로 건너뛰고 기본 계정도 잘못 언급한다는 점은 주목할 가치가 있습니다. 우리는 잘 이성적인 대답 중간에 1 + 1 = 3 때리기와 같은 잘못된 산술 문제에 대한 논리적인 대답을 본 적이 있습니다.

ChatGPT 및 기타 AI 챗봇에서 얻은 모든 것을 다시 확인하고 다시 확인하십시오.

관련 게시물
에 기사를 게시

의견을 추가하다