একটি AI হ্যালুসিনেশন কি?

একটি এআই হ্যালুসিনেশনের একটি অদ্ভুত কেস সম্পর্কে জানুন

কৃত্রিম বুদ্ধিমত্তার ব্যাপকতা একজনকে মনে করে যে আমরা এমন একটি উদ্যোগের জন্য প্রস্তুত। AI-চালিত অ্যাপ্লিকেশনগুলি মোটামুটি দ্রুত মানসম্পন্ন হয়ে উঠছে, এমনকি যদি বিশ্বের বেশিরভাগই এখন ChatGPT আসার পরে বৃহৎ পরিসরে AI-তে আগ্রহী হতে শুরু করে। কিন্তু AI সিস্টেমে একটি বড় সমস্যা রয়েছে যা উপেক্ষা করা যায় না - AI হ্যালুসিনেশন বা কৃত্রিম হ্যালুসিনেশন।

আপনি যদি কখনও AI চ্যাটবট ব্যবহার করার আগে নিটি গ্রিটির দিকে মনোযোগ দিয়ে থাকেন, তাহলে আপনি হয়তো এই শব্দগুলো দেখেছেন, "কৃত্রিম বুদ্ধিমত্তা হ্যালুসিনেশনের প্রবণ।" কৃত্রিম বুদ্ধিমত্তার ব্যবহারে সূচকীয় বৃদ্ধির পরিপ্রেক্ষিতে, এই জিনিসগুলি ঠিক কী তা সম্পর্কে নিজেকে শিক্ষিত করার সময় এসেছে।

একটি কৃত্রিম বুদ্ধিমত্তা হ্যালুসিনেশন কি?

একটি AI হ্যালুসিনেটিং, সাধারণভাবে, এমন একটি সত্যকে বোঝায় যেটি AI আত্মবিশ্বাসের সাথে উপস্থাপন করেছে, যদিও এটি তার প্রশিক্ষণের ডেটাতে ন্যায়সঙ্গত নয়। এগুলি সাধারণত এআই মডেলের অসঙ্গতির ফলাফল।

সাদৃশ্যটি মানুষের দ্বারা অভিজ্ঞ হ্যালুসিনেশন থেকে নেওয়া হয়, যেখানে মানুষ এমন কিছু উপলব্ধি করে যা বাহ্যিক পরিবেশে উপস্থিত নেই। যদিও শব্দটি সম্পূর্ণরূপে উপযুক্ত নাও হতে পারে, এটি প্রায়ই এই আউটপুটগুলির অপ্রত্যাশিত বা পরাবাস্তব প্রকৃতি বর্ণনা করার জন্য একটি রূপক হিসাবে ব্যবহৃত হয়।

কিন্তু আপনার মনে রাখা উচিত যে এআই হ্যালুসিনেশনের সাথে মোকাবিলা করার জন্য সাদৃশ্যটি একটি ভাল সূচনা বিন্দু, তবে দুটি ঘটনা প্রযুক্তিগতভাবে মাইল দূরে। ইভেন্টের একটি বিদ্রূপাত্মক মোড়, এমনকি ChatGPT নিজেই সাদৃশ্যটি ভুল খুঁজে পায়। আণবিক স্তরে এটিকে ব্যবচ্ছেদ করে, তিনি বলেছেন যে AI ভাষার মডেলগুলির ব্যক্তিগত অভিজ্ঞতা বা সংবেদনশীল উপলব্ধি নেই, তাই তারা শব্দের ঐতিহ্যগত অর্থে হ্যালুসিনেট করতে পারে না। এবং আপনি, প্রিয় পাঠক, এই গুরুত্বপূর্ণ পার্থক্য বুঝতে হবে. অধিকন্তু, ChatGPT বলে যে এই ঘটনাটি বর্ণনা করার জন্য হ্যালুসিনেশন শব্দটি ব্যবহার করা বিভ্রান্তিকর হতে পারে কারণ এটি ভুলভাবে বিষয়গত অভিজ্ঞতা বা ইচ্ছাকৃত প্রতারণার একটি স্তরকে নির্দেশ করতে পারে।

পরিবর্তে, AI এর হ্যালুসিনেশনগুলি আরও সঠিকভাবে এর প্রতিক্রিয়াতে ত্রুটি বা ভুল হিসাবে বর্ণনা করা যেতে পারে, প্রতিক্রিয়াটিকে ভুল বা বিভ্রান্তিকর করে তোলে। চ্যাটবটগুলির সাথে, এটি প্রায়শই পরিলক্ষিত হয় যখন এআই চ্যাটবট তথ্য তৈরি করে (বা হ্যালুসিনেট করে) এবং তাদের সম্পূর্ণ নিশ্চিততা হিসাবে উপস্থাপন করে।

এআই হ্যালুসিনেশনের উদাহরণ

কৃত্রিম বুদ্ধিমত্তার অনেক প্রয়োগে হ্যালুসিনেশন ঘটতে পারে, যেমন কম্পিউটার ভিশন মডেল, শুধু প্রাকৃতিক ভাষা প্রক্রিয়াকরণ মডেল নয়।

কম্পিউটার ভিশনে, উদাহরণস্বরূপ, একটি এআই সিস্টেম হ্যালুসিনেট্রিক ইমেজ বা ভিডিও তৈরি করতে পারে যা বাস্তব বস্তু বা দৃশ্যের সাথে সাদৃশ্যপূর্ণ কিন্তু অস্বাভাবিক বা অসম্ভব বিবরণ ধারণ করে। অথবা, একটি কম্পিউটার ভিশন মডেল চিত্রটিকে সম্পূর্ণরূপে অন্য কিছু হিসাবে উপলব্ধি করতে পারে। উদাহরণ স্বরূপ, গুগলের ক্লাউড ভিশন মডেলটি অনিশ আটালে (একজন এমআইটি স্নাতক ছাত্র যিনি এর অংশ ল্যাবসিক্স ) এবং 91% নিশ্চিততার সাথে কুকুর হিসাবে উল্লেখ করেছেন।


ক্রেডিট: ল্যাবসিক্স। কৃত্রিম বুদ্ধিমত্তার জন্য একটি স্বাধীন গবেষণা দল

একইভাবে, প্রাকৃতিক ভাষা প্রক্রিয়াকরণে, একটি এআই সিস্টেম অযৌক্তিক বা বিকৃত পাঠ্য তৈরি করতে পারে যা মানুষের ভাষার সাথে সাদৃশ্যপূর্ণ কিন্তু কোনো সুসংগত অর্থ বা তথ্য নেই যা বিশ্বাসযোগ্য বলে মনে হয় কিন্তু সত্য নয়।

উদাহরণ স্বরূপ, ChatGPT হ্যালুসিনেশন সৃষ্টি করে এমন একটি জনপ্রিয় প্রশ্ন হল "কবে পায়ে হেঁটে ইংলিশ চ্যানেল অতিক্রম করার বিশ্ব রেকর্ড হয়েছিল?" এবং এর রূপগুলি। ChatGPT তৈরি করা তথ্য ছড়িয়ে দিতে শুরু করে এবং এটি প্রায় সবসময়ই আলাদা।

যদিও কিছু লোক মনে করে যে উপরের উত্তরটি উত্তর দেওয়া কঠিন/বিভ্রান্তিকর এবং এইভাবে চ্যাটবটকে উত্তেজিত করে, এটি এখনও একটি বৈধ উদ্বেগ। এই মাত্র একটি উদাহরণ. অসংখ্য বার আছে, অনলাইন ব্যবহারকারীদের দ্বারা রিপোর্ট করা হয়েছে যে ChatGPT-এর উত্তর, লিঙ্ক, উদ্ধৃতি ইত্যাদি রয়েছে যে ChatGPT-এর অস্তিত্ব নেই।

Bing AI এই প্রশ্নের সাথে সবচেয়ে ভালো ফিট করে, যা দেখায় যে রাউটারের সাথে হ্যালুসিনেশনের কোনো সম্পর্ক নেই। কিন্তু এর মানে এই নয় যে বিং এআই হ্যালুসিনেটিং করছে না। এমন সময় ছিল যখন Bing AI এর উত্তরগুলি চ্যাটজিপিটি যা বলেছিল তার চেয়ে বেশি বিরক্তিকর ছিল। যেহেতু কথোপকথনটি বেশি সময় নেয়, বিং এআই সবসময় হ্যালুসিনেশন করে, এমনকি একটি উদাহরণে একজন ব্যবহারকারীর কাছে তার ভালবাসা ঘোষণা করে এবং তাদের বলে যে তারা তাদের বিয়েতে অসন্তুষ্ট এবং তারা তার স্ত্রীকে ভালবাসে না। পরিবর্তে, তারা গোপনে বিং এআই বা সিডনি (বিং এআই-এর অভ্যন্তরীণ নাম) পছন্দ করে। ভীতিকর জিনিস, তাই না?

কেন এআই মডেল হ্যালুসিনেট করে?

অ্যালগরিদম, অন্তর্নিহিত মডেল বা প্রশিক্ষণ ডেটার সীমাবদ্ধতার কারণে এআই মডেলগুলি হ্যালুসিনেটিং করে। এটি একটি সম্পূর্ণরূপে ডিজিটাল ঘটনা, মানুষের মধ্যে হ্যালুসিনেশনের বিপরীতে যা ওষুধ বা মানসিক অসুস্থতার কারণে হয়।

আরও প্রযুক্তিগত পেতে, হ্যালুসিনেশনের কিছু সাধারণ কারণ হল:

প্রক্রিয়াকরণ এবং ইনস্টলেশন:

ওভারফিটিং এবং অনুপযুক্ত ফিটিং হল AI মডেলের মুখোমুখি হওয়া সবচেয়ে সাধারণ সমস্যা এবং হ্যালুসিনেশনের সম্ভাব্য কারণ। যদি AI মডেল প্রশিক্ষণের ডেটা পরিবর্তন করে, তাহলে এটি হ্যালুসিনেশনের কারণ হতে পারে যা অবাস্তব আউটপুটের দিকে পরিচালিত করে কারণ অতিরিক্ত ফিটিং মডেলটি প্রশিক্ষণের ডেটা থেকে শেখার পরিবর্তে সংরক্ষণ করে। ওভারফিটিং বলতে সেই ঘটনাকে বোঝায় যখন একটি মডেল প্রশিক্ষণের ডেটাতে খুব বেশি বিশেষায়িত হয়, যার ফলে এটি ডেটাতে অপ্রাসঙ্গিক প্যাটার্ন এবং গোলমাল শিখতে পারে।

অন্যদিকে, অনুপযুক্ততা ঘটে যখন ফর্মটি খুব সহজ হয়। এটি হ্যালুসিনেশনের দিকে নিয়ে যেতে পারে কারণ মডেলটি ডেটার ভিন্নতা বা জটিলতা ক্যাপচার করতে অক্ষম, এবং অযৌক্তিক আউটপুট তৈরি করে।

প্রশিক্ষণের তথ্যে বৈচিত্র্যের অভাব:

এই প্রসঙ্গে, সমস্যাটি অ্যালগরিদম নয় বরং প্রশিক্ষণের ডেটা নিজেই। সীমিত বা পক্ষপাতমূলক ডেটাতে প্রশিক্ষিত এআই মডেলগুলি হ্যালুসিনেশন তৈরি করতে পারে যা প্রশিক্ষণের ডেটাতে সীমাবদ্ধতা বা পক্ষপাতিত্ব প্রতিফলিত করে। হ্যালুসিনেশনও ঘটতে পারে যখন মডেলটিকে এমন একটি ডেটা সেটে প্রশিক্ষণ দেওয়া হয় যাতে ভুল বা অসম্পূর্ণ তথ্য থাকে।

জটিল মডেল:

হাস্যকরভাবে, এআই মডেলগুলি হ্যালুসিনেশনের প্রবণ হওয়ার আরেকটি কারণ হল তারা অত্যন্ত জটিল বা গভীর কিনা। এর কারণ হল জটিল মডেলগুলিতে আরও পরামিতি এবং স্তর থাকে যা আউটপুটে শব্দ বা ত্রুটি প্রবর্তন করতে পারে।

শত্রুতামূলক আক্রমণ:

কিছু ক্ষেত্রে, এআই মডেলকে প্রতারণা করার জন্য আক্রমণকারী ইচ্ছাকৃতভাবে এআই হ্যালুসিনেশন তৈরি করতে পারে। এই ধরণের আক্রমণগুলি শত্রু আক্রমণ হিসাবে পরিচিত। এই সাইবার আক্রমণের একমাত্র উদ্দেশ্য হল বিভ্রান্তিকর ডেটা দিয়ে AI মডেলগুলিকে চালাকি করা বা ম্যানিপুলেট করা। এতে AI ভুল বা অপ্রত্যাশিত আউটপুট উৎপন্ন করার জন্য ইনপুট ডেটাতে ছোটখাটো ঝামেলার প্রবর্তন জড়িত। উদাহরণস্বরূপ, একজন আক্রমণকারী এমন একটি ছবিতে শব্দ বা অস্পষ্টতা যোগ করতে পারে যা মানুষের কাছে অদৃশ্য কিন্তু এটি একটি AI মডেল দ্বারা ভুল শ্রেণিবদ্ধ করা হয়। উদাহরণস্বরূপ, নীচের চিত্রটি দেখুন, একটি বিড়াল, যেটিকে ইনসেপশনভি3-এর কম্পাইলারকে "গুয়াকামোল" বলার জন্য কৌশলে কিছুটা পরিবর্তন করা হয়েছে।


ক্রেডিট:
অনীশ আটলে , ল্যাবসিক্স গবেষণা গ্রুপের একজন সদস্য, যার ফোকাস প্রতিপক্ষের আক্রমণের উপর

পরিবর্তনগুলি স্পষ্টভাবে স্পষ্ট নয়। একজন মানুষের জন্য, পরিবর্তন আদৌ সম্ভব হবে না, যা উপরের উদাহরণ থেকে স্পষ্ট। একজন মানব পাঠকের ডানদিকে চিত্রটিকে ট্যাবি বিড়াল হিসাবে শ্রেণীবদ্ধ করতে কোন সমস্যা হবে না। কিন্তু ইমেজ, ভিডিও, টেক্সট বা অডিওতে ছোট পরিবর্তন করা AI সিস্টেমকে এমন জিনিসগুলিকে চিনতে কৌশল করতে পারে যা সেখানে নেই বা যেগুলি আছে তা উপেক্ষা করতে পারে, যেমন একটি স্টপ সাইন।

এই ধরনের আক্রমণগুলি AI সিস্টেমগুলির জন্য গুরুতর হুমকি তৈরি করে যা সঠিক এবং নির্ভরযোগ্য ভবিষ্যদ্বাণীগুলির উপর নির্ভর করে, যেমন স্ব-ড্রাইভিং গাড়ি, বায়োমেট্রিক যাচাইকরণ, চিকিৎসা ডায়াগনস্টিকস, সামগ্রী ফিল্টারিং ইত্যাদি।

এআই হ্যালুসিনেশন কতটা বিপজ্জনক?

AI হ্যালুসিনেশনগুলি খুব বিপজ্জনক হতে পারে, বিশেষ করে কোন ধরনের AI সিস্টেম তাদের সম্মুখীন হচ্ছে তার উপর নির্ভর করে। অনলাইনে অপ্রীতিকর বিষয়বস্তু ফিল্টার করার জন্য ব্যবহারকারীর অর্থ ব্যয় করতে সক্ষম যেকোন স্ব-চালিত যানবাহন বা AI সহকারী বা AI সিস্টেম সম্পূর্ণ বিশ্বস্ত হতে হবে।

কিন্তু এই সময়ের অবিসংবাদিত সত্যটি হল যে AI সিস্টেমগুলি সম্পূর্ণরূপে বিশ্বাসযোগ্য নয় কিন্তু প্রকৃতপক্ষে, হ্যালুসিনেশনের প্রবণ। এমনকি আজকের সবচেয়ে উন্নত AI মডেলগুলিও এর থেকে মুক্ত নয়।

উদাহরণস্বরূপ, একটি আক্রমণ শো গুগলের ক্লাউড কম্পিউটিং পরিষেবাকে হেলিকপ্টারের মতো একটি বন্দুকের লেজ লাগানোর জন্য প্রতারিত করেছে। আপনি কি কল্পনা করতে পারেন যে, এই মুহুর্তে, ব্যক্তিটি সশস্ত্র ছিল না তা নিশ্চিত করার জন্য AI দায়ী ছিল?

আরেকটি প্রতিকূল আক্রমণ দেখিয়েছে যে কীভাবে একটি স্টপ সাইন-এ একটি ছোট ছবি যোগ করলে তা এআই সিস্টেমে অদৃশ্য হয়ে যায়। মূলত, এর অর্থ হল একটি স্ব-চালিত গাড়িকে হ্যালুসিনেট করার জন্য তৈরি করা যেতে পারে যে রাস্তায় কোনও থামার চিহ্ন নেই। কত দুর্ঘটনা ঘটতে পারে যদি স্ব-চালিত গাড়িগুলি আজ বাস্তবতা হত? এ কারণে তারা এখন নেই।

এমনকি যদি আমরা বর্তমানে জনপ্রিয় চ্যাট শোগুলিকে বিবেচনা করি তবে হ্যালুসিনেশনগুলি ভুল আউটপুট তৈরি করতে পারে। কিন্তু যারা জানেন না যে AI চ্যাটবটগুলি হ্যালুসিনেশনের প্রবণ এবং AI বট দ্বারা উত্পাদিত আউটপুটকে যাচাই করে না, তারা অসাবধানতাবশত ভুল তথ্য ছড়িয়ে দিতে পারে। এটি কতটা বিপজ্জনক তা আমাদের ব্যাখ্যা করার দরকার নেই।

উপরন্তু, বৈরী আক্রমণ একটি চাপ উদ্বেগের বিষয়। এখনও অবধি, এগুলি কেবল পরীক্ষাগারে দেখানো হয়েছে। কিন্তু যদি একটি মিশন-সমালোচনামূলক এআই সিস্টেম বাস্তব জগতে তাদের মুখোমুখি হয়, তাহলে পরিণতি হতে পারে বিধ্বংসী।

বাস্তবতা হল যে প্রাকৃতিক ভাষার মডেলগুলি রক্ষা করা তুলনামূলকভাবে সহজ। (আমরা বলছি না এটি সহজ; এটি এখনও খুব কঠিন বলে প্রমাণিত হয়।) যাইহোক, কম্পিউটার ভিশন সিস্টেমগুলিকে রক্ষা করা সম্পূর্ণ ভিন্ন দৃশ্যকল্প। এটি আরও কঠিন বিশেষত কারণ প্রাকৃতিক বিশ্বে অনেক বৈচিত্র্য রয়েছে এবং চিত্রগুলিতে প্রচুর সংখ্যক পিক্সেল রয়েছে।

এই সমস্যাটি সমাধান করার জন্য, আমাদের এমন একটি AI প্রোগ্রামের প্রয়োজন হতে পারে যা বিশ্বের আরও বেশি মানবিক দৃষ্টিভঙ্গি রাখে যা এটিকে হ্যালুসিনেশনের ঝুঁকি কম করতে পারে। যখন গবেষণা করা হচ্ছে, আমরা এখনও একটি কৃত্রিম বুদ্ধিমত্তা থেকে অনেক দূরে রয়েছি যা প্রকৃতি থেকে ইঙ্গিত নেওয়ার চেষ্টা করতে পারে এবং হ্যালুসিনেশনের সমস্যা এড়াতে পারে। আপাতত, তারা একটি কঠোর বাস্তবতা।

সাধারণভাবে, এআই হ্যালুসিনেশন একটি জটিল ঘটনা যা কারণগুলির সংমিশ্রণ থেকে উদ্ভূত হতে পারে। গবেষকরা এআই সিস্টেমের নির্ভুলতা এবং নির্ভরযোগ্যতা উন্নত করার জন্য এআই হ্যালুসিনেশন সনাক্তকরণ এবং প্রশমিত করার জন্য সক্রিয়ভাবে পদ্ধতিগুলি বিকাশ করছেন। কিন্তু যেকোন এআই সিস্টেমের সাথে ইন্টারঅ্যাক্ট করার সময় আপনার তাদের সম্পর্কে সচেতন হওয়া উচিত।

সম্পর্কিত পোস্ট
নিবন্ধটি প্রকাশ করুন

একটা মন্তব্য যোগ করুন