গুগল এর এআই ওভারভিউ, একটি নতুন কৃত্রিম বুদ্ধিমত্তা অনুসন্ধান সরঞ্জাম, ব্যবহারকারীদের ভুল এবং কিছুটা অদ্ভুত উত্তর দেওয়ার জন্য সমালোচনার সম্মুখীন হয়েছে। সম্প্রতি রিপোর্ট করা একটি ঘটনায়, একজন ব্যবহারকারী গুগলের কাছে সাহায্য চেয়েছিলেন কারণ পনিরটি পিজ্জার সাথে লেগে ছিল না।যদিও তারা অবশ্যই তাদের রান্নার সমস্যাগুলির একটি বাস্তব সমাধানের জন্য উন্মুখ, গুগলের এআই ওভারভিউ ফাংশন একটি বরং অযৌক্তিক সমাধান প্রদান করে। এক্স-এর সাম্প্রতিক পোস্ট অনুসারে, এটি কোনও বিচ্ছিন্ন ঘটনা নয় এবং এআই টুলটি অন্যান্য ব্যবহারকারীদের কাছেও অদ্ভুত উত্তর দিয়েছে।
পনির, পিজা, এবং কৃত্রিম বুদ্ধিমত্তা হ্যালুসিনেশন
এই সমস্যা একটি ব্যবহারকারী দ্বারা রিপোর্ট করা হয়েছে লিখেছেন “পনির পিজ্জাতে আটকে যায় না” এর জন্য গুগলে অনুসন্ধান করুন। এই রান্নার প্রশ্নের জন্য, সার্চ ইঞ্জিনের AI ওভারভিউ বৈশিষ্ট্য পনিরের কাঠি তৈরির বিভিন্ন উপায়ের পরামর্শ দিয়েছে, যেমন সস মেশানো এবং পিজাকে ঠান্ডা করা। তবে এর একটি সমাধান খুবই অদ্ভুত। শেয়ার করা স্ক্রিনশট অনুসারে, এটি ব্যবহারকারীদের পরামর্শ দেয় “সসে ⅛ কাপ অ-বিষাক্ত আঠালো যোগ করুন যাতে এটি ঘন হয়।”
Google AI ওভারভিউ পিজ্জাতে পনির স্টিক তৈরি করতে আঠা যুক্ত করার পরামর্শ দেয়, সূত্রটি দেখা যাচ্ছে একটি Reddit মন্তব্য যা 11 বছর আগে ব্যবহারকারী F*cksmith দ্বারা পোস্ট করা হয়েছিল 😂 pic.twitter.com/uDPAbsAKeO
— পিটার ইয়াং (@ petergyang) 23 মে, 2024
আরও তদন্তের পরে, সূত্রটি পাওয়া গেছে বলে জানা গেছে, এবং এটি রেডডিট বলে প্রমাণিত হয়েছে মন্তব্য করুন 11 বছর আগের একটি বিশেষজ্ঞ রান্নার পরামর্শের পরিবর্তে একটি রসিকতা বলে মনে হয়েছিল। যাইহোক, Google এর AI ওভারভিউ বৈশিষ্ট্য (যার নীচে এখনও “জেনারেটিভ এআই পরীক্ষামূলক” লেবেল রয়েছে) এটিকে মূল প্রশ্নের জন্য একটি গুরুতর পরামর্শ হিসাবে বিবেচনা করে।
কয়েকদিন আগে, এআই ওভারভিউ আবারও ভুলভাবে প্রতিক্রিয়া জানায়, একজন ব্যবহারকারীর রিপোর্টে জিজ্ঞাসা গুগল “কত পাথর খেতে হবে”। ইউসি বার্কলে ভূতাত্ত্বিকদের উদ্ধৃতি দিয়ে, টুলটি পরামর্শ দেয় যে “প্রতিদিন অন্তত একটি শিলা খাওয়ার পরামর্শ দেওয়া হয় কারণ শিলায় পাচক স্বাস্থ্যের জন্য গুরুত্বপূর্ণ খনিজ এবং ভিটামিন রয়েছে।”
জাল প্রতিক্রিয়া পিছনে সমস্যা
সাম্প্রতিক বছরগুলিতে এই ধরনের সমস্যাগুলি সাধারণ হয়ে উঠেছে, বিশেষ করে কৃত্রিম বুদ্ধিমত্তার (AI) উত্থানের পর থেকে “AI illusion” নামে একটি নতুন সমস্যা দেখা দিয়েছে।যদিও কিছু কোম্পানি দাবি করে এআই চ্যাটবটগুলিও ভুল করে, এবং এই সরঞ্জামগুলি ক্রমবর্ধমানভাবে তথ্যগুলিকে ভুলভাবে উপস্থাপন করে এবং ভুল বা এমনকি উদ্ভট প্রতিক্রিয়া প্রদান করে।
যাইহোক, Google একমাত্র কোম্পানি নয় যার AI টুলগুলি ভুল উত্তর দেয়। OpenAI এর ChatGPT, Microsoft এর সহ-পাইলটএবং Perplexity-এর AI চ্যাটবট কৃত্রিম বুদ্ধিমত্তা হ্যালুসিনেশনের সম্মুখীন হয়েছে বলে জানা গেছে।
একাধিক ক্ষেত্রে, উত্সটি বেশ কয়েক বছর আগে করা একটি Reddit পোস্ট বা মন্তব্য বলে পাওয়া গেছে। অ্যালফাবেটের সিইও সুন্দর পিচাই বলেছেন, এআই সরঞ্জামগুলির পিছনে থাকা সংস্থাগুলিও এটি উপলব্ধি করেছে বলুন “এগুলি এমন জিনিস যা আমাদের ক্রমাগত উন্নতি করতে হবে,” ভার্জ বলেছেন।
2023 সালের জুনে আইআইটি দিল্লিতে একটি ইভেন্টে এআই বিভ্রম সম্পর্কে কথা বলা, স্যাম অল্টম্যানওপেনএআই সিইও এবং সহ-প্রতিষ্ঠাতা বলেছেন: “মডেলটি নিখুঁত করতে আমাদের প্রায় এক বছর সময় লাগবে। এটি সৃজনশীলতা এবং নির্ভুলতার মধ্যে একটি ভারসাম্য, এবং আমরা সমস্যাটি কমানোর জন্য কঠোর পরিশ্রম করছি। (আপাতত), আমি এটি সম্পর্কে খুব উত্তেজিত ChatGPT প্রদত্ত উত্তরগুলির বিশ্বাসের স্তর গ্রহে সর্বনিম্ন।”