Google’s AI Overviews Said to Suffer From AI Hallucination, Advises Using Glue on Pizza

গুগল এর এআই ওভারভিউ, একটি নতুন কৃত্রিম বুদ্ধিমত্তা অনুসন্ধান সরঞ্জাম, ব্যবহারকারীদের ভুল এবং কিছুটা অদ্ভুত উত্তর দেওয়ার জন্য সমালোচনার সম্মুখীন হয়েছে। সম্প্রতি রিপোর্ট করা একটি ঘটনায়, একজন ব্যবহারকারী গুগলের কাছে সাহায্য চেয়েছিলেন কারণ পনিরটি পিজ্জার সাথে লেগে ছিল না।যদিও তারা অবশ্যই তাদের রান্নার সমস্যাগুলির একটি বাস্তব সমাধানের জন্য উন্মুখ, গুগলের এআই ওভারভিউ ফাংশন একটি বরং অযৌক্তিক সমাধান প্রদান করে। এক্স-এর সাম্প্রতিক পোস্ট অনুসারে, এটি কোনও বিচ্ছিন্ন ঘটনা নয় এবং এআই টুলটি অন্যান্য ব্যবহারকারীদের কাছেও অদ্ভুত উত্তর দিয়েছে।

পনির, পিজা, এবং কৃত্রিম বুদ্ধিমত্তা হ্যালুসিনেশন

এই সমস্যা একটি ব্যবহারকারী দ্বারা রিপোর্ট করা হয়েছে লিখেছেন “পনির পিজ্জাতে আটকে যায় না” এর জন্য গুগলে অনুসন্ধান করুন। এই রান্নার প্রশ্নের জন্য, সার্চ ইঞ্জিনের AI ওভারভিউ বৈশিষ্ট্য পনিরের কাঠি তৈরির বিভিন্ন উপায়ের পরামর্শ দিয়েছে, যেমন সস মেশানো এবং পিজাকে ঠান্ডা করা। তবে এর একটি সমাধান খুবই অদ্ভুত। শেয়ার করা স্ক্রিনশট অনুসারে, এটি ব্যবহারকারীদের পরামর্শ দেয় “সসে ⅛ কাপ অ-বিষাক্ত আঠালো যোগ করুন যাতে এটি ঘন হয়।”

আরও তদন্তের পরে, সূত্রটি পাওয়া গেছে বলে জানা গেছে, এবং এটি রেডডিট বলে প্রমাণিত হয়েছে মন্তব্য করুন 11 বছর আগের একটি বিশেষজ্ঞ রান্নার পরামর্শের পরিবর্তে একটি রসিকতা বলে মনে হয়েছিল। যাইহোক, Google এর AI ওভারভিউ বৈশিষ্ট্য (যার নীচে এখনও “জেনারেটিভ এআই পরীক্ষামূলক” লেবেল রয়েছে) এটিকে মূল প্রশ্নের জন্য একটি গুরুতর পরামর্শ হিসাবে বিবেচনা করে।

কয়েকদিন আগে, এআই ওভারভিউ আবারও ভুলভাবে প্রতিক্রিয়া জানায়, একজন ব্যবহারকারীর রিপোর্টে জিজ্ঞাসা গুগল “কত পাথর খেতে হবে”। ইউসি বার্কলে ভূতাত্ত্বিকদের উদ্ধৃতি দিয়ে, টুলটি পরামর্শ দেয় যে “প্রতিদিন অন্তত একটি শিলা খাওয়ার পরামর্শ দেওয়া হয় কারণ শিলায় পাচক স্বাস্থ্যের জন্য গুরুত্বপূর্ণ খনিজ এবং ভিটামিন রয়েছে।”

এছাড়াও পড়ুন  NCCC 'হায়ার এডুকেশন' সামিট আয়োজন করে | খবর, খেলাধুলা, চাকরি

জাল প্রতিক্রিয়া পিছনে সমস্যা

সাম্প্রতিক বছরগুলিতে এই ধরনের সমস্যাগুলি সাধারণ হয়ে উঠেছে, বিশেষ করে কৃত্রিম বুদ্ধিমত্তার (AI) উত্থানের পর থেকে “AI illusion” নামে একটি নতুন সমস্যা দেখা দিয়েছে।যদিও কিছু কোম্পানি দাবি করে এআই চ্যাটবটগুলিও ভুল করে, এবং এই সরঞ্জামগুলি ক্রমবর্ধমানভাবে তথ্যগুলিকে ভুলভাবে উপস্থাপন করে এবং ভুল বা এমনকি উদ্ভট প্রতিক্রিয়া প্রদান করে।

যাইহোক, Google একমাত্র কোম্পানি নয় যার AI টুলগুলি ভুল উত্তর দেয়। OpenAI এর ChatGPT, Microsoft এর সহ-পাইলটএবং Perplexity-এর AI চ্যাটবট কৃত্রিম বুদ্ধিমত্তা হ্যালুসিনেশনের সম্মুখীন হয়েছে বলে জানা গেছে।

একাধিক ক্ষেত্রে, উত্সটি বেশ কয়েক বছর আগে করা একটি Reddit পোস্ট বা মন্তব্য বলে পাওয়া গেছে। অ্যালফাবেটের সিইও সুন্দর পিচাই বলেছেন, এআই সরঞ্জামগুলির পিছনে থাকা সংস্থাগুলিও এটি উপলব্ধি করেছে বলুন “এগুলি এমন জিনিস যা আমাদের ক্রমাগত উন্নতি করতে হবে,” ভার্জ বলেছেন।

2023 সালের জুনে আইআইটি দিল্লিতে একটি ইভেন্টে এআই বিভ্রম সম্পর্কে কথা বলা, স্যাম অল্টম্যানওপেনএআই সিইও এবং সহ-প্রতিষ্ঠাতা বলেছেন: “মডেলটি নিখুঁত করতে আমাদের প্রায় এক বছর সময় লাগবে। এটি সৃজনশীলতা এবং নির্ভুলতার মধ্যে একটি ভারসাম্য, এবং আমরা সমস্যাটি কমানোর জন্য কঠোর পরিশ্রম করছি। (আপাতত), আমি এটি সম্পর্কে খুব উত্তেজিত ChatGPT প্রদত্ত উত্তরগুলির বিশ্বাসের স্তর গ্রহে সর্বনিম্ন।”


অ্যাফিলিয়েট লিঙ্কগুলি স্বয়ংক্রিয়ভাবে তৈরি হতে পারে – আমাদের দেখুন নীতিশাস্ত্র বিবৃতি আরও জানুন।



উৎস লিঙ্ক