গবেষণা দেখায় যে কৃত্রিম বুদ্ধিমত্তা মডেলগুলি নিজেদেরকে অবনমিত করতে পারে, মাত্র কয়েক প্রজন্মের মধ্যে মূল বিষয়বস্তুকে অপূরণীয় বাজে কথায় পরিণত করে। প্রকাশ আজ ইন প্রকৃতি.
সাম্প্রতিক গবেষণা স্ব-প্রশিক্ষণের কারণে AI মডেলের পতনের ক্রমবর্ধমান ঝুঁকিকে হাইলাইট করে, মূল ডেটা উত্স এবং যত্নশীল ডেটা ফিল্টারিংয়ের প্রয়োজনীয়তার উপর জোর দেয়।
কৃত্রিম বুদ্ধিমত্তা কি ধরনের মডেল পতন প্রবণ?
মডেলের পতন ঘটে যখন একটি AI মডেলকে AI-উত্পন্ন ডেটার উপর প্রশিক্ষণ দেওয়া হয়।
অক্সফোর্ড বিশ্ববিদ্যালয়ের একজন গবেষক এবং গবেষণাপত্রের প্রধান লেখক ইলিয়া শুমাইলভ, গিজমোডোকে একটি ইমেলে বলেছেন, “সিন্থেটিক ডেটার উপর নির্বিচারে প্রশিক্ষণের কারণে মডেলের পতন হল মডেলের পতনের ঘটনা।”
নতুন কাগজ অনুযায়ী, জেনারেটিভ আর্টিফিশিয়াল ইন্টেলিজেন্স টুলস বড় ভাষার মডেলগুলি প্রশিক্ষণের ডেটা সেটের কিছু অংশকে উপেক্ষা করতে পারে, যার ফলে মডেলটি শুধুমাত্র নির্দিষ্ট ডেটাতে প্রশিক্ষণ দেয়।
বড় ভাষার মডেল (LL.M.) হল কৃত্রিম বুদ্ধিমত্তার মডেল যেগুলিকে প্রচুর পরিমাণে ডেটার উপর প্রশিক্ষিত করা যেতে পারে, যা তাদের তথ্য ব্যাখ্যা করতে এবং বিভিন্ন ব্যবহারের ক্ষেত্রে প্রয়োগ করতে দেয়। LL.M.s প্রায়ই টেক্সট বোঝার এবং তৈরি করার জন্য ডিজাইন করা হয়, যা তাদের চ্যাটবট এবং কৃত্রিম বুদ্ধিমত্তা সহকারী হিসাবে ব্যবহার করার অনুমতি দেয়। কিন্তু দলটি দেখেছে যে তারা যে বিপুল পরিমাণ টেক্সট পড়ছিল তা উপেক্ষা করা এবং এটিকে তাদের জ্ঞানের ভিত্তিতে অন্তর্ভুক্ত করা একটি LL.M কে তুলনামূলকভাবে দ্রুততার সাথে কমিয়ে দিতে পারে।
“মডেল পতনের প্রাথমিক পর্যায়ে, প্রথম মডেলটি ভিন্নতা হারায় এবং তাই অল্প সংখ্যক ডেটাতে কর্মক্ষমতা হারায়,” শুমাইলভ বলেন। “মডেল পতনের পরবর্তী পর্যায়ে, মডেলটি সম্পূর্ণভাবে ভেঙে যায়।” এইভাবে, এই পুনরাবৃত্ত লুপটি মডেলের অবনতির দিকে নিয়ে যায় কারণ মডেলটি ক্রমবর্ধমানভাবে কম নির্ভুল এবং প্রাসঙ্গিক পাঠ্য তৈরি করে।
মডেল পতনের একটি কেস স্টাডি: গীর্জা এবং জ্যাকরবিটস
গবেষণাপত্রে, গবেষকরা OPT-125m নামক একটি টেক্সট জেনারেশন মডেল ব্যবহার করে একটি উদাহরণ প্রদান করেছেন, যার কার্যকারিতা ChatGPT-এর GPT3-এর মতো কিন্তু একটি ছোট কার্বন ফুটপ্রিন্ট রয়েছে। আলিঙ্গন মুখ অনুযায়ী (একটি মাঝারি আকারে বড় মডেল প্রশিক্ষণ CO2 নির্গমনের দ্বিগুণ উত্পাদন করে গড় আমেরিকান জীবনকাল)।
দলটি 14 শতকের গির্জার টাওয়ার ডিজাইনের বিষয়ে মডেলটিতে পাঠ্য প্রবেশ করেছে, টেক্সট আউটপুটের প্রথম প্রজন্মের মডেলটি বেশিরভাগই লক্ষ্যবস্তু ছিল, বিভিন্ন পোপ রাজত্বের অধীনে নির্মিত ভবনগুলি নিয়ে আলোচনা করে।
কিন্তু নবম প্রজন্মের টেক্সট আউটপুট দ্বারা, মডেলটি প্রাথমিকভাবে প্রচুর পরিমাণে কালো, সাদা, নীল, লাল এবং হলুদ-লেজযুক্ত জ্যাকরাবিট (যার বেশিরভাগই আমাদের লক্ষ্য করা উচিত, কাঁঠালের প্রকৃত প্রজাতি নয়) সম্পর্কে কথা বলছিল।
যেহেতু AI কন্টেন্ট ওয়েবে প্লাবিত হয়, মডেলের পতন আরও গুরুতর হয়ে ওঠে
ইন্টারনেটে বিশৃঙ্খলা নতুন কিছু নয়। গবেষকরা তাদের গবেষণাপত্রে উল্লেখ করেছেন, এলএলএম এর অনেক আগে। বিষয়বস্তু এবং ট্রল খামার ওয়েবের বিষয়বস্তু প্রথমে আপনার সাইটে ক্লিক পেতে অ্যালগরিদম অনুসন্ধান করে। কিন্তু এআই-জেনারেট করা টেক্সট মানুষ যতটা দ্রুত তৈরি করতে পারে তার চেয়ে দ্রুত তৈরি হতে পারে, যা ব্যাপক উদ্বেগ বাড়ায়।
“যদিও মানবতার উপর কৃত্রিম বুদ্ধিমত্তা-উত্পাদিত নেটওয়ার্কগুলির প্রভাব দেখা বাকি, শুমাইলভ ইত্যাদি এমিলি ওয়েঙ্গার, ডিউক ইউনিভার্সিটির একজন কম্পিউটার বিজ্ঞানী যিনি গোপনীয়তা এবং সুরক্ষায় বিশেষজ্ঞ, একটি সম্পর্কিত প্রতিবেদনে লিখেছেন: “প্রতিবেদনটি নির্দেশ করে যে কৃত্রিম বুদ্ধিমত্তা-উত্পন্ন অনলাইন সামগ্রীর বিস্তার মডেলগুলির জন্য ধ্বংসাত্মক হতে পারে। খবর ও দৃশ্য নিবন্ধ
“এর বাইরে, মডেল ভেঙে পড়া কৃত্রিম বুদ্ধিমত্তার ন্যায্যতাকে চ্যালেঞ্জ করে যেগুলি প্রশিক্ষণের উপাদানগুলিতে কম সাধারণ এবং তাই বিশ্বের জটিলতা এবং সূক্ষ্মতাকে প্রতিফলিত করতে ব্যর্থ হয়”। “এটি ঝুঁকি তৈরি করে যে সংখ্যালঘু গোষ্ঠী বা দৃষ্টিভঙ্গিগুলি কম প্রতিনিধিত্ব করা হবে বা সম্ভাব্যভাবে বাদ দেওয়া হবে।”
বড় প্রযুক্তি সংস্থাগুলি কৃত্রিম বুদ্ধিমত্তা-উত্পাদিত সামগ্রীর পরিমাণ কমাতে কিছু পদক্ষেপ নিচ্ছে যা গড় ওয়েব সার্ফার দেখে। মার্চ, গুগল ঘোষণা করেছে এটি তার অ্যালগরিদমকে পৃষ্ঠাগুলিকে অগ্রাধিকার না দেওয়ার জন্য সামঞ্জস্য করবে যা ঘোষণার পরিবর্তে সার্চ ইঞ্জিনের জন্য ডিজাইন করা হয়েছে; দ্বারা অনুসরণ করা হয় অন্যতম অধ্যায় 404 মিডিয়া রিপোর্ট Google News-এ AI-উত্পাদিত নিবন্ধগুলিকে শক্তিশালী করা।
এআই মডেলগুলি জটিল হতে পারে, এবং সাম্প্রতিক গবেষণার লেখকরা জোর দেন যে ডেটার মূল উত্সগুলি অ্যাক্সেস করা এবং পুনরাবৃত্তভাবে প্রশিক্ষিত মডেলগুলিতে ডেটা সাবধানে ফিল্টার করা মডেলগুলিকে ট্র্যাকে রাখতে সহায়তা করতে পারে।
দলটি আরও পরামর্শ দিয়েছে যে এলএলএম তৈরিতে জড়িত এআই সম্প্রদায়ের মধ্যে সমন্বয় মডেলের মাধ্যমে প্রদত্ত তথ্যের উত্স খুঁজে পেতে সহায়তা করতে পারে। “অন্যথায়,” দলটি উপসংহারে বলে, “এলএলএম-এর নতুন সংস্করণগুলিকে প্রশিক্ষণ দেওয়া ক্রমবর্ধমান কঠিন হয়ে উঠতে পারে যদি প্রযুক্তিটি আগে ওয়েব থেকে স্ক্র্যাপ করা ডেটা অ্যাক্সেস করতে না পারে বা স্কেলে মানুষের দ্বারা উত্পন্ন ডেটা সরাসরি অ্যাক্সেস করতে পারে না৷
ওহ, এমন কৃত্রিম বুদ্ধিমত্তার সাহসী নতুন বিশ্ব!