OpenAI এবং গুগল ডিপমাইন্ড কৃত্রিম বুদ্ধিমত্তা (AI) সিস্টেম এবং সক্ষমতা তৈরির ক্ষেত্রে শীর্ষস্থানীয় প্রযুক্তি কোম্পানিগুলির মধ্যে একটি। যাইহোক, এই সংস্থাগুলির বেশ কয়েকজন বর্তমান এবং প্রাক্তন কর্মচারী এখন একটি খোলা চিঠিতে স্বাক্ষর করেছেন যাতে দাবি করা হয়েছে যে এই সিস্টেমগুলি সামান্য তদারকির সাথে তৈরি করা হয়েছিল এবং এই প্রযুক্তির দ্বারা সৃষ্ট প্রধান ঝুঁকিগুলির প্রতি অপর্যাপ্ত মনোযোগ দেওয়া হয়েছিল। খোলা চিঠিটি কৃত্রিম বুদ্ধিমত্তার তিনটি “গডফাদার” জিওফ্রে হিন্টন এবং ইয়োশুয়া বেঙ্গিওর মধ্যে দুজনের দ্বারা সমর্থিত এবং আরও ভাল হুইসেলব্লোয়ার সুরক্ষা নীতি তৈরি করার জন্য নিয়োগকর্তাদের আহ্বান জানিয়েছে৷
OpenAI, Google DeepMind কর্মীরা কৃত্রিম বুদ্ধিমত্তা সম্পর্কে সতর্কতা জারি করার অধিকার দাবি করে
এই খোলা খাম প্রতিবেদনে বলা হয়েছে, প্রতিবেদনটি প্রধান কৃত্রিম বুদ্ধিমত্তা সংস্থাগুলির বর্তমান এবং প্রাক্তন কর্মচারীরা লিখেছেন, যারা বিশ্বাস করেন যে কৃত্রিম বুদ্ধিমত্তা মানবজাতির জন্য অভূতপূর্ব সুবিধা বয়ে আনতে সক্ষম। প্রতিবেদনে আরও উল্লেখ করা হয়েছে যে এআই প্রযুক্তির দ্বারা সৃষ্ট ঝুঁকির মধ্যে রয়েছে সামাজিক বৈষম্যকে বাড়িয়ে তোলা, ভুল তথ্য ছড়ানো এবং ম্যানিপুলেশন, এমনকি এআই সিস্টেমের নিয়ন্ত্রণ হারানো, যা মানুষের বিলুপ্তির দিকে নিয়ে যেতে পারে।
খোলা চিঠিতে জোর দেওয়া হয়েছে যে এই প্রযুক্তি জায়ান্টদের দ্বারা বাস্তবায়িত স্ব-শাসন কাঠামো কার্যকরভাবে এই ঝুঁকিগুলির পর্যালোচনা নিশ্চিত করতে পারে না। এটি আরও দাবি করে যে “শক্তিশালী আর্থিক প্রণোদনা” কোম্পানিগুলিকে এআই সিস্টেমগুলির সম্ভাব্য বিপদগুলি উপেক্ষা করতে আরও উৎসাহিত করে।
খোলা চিঠিতে দাবি করা হয়েছে যে AI কোম্পানিগুলি AI এর ক্ষমতা, সীমাবদ্ধতা এবং বিভিন্ন বিপদের ঝুঁকির মাত্রা সম্পর্কে সচেতন এবং তাদের সংশোধনমূলক ব্যবস্থা নেওয়ার উদ্দেশ্য নিয়ে প্রশ্ন তোলে। চিঠিতে বলা হয়েছে, “বর্তমানে তাদের সরকারের কাছে কিছু তথ্য শেয়ার করার দুর্বল বাধ্যবাধকতা রয়েছে এবং সুশীল সমাজের কাছে কোনো বাধ্যবাধকতা নেই। আমরা বিশ্বাস করি না যে তারা সবাই স্বেচ্ছায় এই তথ্য শেয়ার করবে বলে আশা করা যায়,” চিঠিতে লেখা হয়েছে।
খোলা চিঠিতে নিয়োগকর্তাদের চারটি দাবি জানানো হয়েছে। প্রথমত, কর্মচারীরা চায় কোম্পানীগুলো যেন ঝুঁকি-সম্পর্কিত বিষয়গুলোর সমালোচনা করা থেকে তাদের নিষিদ্ধ করে এমন কোনো চুক্তিতে প্রবেশ বা প্রয়োগ না করে। দ্বিতীয়ত, কোম্পানির বোর্ড, নিয়ন্ত্রক এবং উপযুক্ত স্বাধীন সংস্থার সাথে ঝুঁকি-সম্পর্কিত প্রশ্ন উত্থাপন করার জন্য তাদের বর্তমান এবং প্রাক্তন কর্মচারীদের জন্য একটি যাচাইযোগ্য, বেনামী প্রক্রিয়া প্রয়োজন।
কর্মচারীরাও সংগঠনকে জনসমক্ষে সমালোচনার সংস্কৃতি গড়ে তোলার আহ্বান জানান। অবশেষে, চিঠিতে জোর দেওয়া হয়েছে যে নিয়োগকর্তাদের বর্তমান এবং প্রাক্তন কর্মচারীদের বিরুদ্ধে প্রতিশোধ নেওয়া উচিত নয় যারা অন্যান্য প্রক্রিয়া ব্যর্থ হওয়ার পরে প্রকাশ্যে ঝুঁকি-সম্পর্কিত গোপনীয় তথ্য ভাগ করে নেয়।
OpenAI এবং Google DeepMind-এর মোট 13 জন প্রাক্তন এবং বর্তমান কর্মী খোলা চিঠিতে স্বাক্ষর করেছেন। কৃত্রিম বুদ্ধিমত্তার এই দুই “গডফাদার” ছাড়াও, ব্রিটিশ কম্পিউটার বিজ্ঞানী স্টুয়ার্ট রাসেলও এই পদক্ষেপের প্রতি সমর্থন জানিয়েছেন।
প্রাক্তন OpenAI কর্মচারী AI ঝুঁকি নিয়ে আলোচনা করেছেন
ড্যানিয়েল কোকোটাজলো, প্রাক্তন ওপেনএআই কর্মচারীদের একজন যারা খোলা চিঠিতে স্বাক্ষর করেছিলেন, তিনিও একাধিক মন্তব্য করেছিলেন পোস্ট টুইটারে, তিনি কোম্পানিতে কাজ করার অভিজ্ঞতা এবং কৃত্রিম বুদ্ধিমত্তার ঝুঁকি সম্পর্কে কথা বলেছেন। তিনি দাবি করেন যে যখন তিনি কোম্পানি থেকে পদত্যাগ করেন, তখন তাকে একটি অ-অসম্মানজনক ধারা স্বাক্ষর করতে বলা হয়েছিল যা তাকে কোম্পানির সমালোচনামূলক কিছু বলতে বাধা দেয়। তিনি আরও দাবি করেছেন যে কোম্পানিটি কোকোটাজলোকে হুমকি দিয়েছে যে তিনি চুক্তিতে স্বাক্ষর না করলে তার অর্পিত ইক্যুইটি বাতিল করবে।
কোকোটাজলো দাবি করেছেন যে কৃত্রিম বুদ্ধিমত্তা সিস্টেমের নিউরাল নেটওয়ার্কগুলি বড় ডেটা সেট খাওয়ানোর মাধ্যমে দ্রুত বৃদ্ধি পাচ্ছে। উপরন্তু, তিনি যোগ করেছেন যে বর্তমানে ঝুঁকি নিরীক্ষণের জন্য যথেষ্ট ব্যবস্থা নেই।
তিনি যোগ করেছেন: “এই সিস্টেমগুলি কীভাবে কাজ করে এবং তারা ক্রমবর্ধমান বুদ্ধিমান হয়ে উঠলে এবং সমস্ত ডোমেনে মানুষের বুদ্ধিমত্তাকে সম্ভাব্যভাবে ছাড়িয়ে যাওয়ার সাথে সাথে তারা মানব স্বার্থের সাথে সারিবদ্ধ হবে কিনা সে সম্পর্কে আমরা এখনও অনেক কিছু জানি না।”
এটা লক্ষনীয় যে OpenAI স্থাপত্য মডেল স্পেক হল একটি নথি যা নৈতিক এআই প্রযুক্তি তৈরিতে কোম্পানিগুলিকে আরও ভাল গাইড করার জন্য ডিজাইন করা হয়েছে।সম্প্রতি প্রতিষ্ঠানটিও ড সৃষ্টি নিরাপত্তা ও নিরাপত্তা কমিটি। তার একটি পোস্টে, কোকোতাইলো এই প্রতিশ্রুতির জন্য তার প্রশংসা প্রকাশ করেছেন।