Meta Llama 3 AI Models With 8B and 70B Parameters Launched, Said to Outperform Google’s Gemini 1.5 Pro

ইউয়ান পরবর্তী প্রজন্ম চালু করেছে এআই (AI) মডেল Llama 3 8B এবং 70B, বৃহস্পতিবার। লামা 3, লার্জ ল্যাঙ্গুয়েজ মডেল মেটা-এআই এর জন্য সংক্ষিপ্ত, এটির পূর্বসূরীর তুলনায় উন্নতির প্রস্তাব দেয়। কোম্পানি মডেলের দক্ষতা অপ্টিমাইজ করার জন্য নতুন প্রশিক্ষণ পদ্ধতিও গ্রহণ করেছে। মজার বিষয় হল, লামা 2-এর সবচেয়ে বড় মডেলটি ছিল 70B, কিন্তু এবার কোম্পানি বলছে যে তার বড় মডেলে 400 বিলিয়নের বেশি প্যারামিটার থাকবে। উল্লেখযোগ্যভাবে, গত সপ্তাহে একটি প্রতিবেদনে পরামর্শ দেওয়া হয়েছে যে মেটা এপ্রিলে একটি ছোট এআই মডেল এবং গ্রীষ্মের পরে একটি বড় মডেল লঞ্চ করবে।

যারা নতুন এআই মডেল চেষ্টা করতে আগ্রহী তারা ভাগ্যবান, কারণ মেটা লামা 3 এর সাথে একটি সম্প্রদায়-প্রথম পদ্ধতি গ্রহণ করছে। নতুন বেস মডেল হবে আগের মডেলের মতো ওপেন সোর্স।ইউয়ান জাই কুই ব্লগ পোস্ট”, “Llama 3 মডেল শীঘ্রই AWS, Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM এবং Snowflake-এ উপলব্ধ হবে, AMD, AWS, Dell, Intel, Nvidia এবং Qualcomm-এর হার্ডওয়্যার প্ল্যাটফর্ম দ্বারা সমর্থিত . “

তালিকায় সমস্ত প্রধান ক্লাউড, হোস্টিং এবং হার্ডওয়্যার প্ল্যাটফর্ম অন্তর্ভুক্ত রয়েছে, যা শৌখিনদের জন্য AI মডেলগুলি আয়ত্ত করা সহজ করে তুলবে। এছাড়াও, মেটা Llama 3 এর নিজস্ব Meta AI এর সাথে একীভূত করেছে, যা Facebook Messenger এর মাধ্যমে অ্যাক্সেস করা যেতে পারে, ইনস্টাগ্রামএবং সমর্থিত দেশগুলিতে WhatsApp।

শো চলাকালীন, সোশ্যাল মিডিয়া জায়ান্ট লামা 3 প্রাক-প্রশিক্ষিত এবং নির্দেশিত মডেলের জন্য বেঞ্চমার্ক স্কোর ভাগ করেছে। রেফারেন্সের জন্য, প্রাক-প্রশিক্ষিত একটি সাধারণ কথোপকথনমূলক এআই, যখন নির্দেশিকা মডেলটি একটি নির্দিষ্ট কাজ সম্পন্ন করার জন্য ডিজাইন করা হয়েছে। Llama 3 70B প্রাক-প্রশিক্ষিত মডেলের স্কোর Google থেকে বেশি মিথুনরাশি MMLU (79.5 বনাম 71.8), বিগ-বেঞ্চ হার্ড (81.3 বনাম 75.0) এবং DROP (79.7 বনাম 74.1) বেঞ্চমার্কে 1.0 প্রো পারফরম্যান্স, যেখানে 70B ইন্সট্রাক্ট মডেল জেমিনিকে MMLU, HumanEval এবং GSM-8K ভিত্তিক মডেলকে ছাড়িয়ে গেছে। কোম্পানী দ্বারা ভাগ করা তথ্য উপর.

মেটা নতুন এআই মডেলের জন্য একটি ডিকোডার-শুধু ট্রান্সফরমার আর্কিটেকচার বেছে নিয়েছে, তবে তার পূর্বসূরির তুলনায় কিছু উন্নতি করেছে। Llama 3 এখন 128K টোকেনের শব্দভান্ডার সহ একটি টোকেনাইজার ব্যবহার করে এবং কোম্পানিটি অনুমান দক্ষতা উন্নত করতে গ্রুপড কোয়েরি অ্যাটেনশন (GQA) গ্রহণ করেছে। GQA AI এর মনোযোগ উন্নত করতে সাহায্য করে যাতে এটি প্রশ্নের উত্তর দেওয়ার সময় নির্দিষ্ট প্রসঙ্গ থেকে দূরে না যায়। সোশ্যাল মিডিয়া জায়ান্টটি 15T এর বেশি টোকেন ব্যবহার করে মডেলটিকে প্রাক-প্রশিক্ষিত করেছে, যা এটি দাবি করে যে পাবলিক ডেটা থেকে প্রাপ্ত।


অ্যাফিলিয়েট লিঙ্কগুলি স্বয়ংক্রিয়ভাবে তৈরি হতে পারে – আমাদের দেখুন নীতিশাস্ত্র বিবৃতি আরও জানুন।

(ট্যাগসটোঅনুবাদ

উৎস লিঙ্ক