
Image Credits:David Paul Morris/Bloomberg / Getty Images
متا در اولین کنفرانس LlamaCon خود به دنبال جلب نظر توسعهدهندگان هوش مصنوعی است
متا در اولین کنفرانس LlamaCon خود تلاش میکند توسعهدهندگان هوش مصنوعی را مجذوب مدلهای باز لاما کند، در حالی که اخیراً با انتقادات نسبت به عملکرد لاما ۴ و مسائل مربوط به اعتماد مواجه بوده است.
۱۴۰۴/۰۲/۰۹
اولین کنفرانس LlamaCon متا با هدف جلب حمایت توسعهدهندگان از مدلهای هوش مصنوعی لاما برگزار میشود، در شرایطی که شرکت پس از عرضه نسبتاً ضعیف لاما ۴ و چالشهای اعتمادی، تحت فشار رقابتی قرار دارد.
شرکت متا سهشنبه میزبان اولین کنفرانس توسعهدهندگان هوش مصنوعی (AI) خود با نام لاماکان (LlamaCon) در مقر اصلی خود در منلو پارک است، جایی که تلاش خواهد کرد توسعهدهندگان را به ساخت برنامهها با مدلهای هوش مصنوعی باز (open AI models) لاما (Llama) خود ترغیب کند. تنها یک سال پیش، این کار فروش سختی نبود.
با این حال، در ماههای اخیر، متا برای همگام شدن با هر دو آزمایشگاه هوش مصنوعی "باز" مانند دیپسیک (DeepSeek) و رقبای تجاری بسته مانند اوپنایآی (OpenAI) در رقابت سریع هوش مصنوعی، با مشکل مواجه شده است. LlamaCon در لحظهای حیاتی برای متا در تلاش آن برای ساخت اکوسیستم (ecosystem) گسترده لاما برگزار میشود.
جلب نظر توسعهدهندگان ممکن است بهسادگی ارائه مدلهای باز بهتر باشد. اما دستیابی به این امر شاید دشوارتر از آنچه به نظر میرسد باشد.
ارائه مدل لاما ۴ (Llama 4) متا در اوایل ماه جاری، توسعهدهندگان را ناامید کرد و تعدادی از امتیازات بنچمارک (benchmark) آن پایینتر از مدلهایی مانند R1 و V3 دیپسیک بود. این فاصله زیادی با آنچه لاما زمانی بود - مجموعهای از مدلهای پیشرو - داشت.
زمانی که متا مدل لاما ۳.۱ ۴۰۵B (Llama 3.1 405B) خود را تابستان گذشته عرضه کرد، مارک زاکربرگ، مدیرعامل، آن را یک پیروزی بزرگ خواند. متا در یک پست وبلاگ، لاما ۳.۱ ۴۰۵B را "توانمندترین مدل پایه (foundation model) موجود بهصورت باز" نامید که عملکرد آن با بهترین مدل اوپنایآی در آن زمان، GPT-4o، رقابت میکرد.
این مدل، و همچنین سایر مدلهای خانواده لاما ۳ (Llama 3) متا، مسلماً تأثیرگذار بودند. جرمی نیکسون، که برای چندین سال در AGI House سانفرانسیسکو میزبان هکاتونها (hackathons) بوده است، عرضه لاما ۳ را "لحظات تاریخی" خواند.
لاما ۳ مسلماً متا را به یک محبوب در میان توسعهدهندگان هوش مصنوعی تبدیل کرد و عملکرد پیشرفته را با آزادی میزبانی مدلها در هر کجا که انتخاب کنند، ارائه داد. به گفته جف بودیر، رئیس بخش محصول و رشد هاگینگ فیس (Hugging Face)، در مصاحبهای، مدل لاما ۳.۳ (Llama 3.3) متا امروز بیشتر از لاما ۴ دانلود میشود.
این را با استقبال از خانواده لاما ۴ متا مقایسه کنید، تفاوت آشکار است. اما لاما ۴ از ابتدا بحثبرانگیز بود.
متا نسخهای از یکی از مدلهای لاما ۴ خود، لاما ۴ ماوریک (Llama 4 Maverick)، را برای "قابلیت مکالمه" (conversationality) بهینه کرد که به آن کمک کرد جایگاه بالایی در بنچمارک جمعسپاری شده LM Arena کسب کند. با این حال، متا هرگز این مدل را منتشر نکرد - نسخهای از ماوریک که بهصورت گسترده عرضه شد، عملکرد بهمراتب بدتری در LM Arena داشت.
گروه مسئول LM Arena گفتند که متا باید در مورد این اختلاف "شفافتر" میبود. یون استویکا، یکی از بنیانگذاران LM Arena و استاد دانشگاه کالیفرنیا برکلی که همچنین از بنیانگذاران شرکتهایی مانند آنیاسکیل (Anyscale) و دیتابریکس (Databricks) است، به تککرانچ (TechCrunch) گفت که این حادثه به اعتماد جامعه توسعهدهندگان به متا آسیب رسانده است.
استویکا در مصاحبهای به تککرانچ گفت: "[متا] باید بهصراحت بیشتری اعلام میکرد که مدل ماوریک که در [LM Arena] بود با مدلی که منتشر شد متفاوت است. وقتی این اتفاق میافتد، کمی از اعتماد جامعه از دست میرود. البته، آنها میتوانند با انتشار مدلهای بهتر این اعتماد را بازیابی کنند."
یک نکته مهم و چشمگیر در خانواده لاما ۴، عدم وجود مدل استدلال (reasoning model) هوش مصنوعی بود. مدلهای استدلال میتوانند قبل از پاسخ دادن به سؤالات، با دقت روی آنها کار کنند. در سال گذشته، بخش عمدهای از صنعت هوش مصنوعی مدلهای استدلال را منتشر کرده است که معمولاً در بنچمارکهای خاص عملکرد بهتری دارند.
متا در حال اشاره به مدل استدلال لاما ۴ است، اما شرکت هنوز زمانی برای انتظار آن اعلام نکرده است.
ناتان لمبرت، محققی در Ai2، میگوید این واقعیت که متا مدل استدلالی با لاما ۴ منتشر نکرد، نشان میدهد که شرکت ممکن است عرضه را عجله کرده باشد.
لمبرت گفت: "همه در حال انتشار یک مدل استدلال هستند، و این باعث میشود مدلهایشان خیلی خوب به نظر برسند. چرا [متا] نتوانست منتظر این کار باشد؟ من پاسخی برای آن سؤال ندارم. به نظر میرسد عجیبوغریبی عادی یک شرکت است." لمبرت اشاره کرد که مدلهای باز رقیب نزدیکتر از همیشه به مرزهای دانش هستند و اکنون در شکلها و اندازههای بیشتری عرضه میشوند - که فشار بر متا را بسیار افزایش میدهد. برای مثال، دوشنبه، علیبابا مجموعهای از مدلها به نام کوئن ۳ (Qwen 3) را منتشر کرد که ادعا میشود در کدفرس (Codeforces)، یک بنچمارک برنامهنویسی، عملکرد برخی از بهترین مدلهای کدنویسی اوپنایآی و گوگل (Google) را پشت سر میگذارند.
به گفته راوید شوارتز-زیو، محقق هوش مصنوعی در مرکز علوم داده دانشگاه نیویورک (NYU)، متا برای بازپسگیری رهبری در مدلهای باز، صرفاً باید مدلهای برتری ارائه دهد. او به تککرانچ گفت که این ممکن است شامل پذیرش ریسکهای بیشتر، مانند استفاده از تکنیکهای جدید باشد. مشخص نیست که آیا متا در حال حاضر در موقعیتی است که ریسکهای بزرگ بپذیرد. کارکنان فعلی و سابق قبلاً به فورچون (Fortune) گفته بودند که آزمایشگاه تحقیقات هوش مصنوعی متا "مرگی آهسته را تجربه میکند". جوئل پینو، معاون تحقیقات هوش مصنوعی (VP of AI Research) شرکت، این ماه اعلام کرد که در حال ترک سمت خود است.
LlamaCon فرصتی برای متا است تا نشان دهد برای شکست دادن نسخههای آینده از آزمایشگاههای هوش مصنوعی مانند اوپنایآی، گوگل، ایکسایآی (xAI) و دیگران چه چیزی در دست دارد. اگر نتواند موفق عمل کند، شرکت ممکن است در این فضای فوقالعاده رقابتی، حتی بیشتر عقب بیفتد.
منبع: تککرانچ