Screenshot
هوش مصنوعی

متا از API مدل‌های هوش مصنوعی لاما رونمایی کرد

متا در اولین کنفرانس توسعه‌دهندگان هوش مصنوعی LlamaCon خود، از یک رابط برنامه‌نویسی کاربردی (API) برای سری مدل‌های هوش مصنوعی لاما خود به نام «لاما API» رونمایی کرد.

۱۴۰۴/۰۲/۰۹

متا در کنفرانس توسعه‌دهندگان LlamaCon خود از Llama API رونمایی کرد. این API که در نسخه محدود پیش‌نمایش در دسترس است، به توسعه‌دهندگان اجازه می‌دهد با مدل‌های مختلف لاما، از جمله Llama 3.3 8B و Llama 4 کار کنند و مدل‌های خود را تنظیم دقیق و ارزیابی کنند. متا اعلام کرده است که از داده‌های مشتریان API برای آموزش مدل‌های خود استفاده نخواهد کرد.

متا روز سه‌شنبه در اولین کنفرانس توسعه‌دهندگان هوش مصنوعی LlamaCon خود، از یک رابط برنامه‌نویسی کاربردی (API) برای سری مدل‌های هوش مصنوعی لاما خود رونمایی کرد که «لاما API» نام دارد.

بر اساس اعلام متا، لاما API که در حال حاضر به صورت پیش‌نمایش محدود (limited preview) در دسترس است، به توسعه‌دهندگان اجازه می‌دهد تا با محصولات مبتنی بر مدل‌های مختلف لاما اکتشاف و آزمایش کنند. این API به همراه کیت‌های توسعه نرم‌افزار (SDKs) متا، به توسعه‌دهندگان امکان می‌دهد سرویس‌ها، ابزارها و برنامه‌های کاربردی مبتنی بر لاما را بسازند. متا فوراً قیمت API را با TechCrunch به اشتراک نگذاشت.

ارائه این API در حالی صورت می‌گیرد که متا به دنبال حفظ برتری در فضای به شدت رقابتی مدل‌های باز (open model) است. در حالی که مدل‌های لاما، بر اساس گفته متا، تا به امروز بیش از یک میلیارد بار دانلود شده‌اند، رقبایی مانند DeepSeek و Qwen از علی‌بابا تهدید می‌کنند که تلاش‌های متا برای ایجاد یک اکوسیستم گسترده با لاما را تضعیف کنند.

لاما API ابزارهایی را برای تنظیم دقیق (fine-tune) و ارزیابی (evaluate) عملکرد مدل‌های لاما ارائه می‌دهد که با مدل Llama 3.3 8B آغاز می‌شود. مشتریان می‌توانند داده تولید کنند، مدل را با آن آموزش دهند و سپس از مجموعه ابزارهای ارزیابی متا در لاما API برای آزمایش کیفیت مدل سفارشی خود استفاده کنند.

متا اعلام کرد که از داده‌های مشتریان لاما API برای آموزش مدل‌های خود شرکت استفاده نخواهد کرد و مدل‌های ساخته شده با استفاده از لاما API می‌توانند به میزبان دیگری منتقل شوند.

برای توسعه‌دهندگانی که به طور خاص بر روی مدل‌های اخیراً منتشر شده Llama 4 متا کار می‌کنند، لاما API گزینه‌هایی برای ارائه مدل (model-serving options) از طریق همکاری با Cerebras و Groq ارائه می‌دهد. متا گفت که این گزینه‌های «تجربی اولیه» (early experimental) به صورت «درخواستی» (available by request) در دسترس هستند تا به توسعه‌دهندگان در نمونه‌سازی برنامه‌های هوش مصنوعی خود کمک کنند.

متا در پستی در وبلاگ خود که برای TechCrunch ارائه شده بود، نوشت: «با صرفاً انتخاب نام مدل‌های Cerebras یا Groq در API، توسعه‌دهندگان می‌توانند (...) از تجربه‌ای ساده‌سازی شده لذت ببرند که تمام کاربردها در یک مکان پیگیری می‌شود. (...) ما مشتاقانه منتظر گسترش همکاری‌ها با ارائه‌دهندگان بیشتری هستیم تا گزینه‌های بیشتری برای ساخت بر روی لاما ارائه دهیم.»

متا اعلام کرد که دسترسی به لاما API را «در هفته‌ها و ماه‌های آینده» گسترش خواهد داد.

منبع: تک‌کرانچ

به مطالعه ادامه دهید