
Image Credits:Meta
متا از API مدلهای هوش مصنوعی لاما رونمایی کرد
متا در اولین کنفرانس توسعهدهندگان هوش مصنوعی LlamaCon خود، از یک رابط برنامهنویسی کاربردی (API) برای سری مدلهای هوش مصنوعی لاما خود به نام «لاما API» رونمایی کرد.
۱۴۰۴/۰۲/۰۹
متا در کنفرانس توسعهدهندگان LlamaCon خود از Llama API رونمایی کرد. این API که در نسخه محدود پیشنمایش در دسترس است، به توسعهدهندگان اجازه میدهد با مدلهای مختلف لاما، از جمله Llama 3.3 8B و Llama 4 کار کنند و مدلهای خود را تنظیم دقیق و ارزیابی کنند. متا اعلام کرده است که از دادههای مشتریان API برای آموزش مدلهای خود استفاده نخواهد کرد.
متا روز سهشنبه در اولین کنفرانس توسعهدهندگان هوش مصنوعی LlamaCon خود، از یک رابط برنامهنویسی کاربردی (API) برای سری مدلهای هوش مصنوعی لاما خود رونمایی کرد که «لاما API» نام دارد.
بر اساس اعلام متا، لاما API که در حال حاضر به صورت پیشنمایش محدود (limited preview) در دسترس است، به توسعهدهندگان اجازه میدهد تا با محصولات مبتنی بر مدلهای مختلف لاما اکتشاف و آزمایش کنند. این API به همراه کیتهای توسعه نرمافزار (SDKs) متا، به توسعهدهندگان امکان میدهد سرویسها، ابزارها و برنامههای کاربردی مبتنی بر لاما را بسازند. متا فوراً قیمت API را با TechCrunch به اشتراک نگذاشت.
ارائه این API در حالی صورت میگیرد که متا به دنبال حفظ برتری در فضای به شدت رقابتی مدلهای باز (open model) است. در حالی که مدلهای لاما، بر اساس گفته متا، تا به امروز بیش از یک میلیارد بار دانلود شدهاند، رقبایی مانند DeepSeek و Qwen از علیبابا تهدید میکنند که تلاشهای متا برای ایجاد یک اکوسیستم گسترده با لاما را تضعیف کنند.
لاما API ابزارهایی را برای تنظیم دقیق (fine-tune) و ارزیابی (evaluate) عملکرد مدلهای لاما ارائه میدهد که با مدل Llama 3.3 8B آغاز میشود. مشتریان میتوانند داده تولید کنند، مدل را با آن آموزش دهند و سپس از مجموعه ابزارهای ارزیابی متا در لاما API برای آزمایش کیفیت مدل سفارشی خود استفاده کنند.
متا اعلام کرد که از دادههای مشتریان لاما API برای آموزش مدلهای خود شرکت استفاده نخواهد کرد و مدلهای ساخته شده با استفاده از لاما API میتوانند به میزبان دیگری منتقل شوند.
برای توسعهدهندگانی که به طور خاص بر روی مدلهای اخیراً منتشر شده Llama 4 متا کار میکنند، لاما API گزینههایی برای ارائه مدل (model-serving options) از طریق همکاری با Cerebras و Groq ارائه میدهد. متا گفت که این گزینههای «تجربی اولیه» (early experimental) به صورت «درخواستی» (available by request) در دسترس هستند تا به توسعهدهندگان در نمونهسازی برنامههای هوش مصنوعی خود کمک کنند.
متا در پستی در وبلاگ خود که برای TechCrunch ارائه شده بود، نوشت: «با صرفاً انتخاب نام مدلهای Cerebras یا Groq در API، توسعهدهندگان میتوانند (...) از تجربهای سادهسازی شده لذت ببرند که تمام کاربردها در یک مکان پیگیری میشود. (...) ما مشتاقانه منتظر گسترش همکاریها با ارائهدهندگان بیشتری هستیم تا گزینههای بیشتری برای ساخت بر روی لاما ارائه دهیم.»
متا اعلام کرد که دسترسی به لاما API را «در هفتهها و ماههای آینده» گسترش خواهد داد.
منبع: تککرانچ