
Image Credits:FABRICE COFFRINI/AFP / Getty Images
اوپنایآی در پی ساخت مدل هوش مصنوعی متنباز برتر
اوپنایآی قصد دارد امسال اولین مدل هوش مصنوعی متنباز خود را از زمان GPT-2 منتشر کند. جزئیات جدید نشان میدهد که این مدل استدلالی با هدف برتری در میان مدلهای مشابه در اوایل تابستان عرضه خواهد شد و مجوز بسیار آزادی خواهد داشت.
۱۴۰۴/۰۲/۰۳
اوپنایآی برنامههای خود برای انتشار اولین مدل هوش مصنوعی متنباز از زمان GPT-2 را اعلام کرده است. این مدل که یک مدل استدلالی است، با هدف برتری بر مدلهای مشابه در اوایل تابستان عرضه میشود و مجوز استفاده بسیار آزادی خواهد داشت.
اوپنایآی (OpenAI) در اواخر ماه مارس اعلام کرد که قصد دارد امسال اولین مدل زبان «متنباز» خود را از زمان GPT-2 منتشر کند. اکنون، جزئیاتی در مورد این مدل از جلسات این شرکت با جامعه توسعهدهندگان هوش مصنوعی (AI) در حال انتشار است.
منابع آگاه به تککرانچ (TechCrunch) گفتهاند که آیدان کلارک، معاون تحقیقات اوپنایآی، رهبری توسعه این مدل متنباز را بر عهده دارد که در مراحل بسیار اولیه قرار دارد. اوپنایآی عرضه در اوایل تابستان را هدف قرار داده و قصد دارد این مدل – که یک مدل استدلالی (reasoning model) مشابه مدلهای سری o اوپنایآی است – را به برترین مدل در میان سایر مدلهای استدلالی متنباز تبدیل کند.
بر اساس گفته منابع تککرانچ، اوپنایآی در حال بررسی یک مجوز بسیار آزادانه برای این مدل با محدودیتهای کم در زمینه استفاده یا تجاری است. مدلهای متنبازی مانند لاما (Llama) متا و جما (Gemma) گوگل توسط برخی در جامعه به دلیل اعمال الزامات دستوپاگیر مورد انتقاد قرار گرفتهاند – انتقاداتی که اوپنایآی ظاهراً در پی اجتناب از آنها است.
اوپنایآی با فشار فزایندهای از سوی رقبایی مانند آزمایشگاه هوش مصنوعی چینی دیپسیک (DeepSeek) روبرو است که رویکردی متنباز برای عرضه مدلها در پیش گرفتهاند. برخلاف استراتژی اوپنایآی، این رقبای «متنباز»، مدلهای خود را برای آزمایش و در برخی موارد تجاریسازی، در دسترس جامعه هوش مصنوعی قرار میدهند.
این رویکرد برای برخی شرکتها استراتژی بسیار موفقی بوده است. متا، که به شدت در خانواده مدلهای هوش مصنوعی متنباز لاما سرمایهگذاری کرده است، اوایل ماه مارس اعلام کرد که لاما بیش از ۱ میلیارد بار دانلود شده است. در همین حال، دیپسیک به سرعت پایگاه کاربری گستردهای در سراسر جهان جمع کرده و توجه سرمایهگذاران داخلی را به خود جلب کرده است.
منابع به تککرانچ میگویند که اوپنایآی در نظر دارد مدل متنباز خود را که «ورودی متن، خروجی متن» خواهد بود، روی سختافزارهای مصرفکننده پیشرفته اجرا کند و احتمالاً به توسعهدهندگان اجازه دهد قابلیت «استدلال» آن را خاموش یا روشن کنند، مشابه مدلهای استدلالی که اخیراً توسط انتروپیک (Anthropic) و دیگران منتشر شدهاند. (استدلال میتواند دقت را بهبود بخشد، اما با هزینه افزایش تاخیر (latency)). اگر عرضه با استقبال خوبی مواجه شود، اوپنایآی ممکن است مدلهای اضافی دیگری از جمله مدلهای کوچکتر را نیز عرضه کند.
در اظهارنظرهای عمومی قبلی، سم آلتمن، مدیر عامل اوپنایآی، گفته بود که فکر میکند اوپنایآی در زمینه متنباز کردن فناوریهایش در سمت اشتباه تاریخ قرار گرفته است.
آلتمن در یک جلسه پرسش و پاسخ در ردیت (Reddit) در ماه ژانویه گفت: «من شخصاً فکر میکنم ما باید یک استراتژی متنباز متفاوت پیدا کنیم. همه در اوپنایآی این دیدگاه را ندارند، و همچنین در حال حاضر بالاترین اولویت ما نیست [...] در آینده مدلهای بهتری تولید خواهیم کرد، اما کمتر از سالهای گذشته پیشتاز باقی خواهیم ماند.»
آلتمن همچنین گفته است که مدل متنباز آینده اوپنایآی به طور کامل توسط تیمهای قرمز (red-teamed) مورد بررسی و ارزیابی ایمنی قرار خواهد گرفت. منابع به تککرانچ میگویند که این شرکت قصد دارد یک کارت مدل (model card) برای این مدل منتشر کند – گزارشی فنی جامع که نتایج ارزیابیهای داخلی و خارجی و تستهای ایمنی اوپنایآی را نشان میدهد.
آلتمن در پستی در شبکه اجتماعی X ماه گذشته گفت: «قبل از انتشار، ما این مدل را طبق چارچوب آمادگی خود، مانند هر مدل دیگری، ارزیابی خواهیم کرد و کار بیشتری انجام خواهیم داد زیرا میدانیم که این مدل پس از انتشار اصلاح خواهد شد.»
اوپنایآی به دلیل گزارشهایی مبنی بر عجله در تستهای ایمنی مدلهای اخیر و عدم انتشار کارت مدل برای برخی دیگر، خشم برخی متخصصان اخلاق هوش مصنوعی را برانگیخته است. آلتمن همچنین متهم است که قبل از برکناری کوتاه مدت خود در نوامبر ۲۰۲۳، مدیران اوپنایآی را در مورد بررسیهای ایمنی مدلها گمراه کرده است.
ما برای دریافت نظر با اوپنایآی تماس گرفتهایم و در صورت دریافت پاسخ، این مقاله را بهروزرسانی خواهیم کرد.
منبع: تککرانچ