
Image Credits:Anadmist / Getty ImagesAccording to an Epoch AI analysis, reasoning model training scaling may slow downImage Credits:Epoch AI
تحلیلها نشان میدهد پیشرفت مدلهای هوش مصنوعی «استدلالی» ممکن است بهزودی کُند شود
تحلیل جدیدی از Epoch AI نشان میدهد که صنعت هوش مصنوعی ممکن است نتواند برای مدت طولانیتری دستاوردهای عملکردی بزرگی از مدلهای هوش مصنوعی «استدلالی» کسب کند و پیشرفت آنها ممکن است بهزودی کُند شود.
۱۴۰۴/۰۲/۲۲
بر اساس تحلیل مؤسسه تحقیقاتی Epoch AI، پیشرفت مدلهای هوش مصنوعی استدلالی که در ماههای اخیر در معیارهای مختلف بهبود یافتهاند، ممکن است بهزودی، احتمالاً طی یک سال، کُند شود. این تحلیل به مقیاسپذیری قدرت محاسباتی اختصاص یافته به یادگیری تقویتی و هزینههای تحقیق اشاره دارد و نگرانیهایی را در صنعت هوش مصنوعی ایجاد میکند.
تحلیلی که توسط Epoch AI، یک مؤسسه تحقیقاتی غیرانتفاعی هوش مصنوعی، انجام شده است، نشان میدهد که صنعت هوش مصنوعی ممکن است نتواند برای مدت طولانیتری دستاوردهای عملکردی عظیمی از مدلهای هوش مصنوعی استدلالی (reasoning AI models) کسب کند. بر اساس یافتههای این گزارش، پیشرفت مدلهای استدلالی ممکن است بهزودی و احتمالاً طی یک سال آینده کُند شود.
مدلهای استدلالی مانند o3 از شرکت OpenAI در ماههای اخیر منجر به دستاوردهای قابل توجهی در معیارهای (benchmarks) هوش مصنوعی، بهویژه معیارهای اندازهگیری مهارتهای ریاضی و برنامهنویسی شدهاند. این مدلها میتوانند قدرت محاسباتی بیشتری را برای حل مسائل به کار ببرند که میتواند عملکرد آنها را بهبود بخشد، اما نقطه ضعف آن این است که تکمیل وظایف برای آنها بیشتر از مدلهای معمولی زمان میبرد.
مدلهای استدلالی با آموزش اولیه یک مدل معمولی بر روی حجم عظیمی از دادهها و سپس بهکارگیری تکنیکی به نام یادگیری تقویتی (reinforcement learning) توسعه مییابند. این تکنیک اساساً بازخوردی در مورد راهحلهای مدل برای مسائل دشوار به آن میدهد.
به گفته Epoch، تاکنون آزمایشگاههای پیشرو هوش مصنوعی مانند OpenAI مقدار زیادی قدرت محاسباتی را به مرحله یادگیری تقویتی در آموزش مدلهای استدلالی اختصاص ندادهاند.
این وضعیت در حال تغییر است. OpenAI اعلام کرده است که حدود ۱۰ برابر بیشتر قدرت محاسباتی برای آموزش o3 نسبت به مدل قبلی آن، o1، به کار برده است و Epoch گمانهزنی میکند که بیشتر این قدرت محاسباتی صرف یادگیری تقویتی شده است. همچنین دن رابرتز، پژوهشگر OpenAI، اخیراً فاش کرده است که برنامههای آینده این شرکت اولویتبندی یادگیری تقویتی را برای استفاده از قدرت محاسباتی بسیار بیشتر، حتی بیشتر از مرحله آموزش اولیه مدل، در نظر گرفتهاند.
با این حال، طبق گفته Epoch، هنوز یک حد بالایی برای میزان قدرت محاسباتی که میتوان به یادگیری تقویتی اختصاص داد، وجود دارد.
جاش یو (Josh You)، تحلیلگر Epoch و نویسنده این تحلیل، توضیح میدهد که دستاوردهای عملکردی حاصل از آموزش استاندارد مدلهای هوش مصنوعی در حال حاضر هر سال چهار برابر میشوند، در حالی که دستاوردهای عملکردی حاصل از یادگیری تقویتی هر ۳ تا ۵ ماه ده برابر رشد میکنند. او ادامه میدهد که پیشرفت آموزش مدلهای استدلالی «احتمالاً تا سال ۲۰۲۶ با خط مقدم کلی [پیشرفت در هوش مصنوعی] همگرا خواهد شد».
تحلیل Epoch بر تعدادی پیشفرض استوار است و بخشی از آن بر اظهارات عمومی مدیران شرکتهای هوش مصنوعی تکیه دارد. اما همچنین استدلال میکند که مقیاسپذیری مدلهای استدلالی ممکن است به دلایلی غیر از محاسبات، از جمله هزینههای سربار بالای تحقیق، چالشبرانگیز باشد.
یو مینویسد: «اگر هزینه سربار مداومی برای تحقیق مورد نیاز باشد، مدلهای استدلالی ممکن است به اندازه مورد انتظار مقیاسپذیر نباشند.» او میافزاید: «مقیاسپذیری سریع محاسبات احتمالاً یک عنصر بسیار مهم در پیشرفت مدلهای استدلالی است، بنابراین پیگیری دقیق این موضوع ارزشمند است.»
هرگونه نشانهای مبنی بر اینکه مدلهای استدلالی ممکن است در آینده نزدیک به نوعی محدودیت برسند، احتمالاً صنعت هوش مصنوعی را نگران خواهد کرد. این صنعت منابع عظیمی را صرف توسعه این نوع مدلها کرده است. پیش از این نیز مطالعات نشان دادهاند که مدلهای استدلالی، که میتوانند بسیار گران باشند، دارای نقصهای جدی مانند تمایل بیشتر به «توهمزایی» نسبت به برخی مدلهای معمولی هستند.
منبع: تککرانچ