DeepSeek pauses new registrations among cyberattack.
هوش مصنوعی

تحلیل‌ها نشان می‌دهد پیشرفت مدل‌های هوش مصنوعی «استدلالی» ممکن است به‌زودی کُند شود

تحلیل جدیدی از Epoch AI نشان می‌دهد که صنعت هوش مصنوعی ممکن است نتواند برای مدت طولانی‌تری دستاوردهای عملکردی بزرگی از مدل‌های هوش مصنوعی «استدلالی» کسب کند و پیشرفت آن‌ها ممکن است به‌زودی کُند شود.

۱۴۰۴/۰۲/۲۲

بر اساس تحلیل مؤسسه تحقیقاتی Epoch AI، پیشرفت مدل‌های هوش مصنوعی استدلالی که در ماه‌های اخیر در معیارهای مختلف بهبود یافته‌اند، ممکن است به‌زودی، احتمالاً طی یک سال، کُند شود. این تحلیل به مقیاس‌پذیری قدرت محاسباتی اختصاص یافته به یادگیری تقویتی و هزینه‌های تحقیق اشاره دارد و نگرانی‌هایی را در صنعت هوش مصنوعی ایجاد می‌کند.

تحلیلی که توسط Epoch AI، یک مؤسسه تحقیقاتی غیرانتفاعی هوش مصنوعی، انجام شده است، نشان می‌دهد که صنعت هوش مصنوعی ممکن است نتواند برای مدت طولانی‌تری دستاوردهای عملکردی عظیمی از مدل‌های هوش مصنوعی استدلالی (reasoning AI models) کسب کند. بر اساس یافته‌های این گزارش، پیشرفت مدل‌های استدلالی ممکن است به‌زودی و احتمالاً طی یک سال آینده کُند شود.

مدل‌های استدلالی مانند o3 از شرکت OpenAI در ماه‌های اخیر منجر به دستاوردهای قابل توجهی در معیارهای (benchmarks) هوش مصنوعی، به‌ویژه معیارهای اندازه‌گیری مهارت‌های ریاضی و برنامه‌نویسی شده‌اند. این مدل‌ها می‌توانند قدرت محاسباتی بیشتری را برای حل مسائل به کار ببرند که می‌تواند عملکرد آن‌ها را بهبود بخشد، اما نقطه ضعف آن این است که تکمیل وظایف برای آن‌ها بیشتر از مدل‌های معمولی زمان می‌برد.

مدل‌های استدلالی با آموزش اولیه یک مدل معمولی بر روی حجم عظیمی از داده‌ها و سپس به‌کارگیری تکنیکی به نام یادگیری تقویتی (reinforcement learning) توسعه می‌یابند. این تکنیک اساساً بازخوردی در مورد راه‌حل‌های مدل برای مسائل دشوار به آن می‌دهد.

به گفته Epoch، تاکنون آزمایشگاه‌های پیشرو هوش مصنوعی مانند OpenAI مقدار زیادی قدرت محاسباتی را به مرحله یادگیری تقویتی در آموزش مدل‌های استدلالی اختصاص نداده‌اند.

این وضعیت در حال تغییر است. OpenAI اعلام کرده است که حدود ۱۰ برابر بیشتر قدرت محاسباتی برای آموزش o3 نسبت به مدل قبلی آن، o1، به کار برده است و Epoch گمانه‌زنی می‌کند که بیشتر این قدرت محاسباتی صرف یادگیری تقویتی شده است. همچنین دن رابرتز، پژوهشگر OpenAI، اخیراً فاش کرده است که برنامه‌های آینده این شرکت اولویت‌بندی یادگیری تقویتی را برای استفاده از قدرت محاسباتی بسیار بیشتر، حتی بیشتر از مرحله آموزش اولیه مدل، در نظر گرفته‌اند.

با این حال، طبق گفته Epoch، هنوز یک حد بالایی برای میزان قدرت محاسباتی که می‌توان به یادگیری تقویتی اختصاص داد، وجود دارد.

جاش یو (Josh You)، تحلیلگر Epoch و نویسنده این تحلیل، توضیح می‌دهد که دستاوردهای عملکردی حاصل از آموزش استاندارد مدل‌های هوش مصنوعی در حال حاضر هر سال چهار برابر می‌شوند، در حالی که دستاوردهای عملکردی حاصل از یادگیری تقویتی هر ۳ تا ۵ ماه ده برابر رشد می‌کنند. او ادامه می‌دهد که پیشرفت آموزش مدل‌های استدلالی «احتمالاً تا سال ۲۰۲۶ با خط مقدم کلی [پیشرفت در هوش مصنوعی] همگرا خواهد شد».

تحلیل Epoch بر تعدادی پیش‌فرض استوار است و بخشی از آن بر اظهارات عمومی مدیران شرکت‌های هوش مصنوعی تکیه دارد. اما همچنین استدلال می‌کند که مقیاس‌پذیری مدل‌های استدلالی ممکن است به دلایلی غیر از محاسبات، از جمله هزینه‌های سربار بالای تحقیق، چالش‌برانگیز باشد.

یو می‌نویسد: «اگر هزینه سربار مداومی برای تحقیق مورد نیاز باشد، مدل‌های استدلالی ممکن است به اندازه مورد انتظار مقیاس‌پذیر نباشند.» او می‌افزاید: «مقیاس‌پذیری سریع محاسبات احتمالاً یک عنصر بسیار مهم در پیشرفت مدل‌های استدلالی است، بنابراین پیگیری دقیق این موضوع ارزشمند است.»

هرگونه نشانه‌ای مبنی بر اینکه مدل‌های استدلالی ممکن است در آینده نزدیک به نوعی محدودیت برسند، احتمالاً صنعت هوش مصنوعی را نگران خواهد کرد. این صنعت منابع عظیمی را صرف توسعه این نوع مدل‌ها کرده است. پیش از این نیز مطالعات نشان داده‌اند که مدل‌های استدلالی، که می‌توانند بسیار گران باشند، دارای نقص‌های جدی مانند تمایل بیشتر به «توهم‌زایی» نسبت به برخی مدل‌های معمولی هستند.

منبع: تک‌کرانچ

به مطالعه ادامه دهید