Dario Amodei, co-founder and chief executive officer of Anthropic, at the VivaTech conference in Paris, France, on Wednesday, May 22, 2024. The annual startup and technology events runs until May 25. Photographer: Benjamin Girette/Bloomberg via Getty Images
هوش مصنوعی

مدیرعامل آنتروپیک خواهان درک بهتر مدل‌های هوش مصنوعی تا سال ۲۰۲۷ شد

داریو آمودی، مدیرعامل آنتروپیک، هدف شرکت خود را «شناسایی قابل اعتماد اکثر مشکلات مدل‌های هوش مصنوعی» تا سال ۲۰۲۷ تعیین کرده و بر اهمیت درک نحوه عملکرد این سیستم‌ها تأکید دارد.

۱۴۰۴/۰۲/۰۵

مدیرعامل شرکت آنتروپیک، داریو آمودی، اعلام کرد که هدف این شرکت دستیابی به قابلیت شناسایی مشکلات مدل‌های هوش مصنوعی تا سال ۲۰۲۷ است. او بر اهمیت درک نحوه عملکرد درونی این مدل‌ها قبل از استقرار گسترده آن‌ها تأکید کرد و خواستار افزایش تحقیقات در این زمینه و وضع مقررات دولتی شد.

داریو آمودی (Dario Amodei)، مدیرعامل شرکت آنتروپیک (Anthropic)، اخیراً مقاله‌ای منتشر کرده که بر عدم درک کافی محققان از نحوه عملکرد درونی مدل‌های پیشرو هوش مصنوعی (AI) تأکید دارد. برای رفع این چالش، آمودی هدف بلندپروازانه‌ای را برای آنتروپیک تعیین کرده است: دستیابی به قابلیت شناسایی قابل اعتماد اکثر مشکلات مدل‌های هوش مصنوعی تا سال ۲۰۲۷.

آمودی اذعان دارد که این هدف چالش‌برانگیز است. در مقاله‌ی خود با عنوان «فوریت تفسیرپذیری» (The Urgency of Interpretability)، او می‌گوید که آنتروپیک پیشرفت‌های اولیه در ردیابی چگونگی رسیدن مدل‌ها به پاسخ‌هایشان داشته است، اما تأکید می‌کند که تحقیقات بسیار بیشتری برای رمزگشایی این سیستم‌ها با افزایش قدرت آن‌ها مورد نیاز است.

آمودی در مقاله‌ی خود می‌نویسد: «من از استقرار چنین سیستم‌هایی بدون درک بهتر تفسیرپذیری (Interpretability) بسیار نگرانم. این سیستم‌ها در اقتصاد، فناوری و امنیت ملی کاملاً محوری خواهند بود و استقلال عمل بالایی خواهند داشت؛ به حدی که از نظر من عدم آگاهی کامل بشر از نحوه کارکرد آن‌ها اساساً غیرقابل قبول است.»

آنتروپیک یکی از شرکت‌های پیشگام در زمینه‌ی تفسیرپذیری مکانیکی (Mechanistic interpretability) است؛ حوزه‌ای که هدف آن «باز کردن جعبه سیاه» مدل‌های هوش مصنوعی و درک دلیل تصمیم‌گیری‌های آن‌هاست. با وجود پیشرفت‌های سریع در عملکرد مدل‌های هوش مصنوعی، ما همچنان ایده نسبتاً کمی از نحوه رسیدن این سیستم‌ها به تصمیماتشان داریم.

برای مثال، شرکت اوپن‌اِی‌آی (OpenAI) اخیراً مدل‌های جدید استدلالی (o3 و o4-mini) را عرضه کرده که در برخی وظایف بهتر عمل می‌کنند، اما همچنین بیش از مدل‌های دیگر دچار «توهم» (hallucination) می‌شوند و این شرکت نمی‌داند چرا این اتفاق می‌افتد.

آمودی در مقاله‌ی خود می‌نویسد: «هنگامی که یک سیستم هوش مصنوعی مولد (Generative AI) کاری انجام می‌دهد، مثلاً خلاصه‌سازی یک سند مالی، ما در سطح دقیق و مشخصی نمی‌دانیم چرا آن انتخاب‌ها را انجام می‌دهد - چرا کلمات خاصی را برمی‌گزیند یا چرا با وجود دقت معمول، گاهی اشتباه می‌کند.»

در این مقاله، آمودی اشاره می‌کند که کریس اولا (Chris Olah)، یکی از بنیان‌گذاران آنتروپیک، می‌گوید که مدل‌های هوش مصنوعی «بیشتر رشد می‌کنند تا ساخته شوند.» به عبارت دیگر، محققان هوش مصنوعی راه‌هایی برای بهبود هوشمندی مدل‌ها یافته‌اند، اما دقیقاً نمی‌دانند چرا.

آمودی در مقاله می‌گوید که رسیدن به هوش مصنوعی عمومی (AGI) – یا به قول خودش، «کشوری از نوابغ در یک مرکز داده» – بدون درک نحوه عملکرد این مدل‌ها می‌تواند خطرناک باشد. در مقاله‌ی قبلی، آمودی ادعا کرده بود که صنعت فناوری می‌تواند تا سال ۲۰۲۶ یا ۲۰۲۷ به چنین نقطه‌ی عطفی دست یابد، اما معتقد است که ما از درک کامل این مدل‌ها فاصله زیادی داریم.

آمودی می‌گوید که در بلندمدت، آنتروپیک اساساً مایل است «اسکن مغز» یا «MRI» مدل‌های پیشرفته هوش مصنوعی را انجام دهد. او می‌گوید این بررسی‌ها به شناسایی طیف وسیعی از مسائل در مدل‌ها، از جمله تمایل آن‌ها به دروغ گفتن یا کسب قدرت، یا سایر نقاط ضعف کمک می‌کند. این کار ممکن است پنج تا ده سال طول بکشد، اما این اقدامات برای آزمایش و استقرار مدل‌های آینده آنتروپیک ضروری خواهد بود.

آنتروپیک در زمینه تحقیقات تفسیرپذیری سرمایه‌گذاری کرده و اخیراً اولین سرمایه‌گذاری خود را در یک استارتاپ فعال در این زمینه انجام داده است. در حالی که تفسیرپذیری امروزه عمدتاً به عنوان حوزه‌ای از تحقیقات ایمنی (safety research) دیده می‌شود، آمودی اشاره می‌کند که در نهایت، توضیح چگونگی رسیدن مدل‌های هوش مصنوعی به پاسخ‌هایشان می‌تواند یک مزیت تجاری ایجاد کند.

در این مقاله، آمودی از اوپن‌اِی‌آی و گوگل دیپ‌مایند (Google DeepMind) خواسته است تا تلاش‌های تحقیقاتی خود را در این زمینه افزایش دهند. او علاوه بر این پیشنهاد دوستانه، از دولت‌ها خواسته است تا مقررات «سبک» برای تشویق تحقیقات تفسیرپذیری وضع کنند، مانند الزام شرکت‌ها به افشای شیوه‌های ایمنی و امنیتی خود. آمودی در مقاله همچنین می‌گوید که ایالات متحده باید کنترل‌های صادراتی بر تراشه‌ها به چین اعمال کند تا احتمال مسابقه جهانی هوش مصنوعی کنترل‌نشده را محدود کند.

آنتروپیک همیشه به دلیل تمرکز بر ایمنی از اوپن‌اِی‌آی و گوگل متمایز بوده است. در حالی که سایر شرکت‌های فناوری با لایحه جنجالی ایمنی هوش مصنوعی کالیفرنیا (SB 1047) مخالفت کردند، آنتروپیک از آن حمایت متوسطی کرده و توصیه‌هایی برای این لایحه که استانداردهای گزارش‌دهی ایمنی را برای توسعه‌دهندگان مدل‌های پیشرفته هوش مصنوعی تعیین می‌کرد، ارائه داد.

در این مورد، به نظر می‌رسد آنتروپیک در حال تلاش برای یک تلاش صنعتی گسترده برای درک بهتر مدل‌های هوش مصنوعی است، نه فقط افزایش قابلیت‌های آن‌ها.

منبع: تک‌کرانچ

به مطالعه ادامه دهید