
Image Credits:Benjamin Girette/Bloomberg / Getty Images
مدیرعامل آنتروپیک خواهان درک بهتر مدلهای هوش مصنوعی تا سال ۲۰۲۷ شد
داریو آمودی، مدیرعامل آنتروپیک، هدف شرکت خود را «شناسایی قابل اعتماد اکثر مشکلات مدلهای هوش مصنوعی» تا سال ۲۰۲۷ تعیین کرده و بر اهمیت درک نحوه عملکرد این سیستمها تأکید دارد.
۱۴۰۴/۰۲/۰۵
مدیرعامل شرکت آنتروپیک، داریو آمودی، اعلام کرد که هدف این شرکت دستیابی به قابلیت شناسایی مشکلات مدلهای هوش مصنوعی تا سال ۲۰۲۷ است. او بر اهمیت درک نحوه عملکرد درونی این مدلها قبل از استقرار گسترده آنها تأکید کرد و خواستار افزایش تحقیقات در این زمینه و وضع مقررات دولتی شد.
داریو آمودی (Dario Amodei)، مدیرعامل شرکت آنتروپیک (Anthropic)، اخیراً مقالهای منتشر کرده که بر عدم درک کافی محققان از نحوه عملکرد درونی مدلهای پیشرو هوش مصنوعی (AI) تأکید دارد. برای رفع این چالش، آمودی هدف بلندپروازانهای را برای آنتروپیک تعیین کرده است: دستیابی به قابلیت شناسایی قابل اعتماد اکثر مشکلات مدلهای هوش مصنوعی تا سال ۲۰۲۷.
آمودی اذعان دارد که این هدف چالشبرانگیز است. در مقالهی خود با عنوان «فوریت تفسیرپذیری» (The Urgency of Interpretability)، او میگوید که آنتروپیک پیشرفتهای اولیه در ردیابی چگونگی رسیدن مدلها به پاسخهایشان داشته است، اما تأکید میکند که تحقیقات بسیار بیشتری برای رمزگشایی این سیستمها با افزایش قدرت آنها مورد نیاز است.
آمودی در مقالهی خود مینویسد: «من از استقرار چنین سیستمهایی بدون درک بهتر تفسیرپذیری (Interpretability) بسیار نگرانم. این سیستمها در اقتصاد، فناوری و امنیت ملی کاملاً محوری خواهند بود و استقلال عمل بالایی خواهند داشت؛ به حدی که از نظر من عدم آگاهی کامل بشر از نحوه کارکرد آنها اساساً غیرقابل قبول است.»
آنتروپیک یکی از شرکتهای پیشگام در زمینهی تفسیرپذیری مکانیکی (Mechanistic interpretability) است؛ حوزهای که هدف آن «باز کردن جعبه سیاه» مدلهای هوش مصنوعی و درک دلیل تصمیمگیریهای آنهاست. با وجود پیشرفتهای سریع در عملکرد مدلهای هوش مصنوعی، ما همچنان ایده نسبتاً کمی از نحوه رسیدن این سیستمها به تصمیماتشان داریم.
برای مثال، شرکت اوپناِیآی (OpenAI) اخیراً مدلهای جدید استدلالی (o3 و o4-mini) را عرضه کرده که در برخی وظایف بهتر عمل میکنند، اما همچنین بیش از مدلهای دیگر دچار «توهم» (hallucination) میشوند و این شرکت نمیداند چرا این اتفاق میافتد.
آمودی در مقالهی خود مینویسد: «هنگامی که یک سیستم هوش مصنوعی مولد (Generative AI) کاری انجام میدهد، مثلاً خلاصهسازی یک سند مالی، ما در سطح دقیق و مشخصی نمیدانیم چرا آن انتخابها را انجام میدهد - چرا کلمات خاصی را برمیگزیند یا چرا با وجود دقت معمول، گاهی اشتباه میکند.»
در این مقاله، آمودی اشاره میکند که کریس اولا (Chris Olah)، یکی از بنیانگذاران آنتروپیک، میگوید که مدلهای هوش مصنوعی «بیشتر رشد میکنند تا ساخته شوند.» به عبارت دیگر، محققان هوش مصنوعی راههایی برای بهبود هوشمندی مدلها یافتهاند، اما دقیقاً نمیدانند چرا.
آمودی در مقاله میگوید که رسیدن به هوش مصنوعی عمومی (AGI) – یا به قول خودش، «کشوری از نوابغ در یک مرکز داده» – بدون درک نحوه عملکرد این مدلها میتواند خطرناک باشد. در مقالهی قبلی، آمودی ادعا کرده بود که صنعت فناوری میتواند تا سال ۲۰۲۶ یا ۲۰۲۷ به چنین نقطهی عطفی دست یابد، اما معتقد است که ما از درک کامل این مدلها فاصله زیادی داریم.
آمودی میگوید که در بلندمدت، آنتروپیک اساساً مایل است «اسکن مغز» یا «MRI» مدلهای پیشرفته هوش مصنوعی را انجام دهد. او میگوید این بررسیها به شناسایی طیف وسیعی از مسائل در مدلها، از جمله تمایل آنها به دروغ گفتن یا کسب قدرت، یا سایر نقاط ضعف کمک میکند. این کار ممکن است پنج تا ده سال طول بکشد، اما این اقدامات برای آزمایش و استقرار مدلهای آینده آنتروپیک ضروری خواهد بود.
آنتروپیک در زمینه تحقیقات تفسیرپذیری سرمایهگذاری کرده و اخیراً اولین سرمایهگذاری خود را در یک استارتاپ فعال در این زمینه انجام داده است. در حالی که تفسیرپذیری امروزه عمدتاً به عنوان حوزهای از تحقیقات ایمنی (safety research) دیده میشود، آمودی اشاره میکند که در نهایت، توضیح چگونگی رسیدن مدلهای هوش مصنوعی به پاسخهایشان میتواند یک مزیت تجاری ایجاد کند.
در این مقاله، آمودی از اوپناِیآی و گوگل دیپمایند (Google DeepMind) خواسته است تا تلاشهای تحقیقاتی خود را در این زمینه افزایش دهند. او علاوه بر این پیشنهاد دوستانه، از دولتها خواسته است تا مقررات «سبک» برای تشویق تحقیقات تفسیرپذیری وضع کنند، مانند الزام شرکتها به افشای شیوههای ایمنی و امنیتی خود. آمودی در مقاله همچنین میگوید که ایالات متحده باید کنترلهای صادراتی بر تراشهها به چین اعمال کند تا احتمال مسابقه جهانی هوش مصنوعی کنترلنشده را محدود کند.
آنتروپیک همیشه به دلیل تمرکز بر ایمنی از اوپناِیآی و گوگل متمایز بوده است. در حالی که سایر شرکتهای فناوری با لایحه جنجالی ایمنی هوش مصنوعی کالیفرنیا (SB 1047) مخالفت کردند، آنتروپیک از آن حمایت متوسطی کرده و توصیههایی برای این لایحه که استانداردهای گزارشدهی ایمنی را برای توسعهدهندگان مدلهای پیشرفته هوش مصنوعی تعیین میکرد، ارائه داد.
در این مورد، به نظر میرسد آنتروپیک در حال تلاش برای یک تلاش صنعتی گسترده برای درک بهتر مدلهای هوش مصنوعی است، نه فقط افزایش قابلیتهای آنها.
منبع: تککرانچ