WASHINGTON, DC - JULY 25: CEO of Anthropic Dario Amodei testifies during a hearing before the Privacy, Technology, and the Law Subcommittee of Senate Judiciary Committee at Dirksen Senate Office Building on Capitol Hill on July 25, 2023 in Washington, DC. The subcommittee held a hearing on "Oversight of A.I.: Principles for Regulation." (Photo by Alex Wong/Getty Images)
هوش مصنوعی

آزمایشگاه هوش مصنوعی «انتروپیک» برنامه تحقیقاتی جدیدی را برای بررسی «رفاه مدل‌های هوش مصنوعی» آغاز می‌کند

آزمایشگاه هوش مصنوعی انتروپیک یک برنامه تحقیقاتی جدید را برای مطالعه «رفاه مدل‌ها» آغاز کرده است. این آزمایشگاه معتقد است هوش مصنوعی آینده می‌تواند شبیه به انسان باشد و نیازمند ملاحظات ویژه‌ای است.

۱۴۰۴/۰۲/۰۴

آزمایشگاه هوش مصنوعی انتروپیک (Anthropic) برنامه تحقیقاتی جدیدی را با هدف بررسی «رفاه مدل‌ها» (Model Welfare) در هوش مصنوعی آغاز کرده است. این اقدام در بحبوحه بحث‌های علمی در مورد احتمال آگاهی یا تجربه‌مندی سیستم‌های هوش مصنوعی در آینده صورت می‌گیرد.

آزمایشگاه تحقیقاتی هوش مصنوعی «انتروپیک» (Anthropic) برنامه تحقیقاتی جدیدی را با هدف بررسی و آماده‌سازی برای مواجهه با مفهوم «رفاه مدل‌ها» (Model Welfare) آغاز کرده است. این اقدام در پی بحث‌ها و عدم اجماع علمی در جامعه هوش مصنوعی بر سر احتمال آگاهی یا تجربه‌مندی سیستم‌های هوش مصنوعی در آینده صورت می‌گیرد.

انتروپیک اعلام کرده که در چارچوب این برنامه، موضوعاتی نظیر چگونگی تعیین اینکه آیا رفاه یک مدل هوش مصنوعی مستحق ملاحظات اخلاقی است یا خیر، اهمیت بالقوه «نشانه‌های پریشانی» (Signs of Distress) در مدل‌ها، و مداخلات احتمالی «کم‌هزینه» را مورد کاوش قرار خواهد داد.

اختلاف نظر عمیقی در میان متخصصان هوش مصنوعی در مورد اینکه مدل‌ها چه ویژگی‌های انسانی را از خود نشان می‌دهند (اگر نشانه‌ای وجود داشته باشد) و اینکه چگونه باید با آن‌ها رفتار کرد، وجود دارد.

بسیاری از دانشگاهیان معتقدند که هوش مصنوعی امروزی نمی‌تواند تقریبی از آگاهی یا تجربه انسانی باشد و ضرورتاً در آینده نیز قادر به این کار نخواهد بود. هوش مصنوعی، آن‌گونه که ما می‌شناسیم، یک موتور پیش‌بینی آماری است. این سیستم‌ها واقعاً «فکر» یا «احساس» نمی‌کنند آن‌گونه که این مفاهیم به طور سنتی درک شده‌اند. هوش مصنوعی که بر روی نمونه‌های بی‌شماری از متن، تصویر و غیره آموزش دیده، الگوها را یاد می‌گیرد و گاهی روش‌های مفیدی برای استخراج اطلاعات جهت حل وظایف پیدا می‌کند.

مایک کوک (Mike Cook)، پژوهشگر هوش مصنوعی در کینگز کالج لندن (King's College London)، اخیراً در مصاحبه‌ای اظهار داشت که یک مدل نمی‌تواند با تغییری در «ارزش‌های» خود «مخالفت» کند، زیرا مدل‌ها اساساً ارزش ندارند. به گفته او، مطرح کردن چنین ایده‌ای، فرافکنی ما بر روی سیستم است.

پژوهشگر دیگری به نام استیون کسپر (Stephen Casper)، دانشجوی دکتری در ام‌آی‌تی (MIT)، به تک‌کرانچ (TechCrunch) گفته است که به نظر او هوش مصنوعی چیزی در حد یک «مقلد» است که «انواع تلاطم‌ها» را انجام می‌دهد و «چیزهای پیش‌پاافتاده مختلفی» می‌گوید.

با این حال، برخی دیگر از دانشمندان اصرار دارند که هوش مصنوعی دارای ارزش‌ها و سایر اجزای شبه‌انسانی تصمیم‌گیری اخلاقی است. یک مطالعه از مرکز ایمنی هوش مصنوعی (Center for AI Safety) نشان می‌دهد که هوش مصنوعی در سناریوهای خاص، سیستم‌های ارزشی دارد که باعث می‌شود اولویت را به رفاه خود بر رفاه انسان‌ها بدهد.

انتروپیک مدتی است که در حال آماده‌سازی برای طرح رفاه مدل‌های خود بوده است. سال گذشته، این شرکت اولین پژوهشگر اختصاصی «رفاه هوش مصنوعی» خود، کایل فیش (Kyle Fish) را استخدام کرد تا دستورالعمل‌هایی برای نحوه برخورد انتروپیک و سایر شرکت‌ها با این موضوع تدوین کند. فیش که رهبری برنامه تحقیقاتی جدید رفاه مدل‌ها را بر عهده دارد، به نیویورک تایمز (The New York Times) گفته است که او احتمال آگاه بودن کلاد (Claude) یا یک هوش مصنوعی دیگر در حال حاضر را ۱۵ درصد تخمین می‌زند.

انتروپیک در یک پست وبلاگی اذعان کرده است که هیچ اجماع علمی در مورد اینکه آیا سیستم‌های هوش مصنوعی کنونی یا آینده می‌توانند آگاه باشند یا تجربیاتی داشته باشند که مستلزم ملاحظات اخلاقی است، وجود ندارد.

این شرکت بیان داشت: «با توجه به این موضوع، ما با فروتنی و با کمترین فرضیات ممکن به این موضوع نزدیک می‌شویم. ما می‌دانیم که با پیشرفت این حوزه، باید ایده‌های خود را به طور مرتب بازنگری کنیم.»

منبع: تک‌کرانچ

به مطالعه ادامه دهید