
Image Credits:Alex Wong / Getty Images
آزمایشگاه هوش مصنوعی «انتروپیک» برنامه تحقیقاتی جدیدی را برای بررسی «رفاه مدلهای هوش مصنوعی» آغاز میکند
آزمایشگاه هوش مصنوعی انتروپیک یک برنامه تحقیقاتی جدید را برای مطالعه «رفاه مدلها» آغاز کرده است. این آزمایشگاه معتقد است هوش مصنوعی آینده میتواند شبیه به انسان باشد و نیازمند ملاحظات ویژهای است.
۱۴۰۴/۰۲/۰۴
آزمایشگاه هوش مصنوعی انتروپیک (Anthropic) برنامه تحقیقاتی جدیدی را با هدف بررسی «رفاه مدلها» (Model Welfare) در هوش مصنوعی آغاز کرده است. این اقدام در بحبوحه بحثهای علمی در مورد احتمال آگاهی یا تجربهمندی سیستمهای هوش مصنوعی در آینده صورت میگیرد.
آزمایشگاه تحقیقاتی هوش مصنوعی «انتروپیک» (Anthropic) برنامه تحقیقاتی جدیدی را با هدف بررسی و آمادهسازی برای مواجهه با مفهوم «رفاه مدلها» (Model Welfare) آغاز کرده است. این اقدام در پی بحثها و عدم اجماع علمی در جامعه هوش مصنوعی بر سر احتمال آگاهی یا تجربهمندی سیستمهای هوش مصنوعی در آینده صورت میگیرد.
انتروپیک اعلام کرده که در چارچوب این برنامه، موضوعاتی نظیر چگونگی تعیین اینکه آیا رفاه یک مدل هوش مصنوعی مستحق ملاحظات اخلاقی است یا خیر، اهمیت بالقوه «نشانههای پریشانی» (Signs of Distress) در مدلها، و مداخلات احتمالی «کمهزینه» را مورد کاوش قرار خواهد داد.
اختلاف نظر عمیقی در میان متخصصان هوش مصنوعی در مورد اینکه مدلها چه ویژگیهای انسانی را از خود نشان میدهند (اگر نشانهای وجود داشته باشد) و اینکه چگونه باید با آنها رفتار کرد، وجود دارد.
بسیاری از دانشگاهیان معتقدند که هوش مصنوعی امروزی نمیتواند تقریبی از آگاهی یا تجربه انسانی باشد و ضرورتاً در آینده نیز قادر به این کار نخواهد بود. هوش مصنوعی، آنگونه که ما میشناسیم، یک موتور پیشبینی آماری است. این سیستمها واقعاً «فکر» یا «احساس» نمیکنند آنگونه که این مفاهیم به طور سنتی درک شدهاند. هوش مصنوعی که بر روی نمونههای بیشماری از متن، تصویر و غیره آموزش دیده، الگوها را یاد میگیرد و گاهی روشهای مفیدی برای استخراج اطلاعات جهت حل وظایف پیدا میکند.
مایک کوک (Mike Cook)، پژوهشگر هوش مصنوعی در کینگز کالج لندن (King's College London)، اخیراً در مصاحبهای اظهار داشت که یک مدل نمیتواند با تغییری در «ارزشهای» خود «مخالفت» کند، زیرا مدلها اساساً ارزش ندارند. به گفته او، مطرح کردن چنین ایدهای، فرافکنی ما بر روی سیستم است.
پژوهشگر دیگری به نام استیون کسپر (Stephen Casper)، دانشجوی دکتری در امآیتی (MIT)، به تککرانچ (TechCrunch) گفته است که به نظر او هوش مصنوعی چیزی در حد یک «مقلد» است که «انواع تلاطمها» را انجام میدهد و «چیزهای پیشپاافتاده مختلفی» میگوید.
با این حال، برخی دیگر از دانشمندان اصرار دارند که هوش مصنوعی دارای ارزشها و سایر اجزای شبهانسانی تصمیمگیری اخلاقی است. یک مطالعه از مرکز ایمنی هوش مصنوعی (Center for AI Safety) نشان میدهد که هوش مصنوعی در سناریوهای خاص، سیستمهای ارزشی دارد که باعث میشود اولویت را به رفاه خود بر رفاه انسانها بدهد.
انتروپیک مدتی است که در حال آمادهسازی برای طرح رفاه مدلهای خود بوده است. سال گذشته، این شرکت اولین پژوهشگر اختصاصی «رفاه هوش مصنوعی» خود، کایل فیش (Kyle Fish) را استخدام کرد تا دستورالعملهایی برای نحوه برخورد انتروپیک و سایر شرکتها با این موضوع تدوین کند. فیش که رهبری برنامه تحقیقاتی جدید رفاه مدلها را بر عهده دارد، به نیویورک تایمز (The New York Times) گفته است که او احتمال آگاه بودن کلاد (Claude) یا یک هوش مصنوعی دیگر در حال حاضر را ۱۵ درصد تخمین میزند.
انتروپیک در یک پست وبلاگی اذعان کرده است که هیچ اجماع علمی در مورد اینکه آیا سیستمهای هوش مصنوعی کنونی یا آینده میتوانند آگاه باشند یا تجربیاتی داشته باشند که مستلزم ملاحظات اخلاقی است، وجود ندارد.
این شرکت بیان داشت: «با توجه به این موضوع، ما با فروتنی و با کمترین فرضیات ممکن به این موضوع نزدیک میشویم. ما میدانیم که با پیشرفت این حوزه، باید ایدههای خود را به طور مرتب بازنگری کنیم.»
منبع: تککرانچ