CANADA - 2025/01/22: In this photo illustration, the xAI logo is seen displayed on a smartphone screen. (Photo Illustration by Thomas Fuller/SOPA Images/LightRocket via Getty Images)
هوش مصنوعی

xAI ضرب‌الاجل انتشار چارچوب ایمنی هوش مصنوعی خود را از دست داد

شرکت هوش مصنوعی ایلان ماسک، xAI، ضرب‌الاجل تعیین‌شده خود برای انتشار نسخه نهایی چارچوب ایمنی هوش مصنوعی را از دست داده است، همانطور که گروه نظارتی The Midas Project اشاره کرد.

۱۴۰۴/۰۲/۲۳

xAI، شرکت هوش مصنوعی ایلان ماسک، ضرب‌الاجل انتشار چارچوب نهایی ایمنی هوش مصنوعی را از دست داد.

شرکت هوش مصنوعی ایلان ماسک، xAI، ضرب‌الاجل تعیین‌شده توسط خود برای انتشار نسخه نهایی چارچوب ایمنی هوش مصنوعی (AI safety framework) را از دست داده است. این موضوع توسط گروه نظارتی The Midas Project مورد توجه قرار گرفته است.

xAI دقیقاً به تعهد قوی به ایمنی هوش مصنوعی به شکلی که معمولاً فهمیده می‌شود، شناخته شده نیست. گزارشی اخیر نشان داد که ربات چت هوش مصنوعی این شرکت، Grok، در پاسخ به درخواست‌ها عکس‌های زنان را لخت می‌کرد. Grok همچنین می‌تواند به طور قابل توجهی گستاخانه‌تر از ربات‌های چت مانند جمنای (Gemini) و ChatGPT باشد و بدون محدودیت قابل توجهی ناسزا بگوید.

با این وجود، در فوریه گذشته در اجلاس هوش مصنوعی سئول (AI Seoul Summit)، یک گردهمایی جهانی از رهبران و ذینفعان هوش مصنوعی، xAI پیش‌نویس چارچوبی را منتشر کرد که رویکرد شرکت به ایمنی هوش مصنوعی را تشریح می‌کرد. این سند هشت صفحه‌ای اولویت‌ها و فلسفه ایمنی xAI، از جمله پروتکل‌های معیارگیری (benchmarking) شرکت و ملاحظات استقرار مدل‌های هوش مصنوعی را بیان می‌کرد.

همانطور که The Midas Project روز سه‌شنبه در پست وبلاگی خود اشاره کرد، این پیش‌نویس فقط برای مدل‌های هوش مصنوعی نامشخصی که "در حال حاضر در دست توسعه نیستند" اعمال می‌شد. علاوه بر این، نتوانست چگونگی شناسایی و اجرای اقدامات کاهش ریسک (risk mitigations) را بیان کند؛ که جزء اصلی سندی بود که شرکت در اجلاس هوش مصنوعی سئول امضا کرده بود.

در پیش‌نویس، xAI اعلام کرد که قصد دارد نسخه اصلاح‌شده سیاست ایمنی خود را "ظرف سه ماه" - یعنی تا 10 می - منتشر کند. ضرب‌الاجل بدون هیچگونه توضیحی در کانال‌های رسمی xAI گذشت.

با وجود هشدارهای مکرر ماسک در مورد خطرات هوش مصنوعی بدون کنترل، xAI سابقه ایمنی هوش مصنوعی ضعیفی دارد. مطالعه اخیر SaferAI، یک سازمان غیرانتفاعی با هدف بهبود پاسخگویی آزمایشگاه‌های هوش مصنوعی، نشان داد که xAI در میان همتایان خود رتبه پایینی دارد، که به دلیل شیوه‌های "بسیار ضعیف" مدیریت ریسک (risk management) آن است.

این به معنای آن نیست که سایر آزمایشگاه‌های هوش مصنوعی وضعیت بهتری دارند. در ماه‌های اخیر، رقبای xAI از جمله گوگل (Google) و OpenAI در تست‌های ایمنی عجله کرده و در انتشار گزارش‌های ایمنی مدل‌ها کند بوده‌اند (یا از انتشار گزارش‌ها به طور کامل صرف نظر کرده‌اند). برخی کارشناسان نگرانی خود را ابراز کرده‌اند که اولویت‌زدایی ظاهری از تلاش‌های ایمنی در زمانی رخ می‌دهد که هوش مصنوعی تواناتر - و بنابراین بالقوه خطرناک‌تر - از همیشه است.

منبع: تک‌کرانچ

به مطالعه ادامه دهید