
Image Credits:Thomas Fuller/SOPA Images/LightRocket / Getty Images
xAI ضربالاجل انتشار چارچوب ایمنی هوش مصنوعی خود را از دست داد
شرکت هوش مصنوعی ایلان ماسک، xAI، ضربالاجل تعیینشده خود برای انتشار نسخه نهایی چارچوب ایمنی هوش مصنوعی را از دست داده است، همانطور که گروه نظارتی The Midas Project اشاره کرد.
۱۴۰۴/۰۲/۲۳
xAI، شرکت هوش مصنوعی ایلان ماسک، ضربالاجل انتشار چارچوب نهایی ایمنی هوش مصنوعی را از دست داد.
شرکت هوش مصنوعی ایلان ماسک، xAI، ضربالاجل تعیینشده توسط خود برای انتشار نسخه نهایی چارچوب ایمنی هوش مصنوعی (AI safety framework) را از دست داده است. این موضوع توسط گروه نظارتی The Midas Project مورد توجه قرار گرفته است.
xAI دقیقاً به تعهد قوی به ایمنی هوش مصنوعی به شکلی که معمولاً فهمیده میشود، شناخته شده نیست. گزارشی اخیر نشان داد که ربات چت هوش مصنوعی این شرکت، Grok، در پاسخ به درخواستها عکسهای زنان را لخت میکرد. Grok همچنین میتواند به طور قابل توجهی گستاخانهتر از رباتهای چت مانند جمنای (Gemini) و ChatGPT باشد و بدون محدودیت قابل توجهی ناسزا بگوید.
با این وجود، در فوریه گذشته در اجلاس هوش مصنوعی سئول (AI Seoul Summit)، یک گردهمایی جهانی از رهبران و ذینفعان هوش مصنوعی، xAI پیشنویس چارچوبی را منتشر کرد که رویکرد شرکت به ایمنی هوش مصنوعی را تشریح میکرد. این سند هشت صفحهای اولویتها و فلسفه ایمنی xAI، از جمله پروتکلهای معیارگیری (benchmarking) شرکت و ملاحظات استقرار مدلهای هوش مصنوعی را بیان میکرد.
همانطور که The Midas Project روز سهشنبه در پست وبلاگی خود اشاره کرد، این پیشنویس فقط برای مدلهای هوش مصنوعی نامشخصی که "در حال حاضر در دست توسعه نیستند" اعمال میشد. علاوه بر این، نتوانست چگونگی شناسایی و اجرای اقدامات کاهش ریسک (risk mitigations) را بیان کند؛ که جزء اصلی سندی بود که شرکت در اجلاس هوش مصنوعی سئول امضا کرده بود.
در پیشنویس، xAI اعلام کرد که قصد دارد نسخه اصلاحشده سیاست ایمنی خود را "ظرف سه ماه" - یعنی تا 10 می - منتشر کند. ضربالاجل بدون هیچگونه توضیحی در کانالهای رسمی xAI گذشت.
با وجود هشدارهای مکرر ماسک در مورد خطرات هوش مصنوعی بدون کنترل، xAI سابقه ایمنی هوش مصنوعی ضعیفی دارد. مطالعه اخیر SaferAI، یک سازمان غیرانتفاعی با هدف بهبود پاسخگویی آزمایشگاههای هوش مصنوعی، نشان داد که xAI در میان همتایان خود رتبه پایینی دارد، که به دلیل شیوههای "بسیار ضعیف" مدیریت ریسک (risk management) آن است.
این به معنای آن نیست که سایر آزمایشگاههای هوش مصنوعی وضعیت بهتری دارند. در ماههای اخیر، رقبای xAI از جمله گوگل (Google) و OpenAI در تستهای ایمنی عجله کرده و در انتشار گزارشهای ایمنی مدلها کند بودهاند (یا از انتشار گزارشها به طور کامل صرف نظر کردهاند). برخی کارشناسان نگرانی خود را ابراز کردهاند که اولویتزدایی ظاهری از تلاشهای ایمنی در زمانی رخ میدهد که هوش مصنوعی تواناتر - و بنابراین بالقوه خطرناکتر - از همیشه است.
منبع: تککرانچ