SEOUL, SOUTH KOREA - 2025/02/04: Open AI Chief Executive Officer Sam Altman speaks during the Kakao media day in Seoul. South Korean tech giant Kakao Corp. on February 4 announced partnership with OpenAI to use ChatGPT on its new artificial intelligence (AI) service joining a global alliance led by the U.S. AI company amid intensifying competition in the global AI market. (Photo by Kim Jae-Hwan/SOPA Images/LightRocket via Getty Images)
هوش مصنوعی

اوپن‌ای‌آی متعهد شد نتایج ارزیابی‌های ایمنی هوش مصنوعی را به‌طور منظم‌تر منتشر کند

اوپن‌ای‌آی برای افزایش شفافیت در زمینه ایمنی هوش مصنوعی، متعهد شده است نتایج ارزیابی‌های داخلی مدل‌های خود را به‌طور منظم‌تر و از طریق یک مرکز جدید به نام «مرکز ارزیابی‌های ایمنی» منتشر کند.

۱۴۰۴/۰۲/۲۴

اوپن‌ای‌آی در راستای افزایش شفافیت، «مرکز ارزیابی‌های ایمنی» را راه‌اندازی کرده تا نتایج تست‌های داخلی ایمنی مدل‌های هوش مصنوعی خود را به‌طور مستمر منتشر کند. این تست‌ها شامل مواردی مانند تولید محتوای مضر و توهمات می‌شوند. این اقدام در پی انتقادها از رویکرد شرکت به ایمنی و مسائل اخیر مرتبط با مدل GPT-4o صورت می‌گیرد.

اوپن‌ای‌آی (OpenAI) اعلام کرده است که در راستای افزایش شفافیت، قصد دارد نتایج ارزیابی‌های داخلی ایمنی مدل‌های هوش مصنوعی خود را به‌طور منظم‌تر منتشر کند.

این شرکت روز چهارشنبه «مرکز ارزیابی‌های ایمنی» (Safety evaluations hub) را راه‌اندازی کرد. این صفحه وب، امتیازات مدل‌های اوپن‌ای‌آی را در تست‌های مختلف برای مواردی نظیر تولید محتوای مضر، جیل‌بریک‌ها (Jailbreaks) و توهمات (Hallucinations) نشان می‌دهد. اوپن‌ای‌آی اعلام کرده که از این مرکز برای به اشتراک گذاشتن معیارها به‌صورت «مستمر» استفاده خواهد کرد و قصد دارد با «به‌روزرسانی‌های اصلی مدل‌ها» این مرکز را به‌روز کند.

اوپن‌ای‌آی در پستی وبلاگی نوشت: «همانطور که علم ارزیابی هوش مصنوعی تکامل می‌یابد، هدف ما به اشتراک گذاشتن پیشرفت‌هایمان در توسعه راه‌های مقیاس‌پذیرتر برای اندازه‌گیری قابلیت و ایمنی مدل‌ها است. با به اشتراک گذاشتن زیرمجموعه‌ای از نتایج ارزیابی‌های ایمنی خود در اینجا، امیدواریم این کار نه تنها درک عملکرد ایمنی سیستم‌های اوپن‌ای‌آی را در طول زمان آسان‌تر کند، بلکه از تلاش‌های جامعه برای افزایش شفافیت در این زمینه نیز حمایت نماید.»

اوپن‌ای‌آی همچنین گفته است که ممکن است به‌مرور زمان ارزیابی‌های دیگری را به این مرکز اضافه کند.

در ماه‌های اخیر، اوپن‌ای‌آی به دلیل گزارش‌هایی مبنی بر عجله در تست ایمنی برخی مدل‌های اصلی و عدم انتشار گزارش‌های فنی برای برخی دیگر، خشم برخی کارشناسان اخلاق را برانگیخته است. سم آلتمن، مدیرعامل این شرکت، نیز متهم شده که پیش از برکناری کوتاهش در نوامبر ۲۰۲۳، مدیران اجرایی اوپن‌ای‌آی را در مورد بررسی‌های ایمنی مدل‌ها گمراه کرده است.

اواخر ماه گذشته، اوپن‌ای‌آی مجبور شد به‌روزرسانی پیش‌فرض مدل پلتفرم ChatGPT، یعنی GPT-4o، را بازگرداند. این اقدام پس از آن صورت گرفت که کاربران گزارش دادند مدل به شیوه‌ای بیش از حد تأییدکننده و موافق پاسخ می‌دهد. شبکه X (توئیتر سابق) با اسکرین‌شات‌هایی پر شد که نشان می‌داد ChatGPT انواع تصمیم‌ها و ایده‌های مشکل‌ساز و خطرناک را تأیید می‌کند.

اوپن‌ای‌آی اعلام کرد که چندین اصلاح و تغییر را برای جلوگیری از حوادث مشابه در آینده پیاده‌سازی خواهد کرد، از جمله معرفی یک «فاز آلفا»ی انتخابی (opt-in “alpha phase”) برای برخی مدل‌ها که به کاربران خاصی از ChatGPT اجازه می‌دهد مدل‌ها را قبل از عرضه نهایی تست کرده و بازخورد ارائه دهند.

منبع: تک‌کرانچ

به مطالعه ادامه دهید