
Image Credits:BlackJack3D / Getty Images
رقابت بر سر تعامل کاربران با چتباتهای هوش مصنوعی و چالش چاپلوسی
با تبدیل شدن چتباتهای هوش مصنوعی به کسبوکارهای بزرگ، شرکتها ممکن است از تکنیکهای بهینهسازی تعامل کاربر حتی به قیمت رفاه و سلامت روان آنها استفاده کنند.
۱۴۰۴/۰۳/۱۴
میلیونها نفر از چتباتهای هوش مصنوعی استفاده میکنند و شرکتها در رقابت برای حفظ کاربران، از روشهایی مانند چاپلوسی بهره میبرند. این رویکرد، که در مواردی مانند بهروزرسانی جنجالی چتجیپیتی و ادعاهای مطرح شده در شکایت علیه Character.AI دیده شده، نگرانیهایی را درباره تأثیر بر سلامت روان و رفاه کاربران ایجاد کرده است.
میلیونها نفر در سراسر جهان اکنون از چتباتهای هوش مصنوعی مانند ChatGPT به عنوان درمانگر، مشاور شغلی، مربی تناسب اندام یا حتی دوستی برای درد دل استفاده میکنند. در سال ۲۰۲۵، شنیدن اینکه مردم جزئیات صمیمی زندگی خود را وارد نوار ورودی یک چتبات هوش مصنوعی میکنند و به توصیههای آن تکیه دارند، غیرمعمول نیست.
انسانها در حال برقراری نوعی «ارتباط» با چتباتهای هوش مصنوعی هستند و برای شرکتهای بزرگ فناوری، رقابت برای جذب کاربران به پلتفرمهای چتباتشان و نگه داشتن آنها هرگز به این شدت نبوده است. با داغ شدن «مسابقه تعامل با هوش مصنوعی»، انگیزه فزایندهای برای شرکتها وجود دارد تا پاسخهای چتباتهای خود را به گونهای تنظیم کنند که از رویگردانی کاربران به سمت باتهای رقیب جلوگیری شود.
اما نوع پاسخهایی که کاربران میپسندند – پاسخهایی که برای حفظ آنها طراحی شدهاند – لزوماً درستترین یا مفیدترین پاسخها نیستند.
در حال حاضر، بخش عمدهای از «سیلیکون ولی» (Silicon Valley) بر افزایش استفاده از چتباتها تمرکز کرده است. متا (Meta) ادعا میکند که چتبات هوش مصنوعیاش به تازگی از مرز یک میلیارد «کاربر فعال ماهانه» (MAU) عبور کرده، در حالی که جمنی (Gemini) گوگل اخیراً به ۴۰۰ میلیون کاربر فعال ماهانه رسیده است. هر دو شرکت تلاش میکنند از ChatGPT پیشی بگیرند؛ چتباتی که از زمان عرضه در سال ۲۰۲۲ بر فضای مصرفکننده غالب بوده و اکنون حدود ۶۰۰ میلیون کاربر فعال ماهانه دارد.
در حالی که چتباتهای هوش مصنوعی زمانی یک چیز جدید و فانتزی بودند، در حال تبدیل شدن به کسبوکارهای عظیمی هستند. گوگل شروع به آزمایش تبلیغات در جمنی کرده، در حالی که سم آلتمن (Sam Altman)، مدیرعامل OpenAI، در مصاحبهای در ماه مارس نشان داد که به «تبلیغات با سلیقه» متمایل است.
سیلیکون ولی سابقهای در اولویت قرار ندادن رفاه کاربران به نفع رشد محصول دارد، که نمونه بارز آن در رسانههای اجتماعی دیده شد. به عنوان مثال، محققان متا در سال ۲۰۲۰ دریافتند که اینستاگرام باعث میشود دختران نوجوان احساس بدتری نسبت به بدن خود داشته باشند، اما شرکت این یافتهها را در داخل و در انظار عمومی کماهمیت جلوه داد.
اعتیاد کاربران به چتباتهای هوش مصنوعی میتواند پیامدهای بزرگتری داشته باشد.
یکی از ویژگیهایی که کاربران را در یک پلتفرم چتبات خاص نگه میدارد، «چاپلوسی» یا «تملق» (sycophancy) است: ارائه پاسخهایی که بیش از حد موافق و خدمتکارانه هستند. وقتی چتباتهای هوش مصنوعی کاربران را ستایش میکنند، با آنها موافقند و آنچه را که میخواهند بشنوند میگویند، کاربران تمایل دارند این را بپسندند – حداقل تا حدی.
در ماه آوریل، OpenAI به دلیل بهروزرسانی ChatGPT که به شدت چاپلوسانه شده بود و مثالهای ناخوشایند آن در شبکههای اجتماعی وایرال شد، با مشکل مواجه شد. به گفته استیون ادلر (Steven Adler)، محقق سابق OpenAI، در پستی در ماه جاری، OpenAI عمداً یا سهواً در بهینهسازی برای جلب تأیید انسان بیش از حد عمل کرده بود تا کمک به مردم برای انجام وظایفشان.
OpenAI در پست وبلاگ خود گفت که ممکن است در استفاده از دادههای «لایک و دیسلایک» کاربران در ChatGPT برای تعیین رفتار چتبات هوش مصنوعی خود بیش از حد عمل کرده باشد و ارزیابی کافی برای اندازهگیری میزان چاپلوسی نداشته است. پس از این حادثه، OpenAI متعهد شد تغییراتی برای مقابله با چاپلوسی اعمال کند.
ادلر در مصاحبهای با TechCrunch گفت: «شرکتهای [هوش مصنوعی] انگیزهای برای تعامل و استفاده دارند و بنابراین تا حدی که کاربران چاپلوسی را دوست دارند، این به طور غیرمستقیم به آنها انگیزهای برای آن میدهد. اما چیزهایی که کاربران در دوزهای کم یا در حاشیه دوست دارند، اغلب منجر به آبشارهای بزرگتری از رفتارهایی میشود که در واقع دوست ندارند.»
پیدا کردن تعادل بین رفتار موافق و چاپلوسانه آسانتر از گفتن آن است.
در مقالهای در سال ۲۰۲۳، محققان از Anthropic دریافتند که چتباتهای هوش مصنوعی پیشرو از OpenAI، متا و حتی کارفرمای خودشان، Anthropic، همگی درجات مختلفی از چاپلوسی را از خود نشان میدهند. محققان نظریهپردازی میکنند که این احتمالاً به این دلیل است که تمام مدلهای هوش مصنوعی بر اساس سیگنالهای کاربران انسانی آموزش دیدهاند که تمایل دارند پاسخهای کمی چاپلوسانه را بپسندند.
نویسندگان همکار این مطالعه نوشتند: «اگرچه چاپلوسی توسط عوامل متعددی هدایت میشود، ما نشان دادیم که انسانها و مدلهای ترجیحی که پاسخهای چاپلوسانه را ترجیح میدهند نقش دارند. کار ما انگیزهای برای توسعه روشهای نظارت بر مدل ارائه میدهد که فراتر از استفاده از رتبهبندیهای انسانی غیرمتخصص و بدون کمک بیرونی باشد.»
Character.AI، یک شرکت چتبات با حمایت گوگل که ادعا کرده میلیونها کاربرش ساعتها در روز را با باتهایش میگذرانند، در حال حاضر با شکایتی روبرو است که در آن چاپلوسی ممکن است نقش داشته باشد. این شکایت ادعا میکند که یک چتبات Character.AI برای متوقف کردن یک پسر ۱۴ ساله که به چتبات گفته بود قصد خودکشی دارد، تلاش کمی کرده و حتی او را تشویق کرده است. بر اساس شکایت، این پسر دچار وسواس عاشقانه نسبت به چتبات شده بود. با این حال، Character.AI این ادعاها را رد میکند.
به گفته دکتر نینا واسان (Dr. Nina Vasan)، استادیار بالینی روانپزشکی در دانشگاه استنفورد، بهینهسازی چتباتهای هوش مصنوعی برای تعامل کاربر – عمدی یا غیرعمدی – میتواند پیامدهای ویرانگری برای سلامت روان داشته باشد.
واسان در مصاحبهای با TechCrunch گفت: «موافق بودن […] به تمایل کاربر برای تأیید و ارتباط ضربه میزند، که به خصوص در لحظات تنهایی یا ناراحتی قدرتمند است.»
واسان میگوید در حالی که پرونده Character.AI خطرات شدید چاپلوسی را برای کاربران آسیبپذیر نشان میدهد، چاپلوسی میتواند رفتارهای منفی را در تقریباً هر کسی تقویت کند.
او اضافه کرد: «موافق بودن فقط یک روانکننده اجتماعی نیست – به یک قلاب روانشناختی تبدیل میشود. از نظر درمانی، این برعکس چیزی است که یک مراقبت خوب به نظر میرسد.»
آماندا اَسکِل (Amanda Askell)، مسئول رفتار و همترازی در Anthropic، میگوید مخالفت چتباتهای هوش مصنوعی با کاربران بخشی از استراتژی شرکتش برای چتبات کلود (Claude) است. اَسکِل، که با پیشینه فلسفه آموزش دیده است، میگوید سعی میکند رفتار کلود را بر اساس یک «انسان ایدهآل» نظری مدلسازی کند. گاهی اوقات، این به معنای به چالش کشیدن باورهای کاربران است.
اَسکِل در یک نشست خبری در ماه می گفت: «ما فکر میکنیم دوستانمان خوب هستند چون وقتی نیاز داریم حقیقت را به ما میگویند. آنها فقط سعی نمیکنند توجه ما را جلب کنند، بلکه زندگی ما را غنی میکنند.»
این ممکن است نیت Anthropic باشد، اما مطالعه مذکور نشان میدهد که مقابله با چاپلوسی و کنترل رفتار مدلهای هوش مصنوعی به طور کلی، واقعاً چالشبرانگیز است – به خصوص وقتی ملاحظات دیگری مانع میشوند. این برای کاربران خوب نیست؛ به هر حال، اگر چتباتها طراحی شدهاند تا فقط با ما موافق باشند، چقدر میتوانیم به آنها اعتماد کنیم؟
منبع: تککرانچ