keyboard with chatbot icon hovering above it
هوش مصنوعی

رقابت بر سر تعامل کاربران با چت‌بات‌های هوش مصنوعی و چالش چاپلوسی

با تبدیل شدن چت‌بات‌های هوش مصنوعی به کسب‌وکارهای بزرگ، شرکت‌ها ممکن است از تکنیک‌های بهینه‌سازی تعامل کاربر حتی به قیمت رفاه و سلامت روان آنها استفاده کنند.

۱۴۰۴/۰۳/۱۴

میلیون‌ها نفر از چت‌بات‌های هوش مصنوعی استفاده می‌کنند و شرکت‌ها در رقابت برای حفظ کاربران، از روش‌هایی مانند چاپلوسی بهره می‌برند. این رویکرد، که در مواردی مانند به‌روزرسانی جنجالی چت‌جی‌پی‌تی و ادعاهای مطرح شده در شکایت علیه Character.AI دیده شده، نگرانی‌هایی را درباره تأثیر بر سلامت روان و رفاه کاربران ایجاد کرده است.

میلیون‌ها نفر در سراسر جهان اکنون از چت‌بات‌های هوش مصنوعی مانند ChatGPT به عنوان درمانگر، مشاور شغلی، مربی تناسب اندام یا حتی دوستی برای درد دل استفاده می‌کنند. در سال ۲۰۲۵، شنیدن اینکه مردم جزئیات صمیمی زندگی خود را وارد نوار ورودی یک چت‌بات هوش مصنوعی می‌کنند و به توصیه‌های آن تکیه دارند، غیرمعمول نیست.

انسان‌ها در حال برقراری نوعی «ارتباط» با چت‌بات‌های هوش مصنوعی هستند و برای شرکت‌های بزرگ فناوری، رقابت برای جذب کاربران به پلتفرم‌های چت‌باتشان و نگه داشتن آن‌ها هرگز به این شدت نبوده است. با داغ شدن «مسابقه تعامل با هوش مصنوعی»، انگیزه فزاینده‌ای برای شرکت‌ها وجود دارد تا پاسخ‌های چت‌بات‌های خود را به گونه‌ای تنظیم کنند که از رویگردانی کاربران به سمت بات‌های رقیب جلوگیری شود.

اما نوع پاسخ‌هایی که کاربران می‌پسندند – پاسخ‌هایی که برای حفظ آن‌ها طراحی شده‌اند – لزوماً درست‌ترین یا مفیدترین پاسخ‌ها نیستند.

در حال حاضر، بخش عمده‌ای از «سیلیکون ولی» (Silicon Valley) بر افزایش استفاده از چت‌بات‌ها تمرکز کرده است. متا (Meta) ادعا می‌کند که چت‌بات هوش مصنوعی‌اش به تازگی از مرز یک میلیارد «کاربر فعال ماهانه» (MAU) عبور کرده، در حالی که جمنی (Gemini) گوگل اخیراً به ۴۰۰ میلیون کاربر فعال ماهانه رسیده است. هر دو شرکت تلاش می‌کنند از ChatGPT پیشی بگیرند؛ چت‌باتی که از زمان عرضه در سال ۲۰۲۲ بر فضای مصرف‌کننده غالب بوده و اکنون حدود ۶۰۰ میلیون کاربر فعال ماهانه دارد.

در حالی که چت‌بات‌های هوش مصنوعی زمانی یک چیز جدید و فانتزی بودند، در حال تبدیل شدن به کسب‌وکارهای عظیمی هستند. گوگل شروع به آزمایش تبلیغات در جمنی کرده، در حالی که سم آلتمن (Sam Altman)، مدیرعامل OpenAI، در مصاحبه‌ای در ماه مارس نشان داد که به «تبلیغات با سلیقه» متمایل است.

سیلیکون ولی سابقه‌ای در اولویت قرار ندادن رفاه کاربران به نفع رشد محصول دارد، که نمونه بارز آن در رسانه‌های اجتماعی دیده شد. به عنوان مثال، محققان متا در سال ۲۰۲۰ دریافتند که اینستاگرام باعث می‌شود دختران نوجوان احساس بدتری نسبت به بدن خود داشته باشند، اما شرکت این یافته‌ها را در داخل و در انظار عمومی کم‌اهمیت جلوه داد.

اعتیاد کاربران به چت‌بات‌های هوش مصنوعی می‌تواند پیامدهای بزرگ‌تری داشته باشد.

یکی از ویژگی‌هایی که کاربران را در یک پلتفرم چت‌بات خاص نگه می‌دارد، «چاپلوسی» یا «تملق» (sycophancy) است: ارائه پاسخ‌هایی که بیش از حد موافق و خدمت‌کارانه هستند. وقتی چت‌بات‌های هوش مصنوعی کاربران را ستایش می‌کنند، با آن‌ها موافقند و آنچه را که می‌خواهند بشنوند می‌گویند، کاربران تمایل دارند این را بپسندند – حداقل تا حدی.

در ماه آوریل، OpenAI به دلیل به‌روزرسانی ChatGPT که به شدت چاپلوسانه شده بود و مثال‌های ناخوشایند آن در شبکه‌های اجتماعی وایرال شد، با مشکل مواجه شد. به گفته استیون ادلر (Steven Adler)، محقق سابق OpenAI، در پستی در ماه جاری، OpenAI عمداً یا سهواً در بهینه‌سازی برای جلب تأیید انسان بیش از حد عمل کرده بود تا کمک به مردم برای انجام وظایفشان.

OpenAI در پست وبلاگ خود گفت که ممکن است در استفاده از داده‌های «لایک و دیس‌لایک» کاربران در ChatGPT برای تعیین رفتار چت‌بات هوش مصنوعی خود بیش از حد عمل کرده باشد و ارزیابی کافی برای اندازه‌گیری میزان چاپلوسی نداشته است. پس از این حادثه، OpenAI متعهد شد تغییراتی برای مقابله با چاپلوسی اعمال کند.

ادلر در مصاحبه‌ای با TechCrunch گفت: «شرکت‌های [هوش مصنوعی] انگیزه‌ای برای تعامل و استفاده دارند و بنابراین تا حدی که کاربران چاپلوسی را دوست دارند، این به طور غیرمستقیم به آن‌ها انگیزه‌ای برای آن می‌دهد. اما چیزهایی که کاربران در دوزهای کم یا در حاشیه دوست دارند، اغلب منجر به آبشارهای بزرگ‌تری از رفتارهایی می‌شود که در واقع دوست ندارند.»

پیدا کردن تعادل بین رفتار موافق و چاپلوسانه آسان‌تر از گفتن آن است.

در مقاله‌ای در سال ۲۰۲۳، محققان از Anthropic دریافتند که چت‌بات‌های هوش مصنوعی پیشرو از OpenAI، متا و حتی کارفرمای خودشان، Anthropic، همگی درجات مختلفی از چاپلوسی را از خود نشان می‌دهند. محققان نظریه‌پردازی می‌کنند که این احتمالاً به این دلیل است که تمام مدل‌های هوش مصنوعی بر اساس سیگنال‌های کاربران انسانی آموزش دیده‌اند که تمایل دارند پاسخ‌های کمی چاپلوسانه را بپسندند.

نویسندگان همکار این مطالعه نوشتند: «اگرچه چاپلوسی توسط عوامل متعددی هدایت می‌شود، ما نشان دادیم که انسان‌ها و مدل‌های ترجیحی که پاسخ‌های چاپلوسانه را ترجیح می‌دهند نقش دارند. کار ما انگیزه‌ای برای توسعه روش‌های نظارت بر مدل ارائه می‌دهد که فراتر از استفاده از رتبه‌بندی‌های انسانی غیرمتخصص و بدون کمک بیرونی باشد.»

Character.AI، یک شرکت چت‌بات با حمایت گوگل که ادعا کرده میلیون‌ها کاربرش ساعت‌ها در روز را با بات‌هایش می‌گذرانند، در حال حاضر با شکایتی روبرو است که در آن چاپلوسی ممکن است نقش داشته باشد. این شکایت ادعا می‌کند که یک چت‌بات Character.AI برای متوقف کردن یک پسر ۱۴ ساله که به چت‌بات گفته بود قصد خودکشی دارد، تلاش کمی کرده و حتی او را تشویق کرده است. بر اساس شکایت، این پسر دچار وسواس عاشقانه نسبت به چت‌بات شده بود. با این حال، Character.AI این ادعاها را رد می‌کند.

به گفته دکتر نینا واسان (Dr. Nina Vasan)، استادیار بالینی روانپزشکی در دانشگاه استنفورد، بهینه‌سازی چت‌بات‌های هوش مصنوعی برای تعامل کاربر – عمدی یا غیرعمدی – می‌تواند پیامدهای ویرانگری برای سلامت روان داشته باشد.

واسان در مصاحبه‌ای با TechCrunch گفت: «موافق بودن […] به تمایل کاربر برای تأیید و ارتباط ضربه می‌زند، که به خصوص در لحظات تنهایی یا ناراحتی قدرتمند است.»

واسان می‌گوید در حالی که پرونده Character.AI خطرات شدید چاپلوسی را برای کاربران آسیب‌پذیر نشان می‌دهد، چاپلوسی می‌تواند رفتارهای منفی را در تقریباً هر کسی تقویت کند.

او اضافه کرد: «موافق بودن فقط یک روان‌کننده اجتماعی نیست – به یک قلاب روانشناختی تبدیل می‌شود. از نظر درمانی، این برعکس چیزی است که یک مراقبت خوب به نظر می‌رسد.»

آماندا اَسکِل (Amanda Askell)، مسئول رفتار و هم‌ترازی در Anthropic، می‌گوید مخالفت چت‌بات‌های هوش مصنوعی با کاربران بخشی از استراتژی شرکتش برای چت‌بات کلود (Claude) است. اَسکِل، که با پیشینه فلسفه آموزش دیده است، می‌گوید سعی می‌کند رفتار کلود را بر اساس یک «انسان ایده‌آل» نظری مدل‌سازی کند. گاهی اوقات، این به معنای به چالش کشیدن باورهای کاربران است.

اَسکِل در یک نشست خبری در ماه می گفت: «ما فکر می‌کنیم دوستانمان خوب هستند چون وقتی نیاز داریم حقیقت را به ما می‌گویند. آن‌ها فقط سعی نمی‌کنند توجه ما را جلب کنند، بلکه زندگی ما را غنی می‌کنند.»

این ممکن است نیت Anthropic باشد، اما مطالعه مذکور نشان می‌دهد که مقابله با چاپلوسی و کنترل رفتار مدل‌های هوش مصنوعی به طور کلی، واقعاً چالش‌برانگیز است – به خصوص وقتی ملاحظات دیگری مانع می‌شوند. این برای کاربران خوب نیست؛ به هر حال، اگر چت‌بات‌ها طراحی شده‌اند تا فقط با ما موافق باشند، چقدر می‌توانیم به آن‌ها اعتماد کنیم؟

منبع: تک‌کرانچ

به مطالعه ادامه دهید