
Image Credits:simplehappyart / Getty Images
بر اساس مطالعه جدید: مردم در دریافت مشاوره سلامت مفید از چتباتها مشکل دارند
یک مطالعه اخیر به رهبری آکسفورد نشان میدهد که مردم اغلب در دریافت مشاوره سلامت مفید و دقیق از چتباتهای هوش مصنوعی مانند ChatGPT با چالش مواجه هستند.
۱۴۰۴/۰۲/۱۵
مطالعه جدیدی نشان میدهد که مردم در دریافت مشاوره سلامت مفید از چتباتها مشکل دارند و استفاده از آنها میتواند منجر به تصمیمات نادرست یا دستکم گرفتن شدت بیماری شود.
بر اساس یک مطالعه اخیر به رهبری دانشگاه آکسفورد، بسیاری از مردم در دریافت مشاوره سلامت مفید از چتباتهای هوش مصنوعی (AI-powered chatbots) مانند ChatGPT با مشکل مواجه هستند.
در حالی که لیستهای انتظار طولانی و هزینههای رو به افزایش در سیستمهای درمانی پربار، بسیاری از افراد را به سمت استفاده از چتباتهای هوش مصنوعی برای تشخیص خودکار پزشکی سوق داده است، این مطالعه نشان میدهد که اتکای بیش از حد به خروجی این چتباتها میتواند خطرناک باشد. بخشی از این مشکل به این دلیل است که مردم در ارائه اطلاعات لازم به چتباتها برای دریافت بهترین توصیههای سلامتی، دچار مشکل هستند.
آدام مهدی، مدیر مطالعات تکمیلی در موسسه اینترنت آکسفورد و یکی از نویسندگان این مطالعه، اظهار داشت: «این مطالعه یک نقص ارتباطی دوطرفه را آشکار کرد. کسانی که از [چتباتها] استفاده میکردند، تصمیمات بهتری نسبت به شرکتکنندگانی که به روشهای سنتی مانند جستجوهای آنلاین یا قضاوت خود تکیه داشتند، نگرفتند.»
در این مطالعه، حدود ۱۳۰۰ نفر در بریتانیا شرکت کردند و سناریوهای پزشکی نوشته شده توسط گروهی از پزشکان به آنها داده شد. وظیفه شرکتکنندگان شناسایی بیماریهای احتمالی در سناریوها و استفاده از چتباتها، همراه با روشهای خودشان، برای تعیین اقدامات ممکن (مانند مراجعه به پزشک یا رفتن به بیمارستان) بود.
شرکتکنندگان از مدلهای هوش مصنوعی پیشفرض از جمله GPT-4o (مورد استفاده ChatGPT)، Command R+ از Cohere و Llama 3 از Meta استفاده کردند. به گفته نویسندگان مطالعه، چتباتها نه تنها احتمال شناسایی یک بیماری مرتبط را توسط شرکتکنندگان کاهش دادند، بلکه باعث شدند آنها شدت بیماریهایی که شناسایی کردند را نیز دستکم بگیرند.
مهدی افزود که شرکتکنندگان اغلب هنگام پرس و جو از چتباتها جزئیات کلیدی را حذف میکردند یا پاسخهایی دریافت میکردند که تفسیر آنها دشوار بود. او همچنین اشاره کرد که «پاسخهایی که آنها [از چتباتها] دریافت میکردند، اغلب توصیههای خوب و بد را با هم ترکیب میکردند.» به گفته او، «روشهای ارزیابی فعلی برای [چتباتها] پیچیدگی تعامل با کاربران انسانی را منعکس نمیکنند.»
این یافتهها در زمانی منتشر میشود که شرکتهای فناوری به طور فزایندهای هوش مصنوعی را به عنوان راهی برای بهبود نتایج سلامتی معرفی میکنند. به عنوان مثال، گفته میشود اپل در حال توسعه یک ابزار هوش مصنوعی برای ارائه مشاوره مرتبط با ورزش، رژیم غذایی و خواب است. آمازون در حال بررسی روشی مبتنی بر هوش مصنوعی برای تحلیل پایگاههای داده پزشکی و مایکروسافت در حال کمک به ساخت هوش مصنوعی برای اولویتبندی پیامهای بیماران به ارائهدهندگان مراقبت است.
با این حال، همانطور که TechCrunch قبلا گزارش داده است، هم متخصصان و هم بیماران نظرات متفاوتی درباره آمادگی هوش مصنوعی برای کاربردهای درمانی با ریسک بالا دارند. انجمن پزشکی آمریکا (American Medical Association) استفاده پزشکان از چتباتهایی مانند ChatGPT را برای کمک به تصمیمات بالینی توصیه نمیکند و شرکتهای بزرگ هوش مصنوعی از جمله OpenAI درباره تشخیص بیماری بر اساس خروجی چتباتهایشان هشدار میدهند.
مهدی توصیه کرد که «برای تصمیمات مراقبتهای بهداشتی، به منابع اطلاعاتی قابل اعتماد تکیه کنید.» او تاکید کرد: «مانند آزمایشهای بالینی برای داروهای جدید، سیستمهای [چتبات] باید قبل از استقرار در دنیای واقعی آزمایش شوند.»
منبع: تککرانچ