هوش مصنوعی ChatGPT شاید به سرعت توجهات را جلب کرده باشد، اما تحقیقات جدید نشان میدهند که نباید به این زودیها انتظار داشته باشیم از آن در برخی از حوزهها استفاده شود. در ادامه این خبر با مایکت همراه باشید.
- اپلیکیشن ChatGPT برای اندروید منتشر شد
- ChatGPT خطرناک میشود؛ WormGPT بدون محدودیتهای اخلاقی
- ChatGPT چیست ؟ | شروع عصر چت جی پی تی + مثال
محققان بیمارستان زنان و بریگهام (یکی از بیمارستانهای آموزشی دانشگاه پزشکی هاروارد در شهر بوستون، ایالت ماساچوست) در تحقیقات جدیدشان به این نتیجه رسیدهاند که راهکارهای درمانی مربوط به سرطان که توسط چتبات انقلابی OpenAI کاملا نادرست هستند.
بر اساس این مطالعات که توسط نشریه JAMA Oncology منتشر شده و اولین بار رسانه Bloomberg گزارشی در رابطه با آن ارائه داد، وقتی از ChatGPT خواسته شد در خصوص انواع مختلفی از کیسهای سرطان راهکارهای درمانی ارائه دهد، یک سوم پاسخهای این مدل زبان بزرگ حاوی اطلاعات نادرست بود.
علاوه بر این، در این تحقیقات نشان داده شده که چتجیپیتی معمولا اطلاعات درست و غلط را با هم ترکیب میکند و این موضوع موجب میشود تشخیص نادرست بودن پاسخها سخت شود و در نتیجه به این راحتیها نمیتوان گفت چه بخشی از پاسخ دقیق و صحیح است. بر اساس این مطالعات، از بین 104 پرسش، تقریبا 98 درصد از پاسخهای ChatGPT شامل حداقل یکی از راهکارهای پیشنهادی بود که با دستورالعملهای شبکه ملی جامع سرطان مطابقت داشت.
دکتر دانیل بیترمن، یکی از نویسندگان این مقاله، در گفتگو با رسانه Insider اشاره کرد که میزان درهمآمیختهبودن اطلاعات درست و غلط در حدی بوده که حتی تشخیص اطلاعات نادرست برای متخصصان هم راحت نبوده است.
او اضافه کرد: «مدلهای زبان بزرگ به شکلی طراحی شدهاند که پاسخهایشان متقاعدکننده به نظر برسد، اما آنها طوری طراحی نشدهاند که توصیههای پزشکی دقیقی ارائه دهند. نرخ خطا و غیرقابلاعتماد بودن پاسخها مشکلات اساسی در حوزه سلامتی هستند که باید در حوزه بالینی رفع شوند.»
ChatGPT
حجم:۲۲.۸ مگابایت
در نوامبر 2022 بود که چتجیبیتی یک شبه به یک پدیده جهانی تبدیل شد و در عرض دو ماه به 100 میلیون کاربر فعال دست پیدا کرد. این چتبات موجب شد شرکتهای زیادی به فکر سرمایهگذاری روی کمپانیهای هوش مصنوعی بیفتند و در نتیجه آغازی بود بر پروژههایی که در طولانی مدت قرار است شاهد نتیجهشان در حوزه AI باشیم. تحقیقات Goldman Sachs نشان میدهد که هوش مصنوعی میتواند روی 300 میلیون کار تاثیر بگذارد.
علیرغم موفقیتهای ChatGPT، مدلهای هوش مصنوعی مولد میتوانند هنوز هم پاسخهای نادرست ارائه دهند. در واقع گاهی این چتباتها با اطمینان کامل اطلاعاتی را ارائه میدهند که یا کاملا نادرست هستند یا به نحوی کاربر را به اشتباه میاندازند. برای مثال بد نیست به هوش مصنوعی گوگل (Google) که برای رقابت با چتجیپیتی طراحی شده بود اشاره کنیم؛ هوش مصنوعی Bard با ارائه یک پاسخ نادرست درباره پرسشی مربوط به تلسکوپ فضای جیمز وب موجب ریزش 120 میلیارد دلاری سهام این شرکت شد.
در حال حاضر تلاشهای زیادی صورت گرفته تا بتوان هوش مصنوعی را با مراقبتهای درمانی ترکیب کرد. در درجه اول هدف از این کار ساده کردن وظایف بخش اداری است. اوایل همین ماه بود که یک مطالعه گسترده نشان داد AI در امر غربالگری سرطان سینه میتواند عملکرد مناسبی داشته باشد و قادر خواهد بود کار رادیولوژیستها را تقریبا نصف کند.
یکی از دانشمندان علوم کامپیوتری در هاروارد هم اخیرا به این نتیجه رسیده که GPT-4، جدیدترین نسخه از مدل هوش مصنوعی چتجیپیتی، توانایی قبول شدن در آزمون مجوز پزشکی آمریکا را دارد. همچنین او اظهار کرده که تصمیمات بالینی این چتبات از برخی پزشکان هم بهتر است.
علیرغم این نتایج، مشکلات در دقت و صحت پاسخها در مدلهای هوش مصنوعی مولد مثل ChatGPT به این معنا است که به این زودیها احتمالا نمیتوان شاهد این باشیم که AI بتواند جای پزشکان را بگیرد.
مطالعات JAMA نشان میدهد که 12.5 درصد از پاسخهای ChatGPT نادرست بودهاند و وقتی از این چتبات راهکارهایی برای درمان موضعی بیماریهای پیشرفته یا ایمونوتراپی خواسته میشد، معمولا پاسخهای ارائه میشد که دارای اطلاعات غلط بود.
شرکت OpenAI میداند که ChatGPT ممکن است گاهی غیرقابل اطمینان باشد. در واقع خود این شرکت هشدار داده که مدل هوش مصنوعی آنها برای ارائه اطلاعات پزشکی طراحی نشده است. در نتیجه افراد نباید از آن برای تشخیص یا دریافت سرویسهای درمانی برای شرایط پزشکی حاد استفاده کنند.
منبع: BusinessInsider