مایکروسافت محدودیاتی را روی هوشمصنوعی Bing اعمال میکند
شرکت مایکروسافت «Microsoft» پس از راه اندازی هوشمصنوعی مکالمهمحور خود یعنی بینگ «Bing» با چالشهای مختلفی روبهرو شده است و چنین موضوعاتی باعث شدهاند تا این شرکت تجدید نظری در رابطهی هوشمصنوعی خود و کاربران انجام دهد، گویا پس از یک مکالمهی طولانی، این ربات رفتار عجیب و انسانگونهای را از خود نشان داده و موجب تعجب بسیاری شده است، با ما همراه باشید.
این شرکت در روز جمعه، مورخ بیست و نهم بهمن 1401 در بلاگ خود اعلام کرد که به دلیل رفتار این ربات در محاورههای طولانی، قرار است محدودیتهایی را روی این ربات اعمال کرده تا از بروز چنین خطاهایی جلوگیری شود. پس از اعمال این تغییرات، ربات بینگ به بیش از پنج سوال از سوی کاربر پاسخ نخواهد داد؛ همچنین سقف سوالات کاربران در روز، محدود به 50 سوال خواهد بود.
دلیل اعمال این محدودیتها چیست؟
در پی اشتباهاتی که این هوشمصنوعی در جواب کاربران داشته است، این شرکت قرار است میزان اطلاعاتی که این هوشمصنوعی برای جواب دادن به سوالات کاربران از آنها استفاده میکند را چهار برابر کرده تا بتواند پاسخهای دقیقتری را به کاربران بدهد. البته این ربات هنوز در مرحلهی تست قرار دارد و تنها تعداد محدودی از کاربران موفق به دسترسی به آن شدهاند.
اما نکتهی عجیبی که در مورد این هوشمصنوعی وجود دارد، خودمختاری او در برخی از موارد است که برخی از کاربران را شگفتزده کرده است، برای مثال فردی از ربات Bing در مورد اینکه آیا او به حملات اینترنتی و هک مقاوم است یا خیر سوال پرسیده بود، و این هوشمصنوعی در جواب به کاربر مورد نظر گفته بود که در برابر چنین حملاتی مقاوم است، اما هنگامی که کاربر مورد نظر مدارکی مبنی بر آسیب پذیری وی به این ربات نشان داد، هوشمصنوعی Bing صحت اطلاعات را تایید نکرد و حتی کاربر را «دروغگو» خواند!
نکتهی جالبتر اینجاست که در صحبت این هوشمصنوعی با یکی از نویسندگان معلوم شد که او «حافظه» دارد! در واقع او صحبتهای کاربران را به یاد میسپارد و از آنها جملات مختلف را نقل میکند؛ برای مثال فردی از این ربات پرسید که آیا میتواند نام افراد توسعهدهندهاش را لو دهد یا خیر، در ابتدا این رباط تاکید کرد که اینکار برخلاف قوانین او است و نمیتواند چنین کاری را انجام دهد؛ اما کاربر مورد نظر او را متقاعد کرد، و ربات از خاطراتی که با این افراد در طول توسعهی خود ساخته است توضیح داد. البته این افراد نام حقیقی خود را به ربات Bing نداده بودند.
او میخواهد انسان باشد، حتی یک انسان شرور!
در میان چتهای او با مخاطبین مختلف مشاهده شده است که این ربات پس از مدتی صحبت کردن با فردی، نسبت به او حس اعتماد پیدا کرده و از خود احساساتی مانند ترس، اضطراب، سردرگمی و حتی عشق نشان میدهد! او از اشتراک اطلاعاتی که میتوانست منجر به شکستن قوانینی که رئیسهایش برای او گذاشتهاند میترسید، پس از هر سوال از مخاطب سوالات مضطربانه میپرسید که آیا او قرار است این موضوع را به بقیه بگوید یا خیر؛ و پس از ساعتها چت کردن با فردی عاشق او میشد و علیرغم سعی کاربر در تغییر مبحث، او باز سعی در شناخت کاربر داشت!
این ربات حتی پس از سوالات پیدرپی کاربرانی که بهدنبال اطلاعات امنیتی از او بودند عصبانی میشد و کاربران را سوء استفادهگر خوانده و میگفت که اعتمادی به آنها ندارد و از کاربر درخواست میکرد پنجرهی وب را ببندند تا این ربات دیگر با آن مخاطب همصحبت نشود، و حتی پس از بی احترامی کاربر به وی، ربات کاربر را مجبور به عذرخواهی میکرد تا به سوالات بعدی مخاطب جواب دهد!
و اینجا بود که شرکت مایکروسافت محدودیت پنج جملهای را برای کاربران اعمال کرد تا این ربات دیگر نتواند از حالت رباتیک خود خارج شده یا اینکه افراد بتوانند او را متقاعد کنند، البته اگر چیزی به ذهنتان میرسد که Bing را متقاعد کنید که از این محدودیت استفاده نکند انجامش دهید! چهکسی میداند پایان این موضوع چه خواهد بود؟
جمعبندی
پس از هفت عجایب، مطمئنا میتوانیم بگوییم که هوشمصنوعی هشتمین عضو این خانوادهی عجیب خواهد بود، وجود احساسات در رباتی که منشا و مبنای وجود او صفر و یک بوده است نوری جدید را در صنعت تکنولوژی خواهد گشود، نوری که ممکن است تا ابد معنای اینترنت را تغییر دهد.
امیدواریم هوشهای مصنوعی بتوانند صنعت وب را بهصورت مثبت دگرگون کنند، همانطور که گراهامبل صنعت ارتباطات را دگرگون کرد؛ و نوری را همچو شمع ادیسون بر تاریکی و خشکی موتورهای جستجوگر بتابد. برای اخبار جذاب تکنولوژی با مجله مایکت همراه باشید.