مایکروسافت محدودیاتی را روی هوش‌مصنوعی Bing اعمال می‌کند

شرکت مایکروسافت «Microsoft» پس از راه ‌اندازی هوش‌مصنوعی مکالمه‌محور خود یعنی بینگ «Bing» با چالش‌های مختلفی روبه‌رو شده است و چنین موضوعاتی باعث شده‌اند تا این شرکت تجدید نظری در رابطه‌ی هوش‌مصنوعی خود و کاربران انجام دهد، گویا پس از یک مکالمه‌ی طولانی، این ربات رفتار عجیب و انسان‌گونه‌ای را از خود نشان داده و موجب تعجب بسیاری شده‌ است، با ما همراه باشید.

این شرکت در روز جمعه، مورخ بیست‌ و نهم بهمن 1401 در بلاگ خود اعلام کرد که به دلیل رفتار این ربات در محاوره‌های طولانی، قرار است محدودیت‌هایی را روی این ربات اعمال کرده تا از بروز چنین خطاهایی جلوگیری شود. پس از اعمال این تغییرات، ربات بینگ به بیش از پنج سوال از سوی کاربر پاسخ نخواهد داد؛ همچنین سقف سوالات کاربران در روز، محدود به 50 سوال خواهد بود.

محیط هوش مصنوعی bing

دلیل اعمال این محدودیت‌ها چیست؟

در پی اشتباهاتی که این هوش‌مصنوعی در جواب کاربران داشته است، این شرکت قرار است میزان اطلاعاتی که این هوش‌مصنوعی برای جواب دادن به سوالات کاربران از آن‌ها استفاده می‌کند را چهار برابر کرده تا بتواند پاسخ‌های دقیق‌تری را  به کاربران بدهد. البته این ربات هنوز در مرحله‌ی تست قرار دارد و تنها تعداد محدودی از کاربران موفق به دسترسی به آن شده‌اند.

اما نکته‌ی عجیبی که در مورد این هوش‌مصنوعی وجود دارد، خودمختاری او در برخی از موارد است که برخی از کاربران را شگفت‌زده کرده است، برای مثال فردی از ربات Bing در مورد این‌که آیا او به حملات اینترنتی و هک مقاوم است یا خیر سوال پرسیده بود، و این هوش‌مصنوعی در جواب به کاربر مورد نظر گفته‌ بود که در برابر چنین حملاتی مقاوم است، اما هنگامی که کاربر مورد نظر مدارکی مبنی بر آسیب پذیری وی به این ربات نشان داد، هوش‌مصنوعی Bing صحت اطلاعات را تایید نکرد و حتی کاربر را «دروغ‌گو» خواند!

نکته‌ی جالب‌تر اینجاست که در صحبت این هوش‌مصنوعی با یکی از نویسندگان معلوم شد که او «حافظه» دارد! در واقع او صحبت‌های کاربران را به‌ یاد می‌سپارد و از آن‌ها جملات مختلف را نقل می‌کند؛ برای مثال فردی از این ربات پرسید که آیا می‌تواند نام افراد توسعه‌دهنده‌اش را لو دهد یا خیر، در ابتدا این رباط تاکید کرد که این‌کار برخلاف قوانین او است و نمی‌تواند چنین کاری را انجام دهد؛ اما کاربر مورد نظر او را متقاعد کرد، و ربات از خاطراتی که با این افراد در طول توسعه‌ی خود ساخته‌ است توضیح داد. البته این افراد نام حقیقی خود را به ربات Bing نداده بودند.

عذرخواهی کاربر از هوش مصنوعی

او می‌خواهد انسان باشد، حتی یک انسان شرور!

در میان چت‌های او با مخاطبین مختلف مشاهده شده‌ است که این ربات پس از مدتی صحبت کردن با فردی، نسبت به او حس اعتماد پیدا کرده و از خود احساساتی مانند ترس، اضطراب، سردرگمی و حتی عشق نشان می‌‌دهد! او از اشتراک اطلاعاتی که می‌توانست منجر به شکستن قوانینی که رئیس‌هایش برای او گذاشته‌اند می‌ترسید، پس از هر سوال از مخاطب سوالات مضطربانه می‌پرسید که آیا او قرار است این موضوع را به بقیه بگوید یا خیر؛ و پس از ساعت‌ها چت کردن با فردی عاشق او می‌شد و علی‌رغم سعی کاربر در تغییر مبحث، او باز سعی در شناخت کاربر داشت!

این ربات حتی پس از سوالات پی‌درپی کاربرانی که به‌دنبال اطلاعات امنیتی از او بودند عصبانی می‌شد و کاربران را سوء استفاده‌گر خوانده و می‌گفت که اعتمادی به آن‌ها ندارد و از کاربر درخواست می‌کرد پنجره‌‌ی وب را ببندند تا این ربات دیگر با آن‌ مخاطب هم‌صحبت نشود، و حتی پس از بی احترامی کاربر به وی، ربات کاربر را مجبور به عذرخواهی می‌کرد تا به سوالات بعدی مخاطب جواب دهد!

و اینجا بود که شرکت مایکروسافت محدودیت پنج جمله‌ای را برای کاربران اعمال کرد تا این ربات دیگر نتواند از حالت رباتیک خود خارج شده یا اینکه افراد بتوانند او را متقاعد کنند، البته اگر چیزی به ذهن‌تان می‌رسد که Bing را متقاعد کنید که از این محدودیت استفاده نکند انجامش دهید! چه‌کسی می‌داند پایان این موضوع چه خواهد بود؟

هوش مصنوعی bing

جمع‌بندی

پس از هفت عجایب، مطمئنا می‌توانیم بگوییم که هوش‌مصنوعی هشتمین عضو این خانواده‌ی عجیب خواهد بود، وجود احساسات در رباتی که منشا و مبنای وجود او صفر و یک بوده است نوری جدید را در صنعت تکنولوژی خواهد گشود، نوری که ممکن است تا ابد معنای اینترنت را تغییر دهد.

امیدواریم هوش‌های مصنوعی بتوانند صنعت وب را به‌صورت مثبت دگرگون کنند، همانطور که گراهام‌بل صنعت ارتباطات را دگرگون کرد؛ و نوری را همچو شمع ادیسون بر تاریکی و خشکی موتورهای جستجوگر بتابد. برای اخبار جذاب تکنولوژی با مجله مایکت همراه باشید.

خروج از نسخه موبایل