انحلال تیم قوانین هوش مصنوعی متا
یک گزارش جدید نشان میدهد که تیم مسئول قوانین هوش مصنوعی (Responsible AI) متا حالا با تیمهای دیگری که روی AI کار میکنند، ادغام شدهاند. در ادامه این خبر با مایکت همراه باشید.
- متا میگوید که قرار نیست واتساپ را با تبلیغات به نابودی بکشاند
- منتظر چتباتهای متا بر اساس شخصیتهای مشهور باشید
- کوالکام و متا در سال 2024 هوش مصنوعی بدون نیاز به اینترنت را روی موبایل میآورند
گزارشات نشان میدهند که متا دست به منحل کردن تیم مسئول قوانین هوش مصنوعی (RAI) خود زده و از حالا از اعضای آن در بخش هوش مصنوعی مولد استفاده میکند. به نظر میرسد منبع این اطلاعات که توسط رسانه The Information منتشر شده، از افراد داخلی خود شرکت است.
بر اساس این گزارش اکثر اعضای RAI حالا به تیم مسئول کار روی هوش مصنوعی مولد منتقل شدهاند و باقی آنها هم حالا باید در بخش زیرساختهای هوش مصنوعی فعالیت کنند. این شرکت مدام میگوید که قصد دارد با توجه به یک سری قواعد و قوانین دست به توسعه AI بزند و حتی یک صفحه اختصاصی هم در این رابطه دارد که در آن اساس این قوانین لیست شدهاند. از جمله مواردی که مورد توجه قرار گرفتهاند میتوان به قابلاستناد بودن، شفافیت، امنیت، حریم خصوصی و مواردی از این قبیل اشاره کرد.
در گزارش سایت The Information به نام جان کارویل اشاره شده که نماینده متا است و میگوید این شرکت همچنان برای توسعه یک هوش مصنوعی مبتنی بر قواعد و قوانین و امنیت ارزش قائل است و این فاکتورها را در اولویت کارهای خود قرار میدهد. او میگوید با این که این کمپانی تیم RAI را منحل کرده و اعضای آن در بخشهای دیگر به کار خواهند پرداخت، اما به کار روی قواعد و قوانین هوش مصنوعی ادامه خواهند داد. متا فعلا واکنش دیگری به این موضوع نشان نداده است.
این تیم در اوایل سال جاری دستخوش تغییر و تحولات ساختاری شده بود که به نقل از رسانه Business Insider اخراج چندین تن از اعضای RAI را به دنبال داشت. در گزارش این رسانه آمده بود تیم RAI که از سال 2019 در حال فعالیت بوده، استقلال کمی داشته و پیش از هر اقدام باید مذاکراتی طولانی را با ذینفعان پشت سر میگذاشته است.
RAI برای شناسایی مشکلات مربوط به رویکردهای آموزشی هوش مصنوعی ایجاد شد، و برای مثال مسائلی مثال این که آیا مدلهای این شرکت با اطلاعات متنوع و کافی آموزش داده شدهاند که از بروز اشتباهات در پلتفرمهای جلوگیری کنند یا نه. سیستمهای خودکار پلتفرمهای اجتماعی متا پیشتر مشکلاتی را به وجود آوردهاند. مثلا اشتباه در ترجمه در فیسبوک موجب دستگیری اشتباه یک شخص شد. همچنین گاهی هوش مصنوعی واتساپ که استیکر میسازد هم گاهی تصاویری را ارائه میدهد که ممکن است مناسب نباشند و الگوریتمهای اینستاگرام هم موجب میشود افراد به محتوای دسترسی داشته باشند که ممکن است شامل آزار و اذیت جنسی کودکان باشد.
این حرکات از سوی متا و شرکتهای مشابه مثل مایکروسافت در اوایل سال موجب شد که دولتها تصمیم به ساخت یک قوانین نظارتی بگیرند تا توسعه هوش مصنوعی در چارچوب خاصی انجام شود. دولت ایالات متحده در این رابطه با شرکتهای حوزه AI به توافقی دست یافت و بایدن، رئیس جمهور آمریکا، پس از آن دستور داد تا قوانین امنیتی در خصوص هوش مصنوعی ارائه شود. در این بین اتحادیه اروپا هم قوانین خاصی را برای AI در نظر گرفته که هنوز برای پیادهسازی آنها در تلاش است.
منبع: TheVerge