انحلال تیم قوانین هوش مصنوعی‌ متا

یک گزارش جدید نشان می‌دهد که تیم مسئول قوانین هوش مصنوعی (Responsible AI) متا حالا با تیم‌های دیگری که روی AI کار می‌کنند، ادغام شده‌اند. در ادامه این خبر با مایکت همراه باشید.

گزارشات نشان می‌دهند که متا دست به منحل کردن تیم مسئول قوانین هوش مصنوعی (RAI) خود زده و از حالا از اعضای آن در بخش هوش مصنوعی مولد استفاده می‌کند. به نظر می‌رسد منبع این اطلاعات که توسط رسانه The Information منتشر شده، از افراد داخلی خود شرکت است.

بر اساس این گزارش اکثر اعضای RAI حالا به تیم مسئول کار روی هوش مصنوعی مولد منتقل شده‌اند و باقی آن‌ها هم حالا باید در بخش زیرساخت‌های هوش مصنوعی فعالیت کنند. این شرکت مدام می‌گوید که قصد دارد با توجه به یک سری قواعد و قوانین دست به توسعه AI بزند و حتی یک صفحه اختصاصی هم در این رابطه دارد که در آن اساس این قوانین لیست شده‌اند. از جمله مواردی که مورد توجه قرار گرفته‌اند می‌توان به قابل‌استناد بودن، شفافیت، امنیت، حریم خصوصی و مواردی از این قبیل اشاره کرد.

در گزارش سایت The Information به نام جان کارویل اشاره شده که نماینده متا است و می‌گوید این شرکت همچنان برای توسعه یک هوش مصنوعی مبتنی بر قواعد و قوانین و امنیت ارزش قائل است و این فاکتورها را در اولویت کارهای خود قرار می‌دهد. او می‌گوید با این که این کمپانی تیم RAI را منحل کرده و اعضای آن در بخش‌های دیگر به کار خواهند پرداخت، اما به کار روی قواعد و قوانین هوش مصنوعی ادامه خواهند داد. متا فعلا واکنش دیگری به این موضوع نشان نداده است.

متا تیم مسئول قوانین هوش مصنوعی خود را منحل کرد

این تیم در اوایل سال جاری دست‌خوش تغییر و تحولات ساختاری شده بود که به نقل از رسانه Business Insider اخراج چندین تن از اعضای RAI را به دنبال داشت. در گزارش این رسانه آمده بود تیم RAI که از سال 2019 در حال فعالیت بوده، استقلال کمی داشته و پیش از هر اقدام باید مذاکراتی طولانی را با ذینفعان پشت سر می‌گذاشته است.

RAI برای شناسایی مشکلات مربوط به رویکردهای آموزشی هوش مصنوعی ایجاد شد، و برای مثال مسائلی مثال این که آیا مدل‌های این شرکت با اطلاعات متنوع و کافی آموزش داده شده‌اند که از بروز اشتباهات در پلتفرم‌های جلوگیری کنند یا نه. سیستم‌های خودکار پلتفرم‌های اجتماعی متا پیش‌تر مشکلاتی را به وجود آورده‌اند. مثلا اشتباه در ترجمه در فیسبوک موجب دستگیری اشتباه یک شخص شد. همچنین گاهی هوش مصنوعی واتساپ که استیکر می‌سازد هم گاهی تصاویری را ارائه می‌دهد که ممکن است مناسب نباشند و الگوریتم‌های اینستاگرام هم موجب می‌شود افراد به محتوای دسترسی داشته باشند که ممکن است شامل آزار و اذیت جنسی کودکان باشد.

این حرکات از سوی متا و شرکت‌های مشابه مثل مایکروسافت در اوایل سال موجب شد که دولت‌ها تصمیم به ساخت یک قوانین نظارتی بگیرند تا توسعه هوش مصنوعی در چارچوب خاصی انجام شود. دولت ایالات متحده در این رابطه با شرکت‌های حوزه AI به توافقی دست یافت و بایدن، رئیس جمهور آمریکا، پس از آن دستور داد تا قوانین امنیتی در خصوص هوش مصنوعی ارائه شود. در این بین اتحادیه اروپا هم قوانین خاصی را برای AI در نظر گرفته که هنوز برای پیاده‌سازی آن‌ها در تلاش است.

آیکون سریال عصر هوش‌مصنوعی The Age of A.I.
سریال

عصر هوش‌مصنوعی

The Age of A.I.

تماشای سریال عصر هوش‌مصنوعی

منبع: TheVerge

خروج از نسخه موبایل