چرا هوش مصنوعی به برنامه‌نویس و طراح نیاز دارد؟

امروزه، مسئولیت یک طراح در حفاظت از منافع و ارزش‌های کاربران، بیش از هر زمان دیگری اهمیت یافته است و در عصری زندگی می‌کنیم که ابزارهای هوش مصنوعی مانند ChatGPT و بسیاری دیگر، نه‌تنها محبوبیت گسترده‌ای یافته‌اند، بلکه به شکل فزاینده‌ای در حال دگرگون‌سازی نحوه تعامل کاربران با فناوری هستند؛ تا جایی که گاه این سیستم‌ها کنترل امور را از دست کاربران خارج می‌کنند.

هوش مصنوعی، با تکیه بر قابلیت یادگیری از داده‌ها و پیشرفت مستمر بدون نیاز به برنامه‌نویسی، در حوزه‌هایی همچون اتوماسیون وظایف، شناسایی الگوهای پنهان، بهبود تجربه کاربری، تولید محتوا و کمک به کاربران در تصمیم‌گیری، نقش پررنگی ایفا می‌کند. با این حال، رشد سریع و شتاب‌زده این فناوری‌های قدرتمند، چالش اساسی برای جامعه ایجاد کرده است؛ چرا که توان تطبیق و هم‌سویی با این تحولات نوظهور، به‌سختی امکان‌پذیر است و این شکاف فزاینده می‌تواند پیامدهای عمیقی در عرصه‌هایی چون اقتصاد، سلامت روان، فرهنگ و ساختارهای اجتماعی به‌دنبال داشته باشد.

ما طراحان باید مسئولیت خود را در این دنیای قابل پیش‌بینی بپذیریم، چرا که دست نامرئی ما، در حال دستکاری فرمان‌ها است. هلن آرمسترانگ

این نقل‌قول برگرفته از کتاب ارزشمند «کلان‌داده، طراحی کلان: چرا طراحان باید به هوش مصنوعی اهمیت دهند» نوشته‌ی هلن آرمسترانگ است؛ اثری که به بررسی نقطه‌ی تلاقی میان طراحی و هوش مصنوعی می‌پردازد و بر نقش کلیدی طراحان در شکل‌دهی تجربه‌های مبتنی بر هوش مصنوعی تأکید دارد. در جهان دیجیتالیِ امروز که به‌طور فزاینده‌ای پیش‌بینی‌پذیر شده است، طراحان نقشی حیاتی در تضمین اخلاق‌مداری، شفافیت و هم‌سویی راه‌حل‌های مبتنی بر هوش مصنوعی با ارزش‌های انسانی ایفا می‌کنند.

ما باید نسبت به سوگیری‌های بالقوه در داده‌ها، تاثیر آن بر حریم خصوصی کاربران و پیامدهای اجتماعی تصمیمات خود در زمینه طراحی، آگاه باشیم. با در اولویت قرار دادن مسئولیت‌پذیری و پاسخ‌گویی، طراحان می‌توانند نقشی مؤثر در شکل‌دهی آینده‌ای ایفا کنند که در آن، فناوری‌های مبتنی هوش مصنوعی نه‌تنها مکمل قابلیت‌های انسانی‌اند، بلکه کیفیت زندگی را نیز ارتقا می‌دهند.

این کتاب با نگاهی ژرف، به واکاوی مسائل بنیادین در تلاقی هوش مصنوعی و طراحی می‌پردازد و مجموعه‌ای از دیدگاه‌ها و مشارکت‌های متنوع از سوی طراحان، پژوهشگران و مدرسانی را گرد هم آورده است که در این نقطه‌ی برخورد فعالیت دارند. این اثر، منبع اصلی الهام و مبنای بسیاری از پرسش‌ها و مباحثی است که در این مقاله طرح شده‌اند؛ با این حال، به‌منظور ارائه‌ی نگاهی جامع‌تر، از منابع معتبر دیگری نیز بهره گرفته‌ شده که در نگارش این مقاله، تاثیر بسزایی گذاشته‌اند.

درون‌مایه‌ی محوری این کتاب و به تبع آن، این مقاله مایکت بر اهمیت مسئولیت‌پذیری طراحان در مسیر توسعه‌ی محصولات و خدمات مبتنی بر هوش مصنوعی، آن هم به شکل اخلاق مدارانه تأکید دارد. حوزه‌ی طراحی، به‌صورت ذاتی انسان‌محور است و تمرکز آن بر درک عمیق نیازها، رفتارها و خواسته‌های انسانی در دل بسترهای اجتماعی، فرهنگی و اقتصادی، مشاهده می‌شود. روان‌شناسی، پژوهش‌های تجربی و راهبردهای طراحی که در این فرآیند به کار گرفته می‌شوند، نقشی تعیین‌کننده‌ای را در شکل‌دهی سلامت جسمی، روانی و عاطفی انسان‌ها در سراسر جهان ایفا می‌کنند.

 آیا هوش مصنوعی انسان محور است؟

 آیا هوش مصنوعی انسان محور است؟

طراحی انسان‌محور، همانند رویکردهای مشارکتی و فراگیر،  نقشی کلیدی در تضمین عدالت در مدل‌های داده‌ای، کاهش سوگیری‌ها و تقویت شمول‌پذیری ایفا می‌کند. امروزه به‌طور گسترده پذیرفته شده است که طراحی انسان‌محور، طی دهه‌ی گذشته، به‌عنوان اصل راهنمای چارچوب‌ها و فرآیندهای طراحی در حوزه‌های گوناگون مطرح بوده است و بی‌تردید، این رویکرد در تعامل با فناوری‌های مرتبط به هوش مصنوعی نیز نباید مستثنا باشد. چنین دیدگاه‌هایی، به دلیل آگاه‌سازی تصمیم‌گیرندگان نسبت به پیامدهای بالقوه انسانی و کمک به پیش‌بینی نتایج ناخواسته، ارزش بالایی دارند. نمونه‌هایی چون «مؤسسه‌ی هوش مصنوعی انسان‌محور» در دانشگاه استنفورد و سرمایه‌گذاری‌های گسترده‌ی مؤسسه‌ی فناوری ماساچوست (MIT) در آموزش هوش مصنوعی، نشان‌دهنده‌ی تلاش جهان برای اولویت‌بخشی به نگرش‌های انسان‌محور در توسعه فناوری هستند.

بر اساس مقاله‌ای از سارا تَن، طراحی مبتنی بر رویکردهای انسان‌محور (Human-Centered Design) و با تمرکز بر تأثیرات انسانی هوش مصنوعی، نه‌تنها به هم‌راستاسازی میان ارزش‌های انسانی و الگوریتمی کمک می‌کند، بلکه با قراردادن اخلاق در مرکز پروژه‌ها، توسعه‌‌ای مسئولانه را رقم می‌زند. دفاع از نیازهای کاربران از طریق پژوهش‌های طراحی، این ظرفیت را دارد تا پیامدهای فناوری‌های مرتبط به هوش مصنوعی را در بسترهای واقعی زندگی، از جمله در تعامل با پویایی‌های اجتماعی و اقتصادی، مورد بررسی و ارزیابی قرار دهد.

با این‌حال، چنین رویکردی بدون چالش نیست و طراحانی که در این صنعت فعالیت می‌کنند، اغلب تحت فشار قرار دارند تا به‌سرعت خود را با جدیدترین روندهای فناورانه هم‌راستا کنند، بی‌آن‌که فرصت کافی برای تأمل، تحلیل و ارزیابی دقیق فراهم باشد. در بسیاری از موارد، از طراحان انتظار می‌رود تا از داده‌های رفتاری برای تأثیرگذاری بر تصمیم‌ها و انتخاب‌های کاربران بهره بگیرند، حتی اگر این مداخلات، سلامت و رفاه آن‌ها را در معرض خطر قرار دهد. افزون بر این، طراحان در محیط‌هایی با ریتم کاری بالا فعالیت می‌کنند که تحت سلطه‌ی ذهنیتی چون «سریع حرکت کن و چیزها را بشکن» قرار دارند؛ رویکردی که فرهنگ اولیه‌ی فیسبوک، آن را به‌طور گسترده ترویج داد. چنین فضاهایی، اتخاذ رویکردی سنجیده، مسئولانه و اخلاق‌محور را با دشواری‌های جدی مواجه می‌سازند. اما در برابر این فشارها، چگونه می‌توان از منافع واقعی مردم دفاع کرد؟

آیکون برنامه ChatGPT

ChatGPT

حجم:۴۱ مگابایت

دانلود برنامه ChatGPT

قابلیت های هوش مصنوعی که طراحان باید با آن‌‌ها آشنا باشند

قابلیت های هوش مصنوعی که طراحان باید با آن‌‌ها آشنا باشند

هدف اصلی این مقاله، تشویق طراحان برای مشارکت فعال‌تر در فرآیند توسعه‌ سیستم‌های هوش مصنوعی است؛ تا با همکاری آگاهانه و مسئولانه، این مسیر را به سمت راه‌حل‌هایی اخلاق‌مدارتر و انسان‌محورتر هدایت کنیم. تحقق این هدف، مستلزم بهره‌گیری از اصول تفکر طراحی (Design Thinking) به‌عنوان چارچوبی راهبردی است؛ چارچوبی که می‌تواند ما را در طراحی سیستم‌ها و دستورالعمل‌هایی یاری کند که نه‌تنها نیازهای کاربران را در مرکز توجه قرار می‌دهند، بلکه پیامدهای اجتماعی و فرهنگی فناوری را نیز به‌شکل جدی مدنظر قرار می‌دهند.

پاسخ دقیق به این‌که چگونه می‌توان به چنین آینده‌ای دست یافت، هنوز به‌طور کامل روشن نیست، زیرا این مسیر در حال شکل‌گیری است و همه‌ی ما بخشی از آن هستیم. برای کمک به پیشبرد این مسیر، در ادامه به معرفی برخی از کلیدی‌ترین توانمندی‌ها و قابلیت‌هایی خواهم پرداخت که در کتاب هلن آرمسترانگ مطرح شده‌اند و در آن‌ها، نقش فعال طراحان ضروری است. ما باید از تصمیماتی در حوزه طراحی پشتیبانی کنیم که نه‌تنها پاسخ‌گوی نیازهای کاربران باشند، بلکه با نگاهی اخلاق‌محور، به بافت‌های اجتماعی، فرهنگی و اقتصادی نیز احترام بگذارند. مسلماً مسیر ساده‌ای نخواهد بود؛ اما می‌توان گام‌های نخست را با همین عناصر بنیادی آغاز کرد.

تقویت قدرت پیشبینی

تقویت قدرت پیشبینی

پیش‌بینی، یکی از قابلیت‌های محوری در حوزه‌ی یادگیری ماشین است؛ شاخه‌ای از هوش مصنوعی که در آن الگوریتم‌ها با استفاده از داده‌ها آموزش می‌بینند تا بدون نیاز به برنامه‌نویسی صریح، به پیش‌بینی یا تصمیم‌گیری بپردازند. در مدل‌سازی پیش‌بینانه، هدف آن است که سیستم‌ها بتوانند رویدادها یا نتایج آینده را بر اساس الگوهای استخراج‌شده از داده‌های گذشته پیش‌بینی کنند؛ یا حتی رفتارهای کاربران را پیشاپیش تشخیص دهند و به آن واکنش نشان دهند.

به‌عنوان نمونه، می‌توان به قابلیت تکمیل خودکار جملات در سرویس Gmail اشاره کرد. این سیستم، با تحلیل رفتار نوشتاری کاربر در گذر زمان، سبک نگارش او را یاد می‌گیرد و به‌گونه‌ای عمل می‌کند که می‌تواند ادامه‌ی جملات را با دقت و حتی لحن مناسب پیشنهاد دهد. کاربردهای این قابلیت، محدود به حوزه‌ی ارتباطات نیست و در صنایع گوناگون، از پیش‌بینی قیمت سهام گرفته تا بهینه‌سازی زنجیره‌ی تأمین، پیش‌بینی شیوع بیماری‌ها، طراحی کمپین‌های بازاریابی هدفمند و ارائه‌ی تجربه‌های کاربری شخصی‌سازی‌شده، شاهد کاربرد گسترده از مدل‌های پیش‌بینانه هستیم.

هرچند این پیش‌بینی‌ها همواره از دقت صددرصدی برخوردار نیستند، اما ارزش بالقوه‌ی بالایی برای کسب‌وکارها ایجاد می‌کنند. با توانایی در پیش‌بینی روندها، تقاضاها و نیازهای آتی، سازمان‌ها می‌توانند آمادگی بهتری برای بهره‌برداری از فرصت‌ها داشته باشند و در نتیجه، مزیت رقابتی خود را تقویت کنند. در این میان، طراحان باید نقش خود را در درک و پیش‌بینی تجربه‌ی کاربری در حال تحول، جدی بگیرند و به‌گونه‌ای عمل کنند که فناوری‌های هوشمند، هم‌راستا با ارزش‌ها و نیازهای انسانی طراحی شوند.

در عین حال، استفاده‌ی بدون تأمل و ناآگاهانه از ابزارهای هوش مصنوعی می‌تواند منجر به پیامدهایی نگران‌کننده از جمله تشدید تبعیض، نظارت بیش از حد و دستکاری‌های رفتاری شود که نه‌تنها در سطح فردی، بلکه در ابعادی اجتماعی و جمعی نیز می‌تواند نگران کننده باشد. مدل‌های پیش‌بینانه ممکن است سوگیری‌های موجود در داده‌ها را بازتولید یا حتی تقویت کنند و به‌گونه‌ای عمل کنند که نتایجی ناخواسته و غیراخلاقی به همراه داشته باشند. طراحان مسئولیت دارند پیامدهای بالقوه‌ی فناوری‌های هوش مصنوعی را پیش‌بینی و برای کاهش آن‌ها اقدام نمایند تا طراحی‌هایشان از نظر اخلاقی، مسئولانه و از منظر اجتماعی فراگیر باشند. همان‌طور که کیت کرافورد، بنیان‌گذار مؤسسه‌ی AI Now، تأکید می‌کند:

درک سیاست‌هایی که درون سیستم‌های هوش مصنوعی جریان دارند، بیش از هر زمان دیگری اهمیت یافته است؛ زیرا این سیستم‌ها به سرعت در حال تبدیل شدن به بخش جدایی‌ناپذیر معماری نهادهای اجتماعی هستند. این سیستم‌ها تعیین می‌کنند چه کسی برای مصاحبه شغلی دعوت شود، کدام دانش‌آموزان در کلاس توجه نشان می‌دهند، چه کسانی به‌عنوان مظنون بازداشت شوند و موارد دیگری از این دست.

طراحی برای پیشبینی سناریوهای آینده

هوش مصنوعی ChatGPT چیست

هلن آرمسترانگ در کتاب خود، مفهوم پیش‌بینی را مورد بررسی قرار داده و نشان می‌دهد که چگونه طراحان می‌توانند با بهره‌گیری از هوش مصنوعی، به‌صورت فعالانه نیازهای کاربران را پیش‌بینی کنند و پاسخگو باشند. این رویکرد، بر اساس بینش‌های داده‌محور استوار است تا گامی فراتر از کاربران برداشته، اصطحکاک‌های تجربه را کاهش داده و کیفیت کلی تجربه‌ی کاربری را ارتقا دهد.

یکی از مزایای طراحی پیش‌بینانه، کاهش بار شناختی کاربران است؛ زیرا سیستم‌های پیش‌بینی‌کننده با ارائه‌ی انتخاب‌های مرتبط یا انجام اقدامات مشابه، سختی کاربران حین تصمیم‌گیری را کاهش می‌دهند. به عنوان نمونه، شرکت‌هایی مانند Netflix و Amazon از تحلیل‌های پیش‌بینی برای پیشنهاد محصولات یا محتوای متناسب با سلایق کاربران بهره می‌برند. با این حال، چنین سیستم‌هایی پیامدهای اخلاقی نیز به همراه دارند؛ چراکه ممکن است به حریم خصوصی یا خودمختاری کاربران آسیب برسانند. همان‌طور که آرمسترانگ به درستی اشاره می‌کند:

وعده‌ی طراحی پیش‌بینانه در توانایی آن برای خلق تجربه‌هایی نهفته است که هم شهودی و هم شخصی‌سازی‌شده به نظر می‌رسند. با این حال، همراه با این قدرت، وظیفه‌ای نیز هست که باید مسئولانه از آن استفاده کنیم تا عنصر انسانی همواره در مرکز هر تصمیم باقی بماند.

خوشبختانه، رویکردی آینده‌نگر وجود دارد که امکان خلق محصولات و خدمات مقاوم در برابر تغییرات و منطبق بر انتظارات کاربران را فراهم می‌سازد. طراحان می‌توانند با استفاده از هوش مصنوعی، سناریوهای احتمالی آینده را شبیه‌سازی و مدل‌سازی کرده و نیازهای متنوع کاربران، عوامل محیطی و تحولات اجتماعی را پیش‌بینی کنند. این رویکرد تضمین می‌کند که طراحی‌های ما همواره مرتبط و قابل تطبیق باقی بمانند.

طراحی برای خلق تجارب شخصی

طراحی برای خلق تجارب شخصی

شخصی‌سازی در طراحی تجربه‌ی کاربری به معنای تطبیق رابط‌ها، محتوا و تعاملات با نیازها، ترجیحات و شرایط ویژه‌ی هر کاربر است. هنگامی که درباره‌ی شخصی‌سازی در زمینه‌ی هوش مصنوعی حرف می‌زنیم، معمولاً منظور از بهره‌گیری از فناوری‌های پیش‌بینی و تحلیل داده‌ها برای ارائه‌ی تجربه‌هایی است که در هر لحظه برای کاربران مرتبط‌تر و ارزشمندتر باشد.

شخصی‌سازی در طراحی، این بستر را فراهم می‌کند تا اطلاعات یا اقداماتی که به کاربر ارائه می‌شود، مفید، قابل استفاده و مطلوب باشد؛ مفهومی که از دیدگاه لیز ساندرز، پژوهشگر حوزه طراحی، الهام گرفته شده است. هوش مصنوعی قادر است با تحلیل حجم وسیعی از داده‌های کاربران، الگوها و موارد مورد نیاز آن‌ها را شناسایی کرده و با بهره‌گیری از مدل‌های پیش‌بینی، نیازها و خواسته‌های آتی کاربران را حدس بزند. این پیش‌بینی‌ها می‌توانند با در نظر گرفتن زمینه‌ی فعلی کاربر، مانند موقعیت مکانی یا زمان روز، به ارائه پیشنهاداتی مرتبط‌تر منجر شود.

با این وجود، شخصی‌سازی با چالش‌های اخلاقی مهمی مانند حفظ حریم خصوصی، مقابله با سوگیری‌ها و تضمین شفافیت است همراه. از این رو، نقش طراحان بسیار حیاتی است تا اطمینان حاصل شود که شخصی‌سازی به شیوه‌ای مؤثر و اخلاق‌مدارانه پیاده‌سازی شود. ما باید از طریق پژوهش‌های مستمر و فرآیندهای آزمایشی، نیازها و ترجیحات کاربران را به‌درستی درک کنیم و با جمع‌آوری مستمر بازخوردها، ویژگی‌های شخصی‌سازی را بهبود بخشیم. شخصی‌سازی، ابزاری قدرتمند در جعبه‌ابزار هر طراح به شمار می‌آید، اما همان‌طور که هلن آرمسترانگ تأکید می‌کند، موفقیت تجربه‌های شخصی‌سازی‌شده وابسته به استفاده دقیق و اخلاقی از بینش‌های هوش مصنوعی است. همواره باید منافع واقعی کاربران در اولویت قرار گیرد و اطمینان حاصل شود که تلاش‌های شخصی‌سازی نه‌تنها اثربخش، بلکه برای هر فرد، محترم و سودمند باشد.

استفاده از هوش مصنوعی برای طراحی متریال

استفاده از هوش مصنوعی برای طراحی متریال

طراحی برای هوش مصنوعی از چالش‌های ویژه‌ای برخوردار است، چرا که این فناوری ماهیتی نامرئی و انتزاعی دارد و برای طراحان، زمانی که امکان «اسکچ» یا ترسیم اولیه یک راه‌حل وجود نداشته باشد، گویی یکی از توانمندی‌های اساسی خود را از دست داده‌ایم. فیلیپ ون آلن، استاد طراحی تعامل، این وضعیت را به گونه‌ای توصیف می‌کند که انگار دستمان قطع شده باشد.

برای مقابله با این چالش، وی یک محیط برنامه‌نویسی بدون نیاز به کد را برای دانشجویان خود توسعه داد که امکان دسترسی آسان به مفاهیم یادگیری ماشین را فراهم می‌کند. این ابزار که با نام Delft AI Toolkit شناخته می‌شود، به صورت سه‌بعدی سیستم هوش مصنوعی را شبیه‌سازی کرده و به طراحان این امکان را می‌دهد تا رفتار سیستم و منابع داده آن را در فضای مجازی مشاهده و دستکاری کنند، پیش از آنکه زمان و تخصص خود را صرف آموزش مدل یا ساخت ربات فیزیکی نمایند.

رویکردی دیگر برای کار با هوش مصنوعی به‌عنوان یک متریال، از جان زیمرمن، استاد دانشگاه کارنگی ملون، ارائه شده است. او روشی را توسعه داده است که تمرکز آن بر قابلیت‌های عملی سیستم‌های هوش مصنوعی است، نه صرفاً فناوری زیربنایی آن. زیمرمن معتقد است بسیاری از دانشجویان طراحی نسبت به امکانات کار با فناوری‌های هوش مصنوعی تردید دارند؛ از این رو، از یک سیستم «همراه‌یابی» بهره می‌برد که به آن‌ها در درک پتانسیل‌های سیستم هوش مصنوعی کمک می‌کند. برای نمونه، او یک طبقه‌بند متن ساده با دو دسته را معرفی می‌کند و این سوال را مطرح می‌کند که «با این سیستم چه کارهایی و برای چه گروه‌هایی می‌توان انجام داد؟»

این روش به طراحان کمک می‌کند تا قابلیت‌های موجود را شناسایی کرده و آن‌ها را به شیوه‌هایی نوآورانه به کار ببرند. همانند هر ابزار طراحی دیگری، هرچه بیشتر با آن آزمایش کنیم، احساس تسلط و راحتی بیشتری حاصل می‌شود و نمونه‌ها و انتزاعات متنوع‌تری از قابلیت‌های هوش مصنوعی شکل می‌گیرد. رویکرد سومی که به نظر می‌رسد بسیار مؤثر باشد، بهره‌گیری از روش‌شناسی طراحی تجربه کاربری مبتنی بر شیء (Object-Oriented UX یا به اختصار OOUX) است. در این روش، تمرکز اولیه بر «اشیاء» قرار دارد و سپس به «فانکشن‌ها» پرداخته می‌شود؛ رویکردی که با نحوه‌ی درک کاربران از جهان واقعی هم‌راستا است.

OOUX مفاهیم برنامه‌نویسی شیءگرا را به‌کار می‌گیرد، اما آن‌ها را در حوزه‌ی طراحی تجربه کاربری به کار می‌بندد. این روش به‌ویژه در جریان‌های کاری مرتبط با هوش مصنوعی کاربرد فراوانی دارد؛ زیرا داده‌ها و تعاملات را حول محور اشیاء سازماندهی کرده و سیستم‌های پیچیده هوش مصنوعی را برای افرادی که برنامه‌نویس نیستند، با تطبیق دادن آن‌ها با مدل‌های ذهنی‌شان، قابل‌فهم‌تر و شهودی‌تر می‌سازد.

صوفیا پراتر، یکی از کارشناسان برجسته در زمینه‌ی OOUX است و منابع و پادکست‌های او در این حوزه به‌شدت توصیه می‌شود و باید گفته شود که این روش‌شناسی، فوق‌العاده کاربردی است. این روش به ما اجازه می‌دهد تا عملکردها و محدودیت‌های سیستم را به شکلی واضح‌تر تجسم کنیم.

یادگیری ماشینی تجربه‌ی کاربری جدیدی را رقم می‌زند.

من آینده‌ای را تصور می‌کنم که در آن متخصصان UX با خلاقیت و تأمل، یادگیری ماشینی را به‌عنوان متریالی در طراحی به‌کار می‌گیرند و کاربران و تکنولوژیست‌ها را به سوی آینده‌ای هدایت می‌کنند که با تصمیم‌گیری آگاهانه و همراه با یادگیری ماشینی شکل گرفته است. کیان یانگ، دانشگاه کرنل

طرحی برای کاهش تاثیر هوش مصنوعی بر آب و هوا

اگرچه این موضوع در کتاب به‌عنوان یک «قابلیت هوش مصنوعی» مطرح نشده، اما بدون شک یکی از مهارت‌های کلیدی است که طراحان باید به‌ویژه در قرن بیست‌ویکم و در عصر فناوری‌های هوش مصنوعی از آن استفاده کنند. مقاله‌ای با عنوان «چگونه شرکت‌های پیشرو در حوزه هوش مصنوعی به مقابله با تغییرات اقلیمی می‌پردازند» نوشته‌ی سانتی آنالیتیس، نقش حیاتی طراحان را در کاهش اثرات زیست‌محیطی فناوری‌های هوش مصنوعی برجسته می‌کند.

این مقاله به چالش افزایش ردپای کربنی هوش مصنوعی اشاره دارد؛ مسئله‌ای که ناشی از فرآیندهای پرمصرف انرژی مانند آموزش مدل‌ها و فعالیت مراکز داده است و نیازمند توجه فوری مهندسان و طراحان می‌باشد. طراحان می‌توانند با خلق رابط‌ها و تجربه‌هایی با مصرف بهینه انرژی، کاهش بارهای غیرضروری داده و رسانه و به‌کارگیری اصول نرم‌افزار سبز، سهم موثری در این مسیر داشته باشند. علاوه بر این، طراحان می‌توانند با توسعه تجربه‌های کاربری فراگیر و آگاه به مسائل اقلیمی، استفاده‌های عادلانه و اجتماعی از هوش مصنوعی را نیز ارتقا دهند.

نشریه‌ی The Intercept Brasil (به زبان پرتغالی) سال گذشته مقاله‌ای منتشر کرد که در آن به این موضوع پرداخته شده بود که شرکت‌های بزرگ فناوری مانند مایکروسافت، گوگل و آمازون به انرژی هسته‌ای به‌عنوان راه‌حلی برای تأمین نیازهای فزاینده‌ی هوش مصنوعی و مراکز داده روی آورده‌اند. مایکروسافت برنامه دارد تا نیروگاه سه مایل آیلند را دوباره فعال کند. در این بین، گوگل با شرکت Kairos Power همکاری می‌کند تا راکتورهای کوچک تولید کند، و آمازون ۵۰۰ میلیون دلار در فناوری هسته‌ای سرمایه‌گذاری کرده است. بسیاری از این مراکز داده در کشورهای جنوب جهانی (Global South) ساخته می‌شوند، جایی که هزینه نیروی کار و زیرساخت پایین‌تر است، که این مسئله نگرانی‌هایی درباره‌ی استثمار منابع و تأثیرات اجتماعی اقتصادی ایجاد می‌کند.

اگرچه انرژی هسته‌ای فاقد کربن و کارآمد است، اما هزینه‌بر بوده و خطراتی به همراه دارد. منتقدان معتقدند که «فناوری بزرگ» در تلاش است تا بحرانی را حل کند که خود ایجاد کرده و اولویت را به توسعه‌ی سریع تکنولوژیک داده است، نه پایداری. ذهنیت صنعتی «سرعت عمل بالا» این پرسش را مطرح می‌کند که آیا انرژی هسته‌ای واقعاً می‌تواند با افزایش سریع مصرف انرژی در حوزه‌ی هوش مصنوعی همگام شود یا صرفاً فصل دیگری از تاریخ رشد بی‌رویه و کنترل‌نشده فناوری‌های بزرگ خواهد بود.

مستند شبکه Vox در تلاش است به این سؤال پاسخ دهد و ابعاد مختلف آن را بررسی کند. در مقاله‌ای دیگر از مؤسسه فناوری ماساچوست (MIT)، نویسنده اندرو وینستون نیز به تأثیرات فزاینده‌ی زیست‌محیطی هوش مصنوعی اشاره کرده و راهکارهایی برای کاهش ردپای کربنی آن ارائه می‌دهد، از جمله استفاده از مدل‌های موجود به جای توسعه مدل‌های جدید.

این مقاله نقش حیاتی طراحان را در این حوزه برجسته می‌کند و از آن‌ها می‌خواهد تا در زمینه هوش مصنوعی تخصص کافی کسب کنند تا بتوانند مفاهیم پیچیده را ساده‌سازی کنند و (nutriscore) هوش مصنوعی در محصولات خود را، یعنی میزان استفاده از منابع و هزینه‌های زیست‌محیطی آن را به‌خوبی به کاربران منتقل کنند. همچنین، طراحان باید به «کد رفتاری» اخلاقی مشابه قانون هوش مصنوعی اتحادیه اروپا پایبند باشند؛ کدی که تضمین می‌کند محصولات هوش مصنوعی ایمن، شفاف، قابل ردیابی، غیرتبعیض‌آمیز و مسئولیت‌پذیر در قبال محیط زیست هستند. طراحان می‌توانند با وارد کردن مدل‌های داده‌ی شفاف که هزینه‌های واقعی زیست‌محیطی هوش مصنوعی را منعکس می‌کنند، رفتار کاربران و سیاست‌های شرکت‌ها را تحت تأثیر قرار دهند و بدین ترتیب، اطمینان حاصل کنند که این فناوری نه تنها به حل مشکلات انسانی کمک می‌کند، بلکه در مواجهه با چالش‌های زیست‌محیطی نیز نقش موثری ایفا می‌کند.

نتیجه گیری

گاهی اوقات، احساس می‌کنیم در برابر ضرورت فوری اخلاق در هوش مصنوعی غرق شده‌ایم. هوش مصنوعی حوزه‌ای چندکاربرده و پویاست که توان انجام وظایف بسیار متنوعی را دارد و می‌تواند به حل مسائل واقعی جهان کمک کند. اما حقیقت این است که سیستم‌های الگوریتمی اغلب بازتاب و حتی تقویت‌کننده‌ی تعصبات و تبعیض‌های موجود در جامعه‌اند. تا وقتی که رابط‌های کاربری به‌روشنی منطق پشت تصمیم‌های الگوریتمی را به کاربران نشان ندهند، نمی‌توانیم انتظار پاسخگویی کامل از این سیستم‌ها را داشته باشیم. به همین دلیل، طراحان و جوامعی که به آن‌ها خدمت می‌کنند، باید حقوق دیجیتال را به‌خوبی درک کنند. ما باید خودمان و کل صنعت را مسئول انتخاب‌هایی بدانیم که از طریق طراحی‌هایمان انجام می‌دهیم.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
دانلود مایکت ×