آیا دیپ فیک باعث ایجاد خاطرات کاذب موثر می‌شود؟ محققان پاسخ می‌دهند

یک مطالعه جدید نشان می‌دهد که تماشای ویدیوهای ساخته شده با تکنیک دیپ فیک (Deepfake) می‌تواند افراد را به یادآوری خاطراتی وادار کند که در واقع هرگز رخ نداده‌اند. در ادامه این مقاله با مایکت همراه باشید.

در سال 2005 ویل اسمیت در بازسازی فیلم The Matrix نقش‌آفرینی کرد. این اثر فروش کمی را در باکس آفیس تجربه کرد و پس از مدت کوتاهی کاملا به دست فراموشی سپرده شد. شما احتمالا این فیلم را به یاد می‌آورید، اما این امر بسیار تعجب‌برانگیز است، چرا که در واقع این اطلاعات اصلا درست نیست.

با این حال صرفا با خواندن دو جمله بالا احتمال‌اش زیاد است که تعداد قابل توجهی از شما آن چه نوشته شده را باور کرده باشید؛ نه تنها این، بلکه علی‌رغم عدم وجود خارجی چنین فیلمی، برخی از شما شاید با خودتان گفته باشید که «آره، درست یادمه که ویل اسمیت تو بازسازی فیلم ماتریکس بازی کرده بود».

این در واقع یک خاطره کاذب است؛ پدیده‌ای روان‌شناختی که به یادآوری چیزهایی که رخ نداده‌اند، اطلاق می‌شود. اگر ادعای ذکر شده در بالا برای فریب‌تان کافی نبود، اشکالی ندارد، چرا که همین حالا هم احتمالا در حافظه‌تان خاطرات کاذب بسیار زیادی از دوران کودکی دارید. این چیزی نیست که صرفا افراد خاصی دچارش شوند، بلکه پدیده‌ای است که تمامی انسان‌ها تجربه‌اش می‌کنند. ما داستان‌های برای خود به هم می‌بافیم و گاهی این داستان‌ها به قدری بازگو شده و در این بازگویی‌ها دست‌خوش تغییر می‌شوند که در نهایت به چیزی تبدیل خواهند شد که دیگر شباهتی به رویداد واقعی نخواهد داشت.

با این حال از این پدیده‌ی انسانی می‌توان به سادگی به عنوان سلاحی علیه افراد استفاده کرد و دست به پخش اطلاعات نادرست زد و آسیب فراوانی را به وجود آورد. با افزایش تعداد ابزارهای مبتنی بر هوش مصنوعی نظیر تکنولوژی دیپ فیک حالا بسیاری از این می‌ترسند که از چنین چیزهایی برای جهت دادن به انتخاب‌ها استفاده شود و افراد سعی کنند با استفاده از آن‌ها دست به ارائه روایت‌های نادرست بزنند.

آیکون برنامه Puzzle Deepfake

Puzzle Deepfake

حجم:۱۰.۴ مگابایت

دانلود برنامه Puzzle Deepfake

این همان چیزی است که مطالعه‌ای که در تاریخ 6 جولای در PLOS One منتشر شد، به آن اشاره دارد. در این مطالعه محققان به این نتیجه رسیدند که نشان دادن کلیپ‌هایی از فیلم‌ها که توسط دیپ فیک دست‌خوش تغییر شده، می‌تواند شرکت‌کنندگان در تحقیقات را به یاد چیزهایی بیندازد که در واقع رخ نداده‌اند. حتی برخی از بینندگان به بازسازی‌های کاذب نمره بهتری نسبت به نسخه اصلی کلیپ‌ها داده بودند. این تحقیقات نشان می‌دهد که تکنولوژی دیپ فیک قدرت زیادی در ایجاد خاطرات ساختگی دارد.

البته در این میان یک روزنه امید هم دیده می‌شود. محققان این مطالعه به این نتیجه رسیده‌اند که توضیح متنی ساده که مربوط به بازسازی‌های ساختگی بود هم در ایجاد خاطرات کاذب برای شرکت‌کنندگان نقش دارند. این خبر خوبی نیست و می‌تواند نشان‌دهنده پدیده خطرناکی باشد. در این یافته‌ها مشخص شده که دیپ فیک ساخته شده توسط هوش مصنوعی شاید بیش از روش‌هایی که از نظر تکنولوژی پیچیدگی کم‌تری دارند، نمی‌توانند در انتشار اخبار نادرست تاثیر داشته باشند. در نتیجه تصاویر پیچیده‌ای که توسط AI تولید می‌شود و می‌تواند خطرناک هم باشد و باید از آن‌ها ترسید، محدودیت‌های خاص خود را هم دارند.

گیلیان مورفی، پژوهشگر ارشد این مطالعات از دانشگاه کورک ایرلند، در گفتگو با The Daily Beast گفت: «ما نباید تحت تاثیر ترس‌هایی که از تکنولوژی‌های نوظهور داریم، خیلی زود یه آینده‌ی دیستوپیایی رو برای خودمون متصور بشیم. آره، دیپ فیک می‌تونه آسیب‌های خیلی عمیقی ایجاد کنه، اما ما همیشه پیش از هر چیزی باید مدارک و شواهد درباره چیزای مختلف جمع کنیم و بعدش به سراغ حل مشکلاتی که فکر می‌کنیم به وجود میان بریم.»

پژوهش جدید نشان می‌دهد دیپ فیک در ایجاد خاطرات کاذب موثر است

برای این تحقیق، پژوهشگران گروهی 436 نفری را استخدام کردند تا به آن‌ها کلیپ‌هایی از ویدیوهای مختلف ساخته شده توسط دیپ فیک را نمایش دهند؛ ویدیوهایی که مربوط به فیلم‌های سینمایی بوده و حالا توسط هوش مصنوعی دستکاری شده بودند. مثلا برد پیت و آنجلینا جولی به فیلم The Shining اضافه شده بودند، کریس پرت در Indiana Jones دیده می‌شد، شارلیز ترونز هم در نقش Captain Marvel قرار گرفته بود و البته ویل اسمیت هم به The Matrix اضافه شده بود. به شرکت‌کنندگان در پژوهش ویدیوهایی از آثار بازسازی شده واقعی مثل Carrie، Total Recall و Charlie and the Chocolate Factory هم نمایش داده شده بود. در این بین پژوهشگران به برخی از افراد متنی هم درباره بازسازی‌های جعلی ارائه داده بودند.

محققان در این مطالعات به این نتیجه رسیدند که به طور میانگین 49 درصد افراد باور کرده بودند که ویدیوهای ساخته شده توسط دیپ فیک واقعی هستند. در این گروه تعداد قابل توجهی هم گفته بودند که نسخه‌های بازسازی شده از نسخه اصلی بهترند. برای مثال 41 درصد از شرکت‌کنندگان گفته بودند که نسخه بازسازی شده کاپیتان مارول بهتر از نسخه اصلی بوده و 12 درصد هم اظهار کرده بودند که ریمیک ماتریکس از نسخه اصلی بهتر است.

با این حال یافته‌ها نشان داده که وقتی توضیحات متنی ویدیوی ساخته شده توسط دیپ فیک در اختیار افراد قرار می‌گرفته، گاها نتایج بهتر از خود ویدیوها بوده است. این امر نشان می‌دهد که احتمالا روش‌های قدیمی مثل انتشار اطلاعات نادرست با استفاده از اخبار و مقالات می‌تواند احتمالا به اندازه هوش مصنوعی موثر واقع شود.

مورفی در این باره توضیح داد: «یافته‌های ما لزوما نگران‌کننده نیستن، چون نشون نمی‌دن دیپ فیک به طور مخصوصی و بیش‌تر از روش‌های دیگه پخش اطلاعات نادرست می‌تونه تهدیدکنندگی زیادی داشته باشه.» البته او اشاره کرد که مطالعات آن‌ها محدود به حافظه کوتاه مدت افراد می‌شود. او افزود: «شاید دیپ فیک واقعا وسیله قدرتمندتری واسه پخش اطلاعات نادرست باشه، چون واسه مثال احتمال پخش شدن سریع‌تر اونا بیش‌تره و بهتر تو حافظه بلندمدت می‌مونن.»

این موضوع می‌تواند به مسئله‌ای گسترده‌تر در بستر اطلاعات نادرست اشاره داشته باشد. چیزی به نام استدلال انگیزشی که اجازه می‌دهد تعصب و منفعت‌طلبی در درک یک چیز تاثیرگذار باشد. برای مثال اگر شما باور داشته باشید انتخابات سال 2020 آمریکا با دستکاری نتایج همراه بوده، احتمال‌اش بیش‌تر است که شما یک ویدیوی ساخته شده توسط دیپ فیک که نشان‌دهنده تقلب در شمارش رای‌ها است را باور کنید تا کسی که چنین اعتقادی ندارد.

پژوهش جدید نشان می‌دهد دیپ فیک در ایجاد خاطرات کاذب موثر است

کریستوفر شوارتز، پژوهشگر امنیت سایبری و حوزه اطلاعات نادرست در موسسه فناوری راچستر، که در این تحقیق نقشی نداشته در این خصوص به The Daily Beast گفته: «همین موضوع مشکل اصلی در خصوص اطلاعات نادرست است. در واقع کیفیت اطلاعات و قابل استناد بودن منبع مشکل اصلی نیست، بلکه مسئله اینجاس که وقتی افراد بخوان یه چیز حقیقت داشته باشه، سعی می‌کنن یه جوری حقیقت داشتن اون چیزو به خودشون القا کنن.»

بر اساس گفته شوارتز، بخش بزرگی از دلیل وجود چشم‌اندازهای سیاسی و فرهنگی کنونی جوامع ما به استدلال انگیزشی باز می‌گردد. شاید لزوما دیپ فیک و خبرهای جعلی قادر به فریب ما نباشند، اما بسیاری از ما سعی می‌کنیم به دنبال مقالات و خبرهای بگردیم که در واقع محتوای‌شان تاییدی بر باورهای خودمان است. ما خودمان را در حباب‌های اجتماعی و دیجیتالی خود حبس می‌کنیم و فقط افکار مشخصی را مدام می‌بینیم و می‌شنویم. این امر تا جایی ادامه پیدا می‌کند که خودمان را قانع می‌کنیم که چیزی که به آن باور داریم تنها حقیقت موجود است.

همین موضوع هم باعث می‌شود که ویدیوهای ساخته شده توسط هوش مصنوعی و دیپ فیک حسابی پربازدید شوند؛ ویدیوهای مربوط به دستگیری دونالد ترامپ یا آتش گرفتن پنتاگون از جمله این موارد هستند که پیش‌تر در شبکه‌های اجتماعی حسابی دست به دست می‌شدند. شاید مسخره به نظر برسد، اما واقعیت این است که وقتی چنین اخبار و ویدیوهای فیکی چیزی را تایید می‌کنند که ما از قبل به آن باور داشته‌ایم، مغزمان آن‌ها را همان‌قدر که برای‌مان رضایت‌بخش است، اطلاعات را واقعی جلوه می‌دهد.

آیکون بازی scary clown fake video call

scary clown fake video call

حجم:۷.۴ مگابایت

دانلود برنامه تماس با دلقک ترسناک

خوشبختانه هنوز امید وجود دارد. مورفی گفته که بسیاری از شرکت‌کنندگان در این تحقیق تایید کرده‌اند که استفاده از هوش مصنوعی دیپ فیک برای تغییر ظاهر شخصیت‌های فیلم‌ها، آن‌ها را در خصوص آینده و پتانسیل استفاده از این تکنولوژی برای سوء استفاده از چهره بازیگران نگران کرده است. این گفته نشان می‌دهد که احتمالا عده زیادی مخالف دیپ فیک و استفاده از AI هستند؛ در نتیجه انتظار می‌رود شرکت‌ها نتوانند بدون مشکل در آینده از این فناوری در رسانه‌ها استفاده کنند.

او گفت: «اونا دوست نداشتن فیلمی رو ببینن که به بازیگرها غرامت کافی داده نشده یا هنرپیشه‌ها برای استفاده از چهره‌شون اجازه کامل ندادن. اونا چنین کاری رو غیرمعتبر و شکست هنری قلمداد می‌کردن.»

شوارتز در خصوص اطلاعات نادرست گفت که راه حل در دو مورد از مناقشه‌برانگیزترین مسائل دوران مدرن جامعه آمریکا است: آموزش و رسانه. در ابتدا مردم باید سواد کافی درخصوص تکنولوژی داشته باشند تا بتوانند به راحتی ویدیوهای ساخته شده توسط دیپ فیک را تشخیص دهند. در مورد دومی هم باید گفت که افراد باید تمایل داشته باشند که عقاید خود را به چالش بکشند و تصاویر، مقالات یا دیگر محتواهای رسانه‌ای که تاییدی بر باورهای‌شان است را به این راحتی‌ها نپذیرند. این موضوع باید در کلاس‌های درس مطرح شود و افراد باید از همان ابتدا فهم درستی از چنین مشکلاتی داشته باشند.

پژوهش جدید نشان می‌دهد دیپ فیک در ایجاد خاطرات کاذب موثر است

علاوه بر این، اتاق‌های خبر و سازمان‌های رسانه‌ای وظیفه دارند نه تنها عموم را از خطراتی که هوش مصنوعی دیپ فیک می‌تواند به وجود آورد مطلع کنند، بلکه باید وقتی اطلاعات نادرستی منتشر می‌شود، حتما آن جعلی بودن ویدیو یا خبر را به گوش افراد برسانند.

شوارتز می‌گوید: «این جور مقاله‌ها آگاهی رو افزایش می‌دن که یه جورایی مثل واکسیناسیون در رابطه با پخش اطلاعات نادرست به وسیله هوش مصنوعی عمل می‌کنه. اینجوری مردم همیشه حواس‌شون هست و اونایی که هدف قرار داده می‌شن از این جریان خبردار می‌شن.»

بنابراین باید آن چه در ادامه ذکر می‌کنیم را به عنوان یک هشدار در نظر بگیرید. ما در عصری هستیم که هوش مصنوعی مولد می‌تواند دست به تولید متن، تصاویر و ویدیوهایی بزند که به سرعت پخش و معروف می‌شوند. هر روز این ابزار قدرت و محبوبیت بیش‌تری به دست می‌آورند و نرخ استفاده از آن‌ها افزایش پیدا می‌کند. این ابزارها علیه شما استفاده خواهند شد و احتمالا پیش‌تر هم علیه‌تان به کار گرفته شده‌اند.

این مسئله ترسناک و قطعا گیج‌کننده است. اما همین که بدانیم چنین چیزی وجود دارد، قدم اول برای فهمیدن این است که چه چیزی حقیقی بوده و چه چیزی جعلی است. همین امر بدون تردید می‌تواند در برخورد با چنین چیزهایی در رفتار و واکنش ما تفاوت ایجاد کند.

شوارتز می‌گوید: «ما ابزار لازم واسه مقابله با این چیزها رو داریم. توانایی استدلال یه چیز خدادادیه. ما می‌تونیم ازش استفاده کنیم و در واقع باید به کار ببریمش.»

منبع: TheDailyBeast

خروج از نسخه موبایل