آیا دیپ فیک باعث ایجاد خاطرات کاذب موثر میشود؟ محققان پاسخ میدهند
یک مطالعه جدید نشان میدهد که تماشای ویدیوهای ساخته شده با تکنیک دیپ فیک (Deepfake) میتواند افراد را به یادآوری خاطراتی وادار کند که در واقع هرگز رخ ندادهاند. در ادامه این مقاله با مایکت همراه باشید.
- هوش مصنوعی ChatGPT راهکارهای درمانی نادرستی را برای سرطان ارائه میدهد
- هوش مصنوعی اپل در آینده نزدیک معرفی خواهد شد
- تمام بخشها در شرکت آمازون روی هوش مصنوعی مولد کار میکنند
در سال 2005 ویل اسمیت در بازسازی فیلم The Matrix نقشآفرینی کرد. این اثر فروش کمی را در باکس آفیس تجربه کرد و پس از مدت کوتاهی کاملا به دست فراموشی سپرده شد. شما احتمالا این فیلم را به یاد میآورید، اما این امر بسیار تعجببرانگیز است، چرا که در واقع این اطلاعات اصلا درست نیست.
با این حال صرفا با خواندن دو جمله بالا احتمالاش زیاد است که تعداد قابل توجهی از شما آن چه نوشته شده را باور کرده باشید؛ نه تنها این، بلکه علیرغم عدم وجود خارجی چنین فیلمی، برخی از شما شاید با خودتان گفته باشید که «آره، درست یادمه که ویل اسمیت تو بازسازی فیلم ماتریکس بازی کرده بود».
این در واقع یک خاطره کاذب است؛ پدیدهای روانشناختی که به یادآوری چیزهایی که رخ ندادهاند، اطلاق میشود. اگر ادعای ذکر شده در بالا برای فریبتان کافی نبود، اشکالی ندارد، چرا که همین حالا هم احتمالا در حافظهتان خاطرات کاذب بسیار زیادی از دوران کودکی دارید. این چیزی نیست که صرفا افراد خاصی دچارش شوند، بلکه پدیدهای است که تمامی انسانها تجربهاش میکنند. ما داستانهای برای خود به هم میبافیم و گاهی این داستانها به قدری بازگو شده و در این بازگوییها دستخوش تغییر میشوند که در نهایت به چیزی تبدیل خواهند شد که دیگر شباهتی به رویداد واقعی نخواهد داشت.
با این حال از این پدیدهی انسانی میتوان به سادگی به عنوان سلاحی علیه افراد استفاده کرد و دست به پخش اطلاعات نادرست زد و آسیب فراوانی را به وجود آورد. با افزایش تعداد ابزارهای مبتنی بر هوش مصنوعی نظیر تکنولوژی دیپ فیک حالا بسیاری از این میترسند که از چنین چیزهایی برای جهت دادن به انتخابها استفاده شود و افراد سعی کنند با استفاده از آنها دست به ارائه روایتهای نادرست بزنند.
Puzzle Deepfake
حجم:۱۰.۴ مگابایت
این همان چیزی است که مطالعهای که در تاریخ 6 جولای در PLOS One منتشر شد، به آن اشاره دارد. در این مطالعه محققان به این نتیجه رسیدند که نشان دادن کلیپهایی از فیلمها که توسط دیپ فیک دستخوش تغییر شده، میتواند شرکتکنندگان در تحقیقات را به یاد چیزهایی بیندازد که در واقع رخ ندادهاند. حتی برخی از بینندگان به بازسازیهای کاذب نمره بهتری نسبت به نسخه اصلی کلیپها داده بودند. این تحقیقات نشان میدهد که تکنولوژی دیپ فیک قدرت زیادی در ایجاد خاطرات ساختگی دارد.
البته در این میان یک روزنه امید هم دیده میشود. محققان این مطالعه به این نتیجه رسیدهاند که توضیح متنی ساده که مربوط به بازسازیهای ساختگی بود هم در ایجاد خاطرات کاذب برای شرکتکنندگان نقش دارند. این خبر خوبی نیست و میتواند نشاندهنده پدیده خطرناکی باشد. در این یافتهها مشخص شده که دیپ فیک ساخته شده توسط هوش مصنوعی شاید بیش از روشهایی که از نظر تکنولوژی پیچیدگی کمتری دارند، نمیتوانند در انتشار اخبار نادرست تاثیر داشته باشند. در نتیجه تصاویر پیچیدهای که توسط AI تولید میشود و میتواند خطرناک هم باشد و باید از آنها ترسید، محدودیتهای خاص خود را هم دارند.
گیلیان مورفی، پژوهشگر ارشد این مطالعات از دانشگاه کورک ایرلند، در گفتگو با The Daily Beast گفت: «ما نباید تحت تاثیر ترسهایی که از تکنولوژیهای نوظهور داریم، خیلی زود یه آیندهی دیستوپیایی رو برای خودمون متصور بشیم. آره، دیپ فیک میتونه آسیبهای خیلی عمیقی ایجاد کنه، اما ما همیشه پیش از هر چیزی باید مدارک و شواهد درباره چیزای مختلف جمع کنیم و بعدش به سراغ حل مشکلاتی که فکر میکنیم به وجود میان بریم.»
برای این تحقیق، پژوهشگران گروهی 436 نفری را استخدام کردند تا به آنها کلیپهایی از ویدیوهای مختلف ساخته شده توسط دیپ فیک را نمایش دهند؛ ویدیوهایی که مربوط به فیلمهای سینمایی بوده و حالا توسط هوش مصنوعی دستکاری شده بودند. مثلا برد پیت و آنجلینا جولی به فیلم The Shining اضافه شده بودند، کریس پرت در Indiana Jones دیده میشد، شارلیز ترونز هم در نقش Captain Marvel قرار گرفته بود و البته ویل اسمیت هم به The Matrix اضافه شده بود. به شرکتکنندگان در پژوهش ویدیوهایی از آثار بازسازی شده واقعی مثل Carrie، Total Recall و Charlie and the Chocolate Factory هم نمایش داده شده بود. در این بین پژوهشگران به برخی از افراد متنی هم درباره بازسازیهای جعلی ارائه داده بودند.
محققان در این مطالعات به این نتیجه رسیدند که به طور میانگین 49 درصد افراد باور کرده بودند که ویدیوهای ساخته شده توسط دیپ فیک واقعی هستند. در این گروه تعداد قابل توجهی هم گفته بودند که نسخههای بازسازی شده از نسخه اصلی بهترند. برای مثال 41 درصد از شرکتکنندگان گفته بودند که نسخه بازسازی شده کاپیتان مارول بهتر از نسخه اصلی بوده و 12 درصد هم اظهار کرده بودند که ریمیک ماتریکس از نسخه اصلی بهتر است.
با این حال یافتهها نشان داده که وقتی توضیحات متنی ویدیوی ساخته شده توسط دیپ فیک در اختیار افراد قرار میگرفته، گاها نتایج بهتر از خود ویدیوها بوده است. این امر نشان میدهد که احتمالا روشهای قدیمی مثل انتشار اطلاعات نادرست با استفاده از اخبار و مقالات میتواند احتمالا به اندازه هوش مصنوعی موثر واقع شود.
مورفی در این باره توضیح داد: «یافتههای ما لزوما نگرانکننده نیستن، چون نشون نمیدن دیپ فیک به طور مخصوصی و بیشتر از روشهای دیگه پخش اطلاعات نادرست میتونه تهدیدکنندگی زیادی داشته باشه.» البته او اشاره کرد که مطالعات آنها محدود به حافظه کوتاه مدت افراد میشود. او افزود: «شاید دیپ فیک واقعا وسیله قدرتمندتری واسه پخش اطلاعات نادرست باشه، چون واسه مثال احتمال پخش شدن سریعتر اونا بیشتره و بهتر تو حافظه بلندمدت میمونن.»
این موضوع میتواند به مسئلهای گستردهتر در بستر اطلاعات نادرست اشاره داشته باشد. چیزی به نام استدلال انگیزشی که اجازه میدهد تعصب و منفعتطلبی در درک یک چیز تاثیرگذار باشد. برای مثال اگر شما باور داشته باشید انتخابات سال 2020 آمریکا با دستکاری نتایج همراه بوده، احتمالاش بیشتر است که شما یک ویدیوی ساخته شده توسط دیپ فیک که نشاندهنده تقلب در شمارش رایها است را باور کنید تا کسی که چنین اعتقادی ندارد.
کریستوفر شوارتز، پژوهشگر امنیت سایبری و حوزه اطلاعات نادرست در موسسه فناوری راچستر، که در این تحقیق نقشی نداشته در این خصوص به The Daily Beast گفته: «همین موضوع مشکل اصلی در خصوص اطلاعات نادرست است. در واقع کیفیت اطلاعات و قابل استناد بودن منبع مشکل اصلی نیست، بلکه مسئله اینجاس که وقتی افراد بخوان یه چیز حقیقت داشته باشه، سعی میکنن یه جوری حقیقت داشتن اون چیزو به خودشون القا کنن.»
بر اساس گفته شوارتز، بخش بزرگی از دلیل وجود چشماندازهای سیاسی و فرهنگی کنونی جوامع ما به استدلال انگیزشی باز میگردد. شاید لزوما دیپ فیک و خبرهای جعلی قادر به فریب ما نباشند، اما بسیاری از ما سعی میکنیم به دنبال مقالات و خبرهای بگردیم که در واقع محتوایشان تاییدی بر باورهای خودمان است. ما خودمان را در حبابهای اجتماعی و دیجیتالی خود حبس میکنیم و فقط افکار مشخصی را مدام میبینیم و میشنویم. این امر تا جایی ادامه پیدا میکند که خودمان را قانع میکنیم که چیزی که به آن باور داریم تنها حقیقت موجود است.
همین موضوع هم باعث میشود که ویدیوهای ساخته شده توسط هوش مصنوعی و دیپ فیک حسابی پربازدید شوند؛ ویدیوهای مربوط به دستگیری دونالد ترامپ یا آتش گرفتن پنتاگون از جمله این موارد هستند که پیشتر در شبکههای اجتماعی حسابی دست به دست میشدند. شاید مسخره به نظر برسد، اما واقعیت این است که وقتی چنین اخبار و ویدیوهای فیکی چیزی را تایید میکنند که ما از قبل به آن باور داشتهایم، مغزمان آنها را همانقدر که برایمان رضایتبخش است، اطلاعات را واقعی جلوه میدهد.
scary clown fake video call
حجم:۷.۴ مگابایت
خوشبختانه هنوز امید وجود دارد. مورفی گفته که بسیاری از شرکتکنندگان در این تحقیق تایید کردهاند که استفاده از هوش مصنوعی دیپ فیک برای تغییر ظاهر شخصیتهای فیلمها، آنها را در خصوص آینده و پتانسیل استفاده از این تکنولوژی برای سوء استفاده از چهره بازیگران نگران کرده است. این گفته نشان میدهد که احتمالا عده زیادی مخالف دیپ فیک و استفاده از AI هستند؛ در نتیجه انتظار میرود شرکتها نتوانند بدون مشکل در آینده از این فناوری در رسانهها استفاده کنند.
او گفت: «اونا دوست نداشتن فیلمی رو ببینن که به بازیگرها غرامت کافی داده نشده یا هنرپیشهها برای استفاده از چهرهشون اجازه کامل ندادن. اونا چنین کاری رو غیرمعتبر و شکست هنری قلمداد میکردن.»
شوارتز در خصوص اطلاعات نادرست گفت که راه حل در دو مورد از مناقشهبرانگیزترین مسائل دوران مدرن جامعه آمریکا است: آموزش و رسانه. در ابتدا مردم باید سواد کافی درخصوص تکنولوژی داشته باشند تا بتوانند به راحتی ویدیوهای ساخته شده توسط دیپ فیک را تشخیص دهند. در مورد دومی هم باید گفت که افراد باید تمایل داشته باشند که عقاید خود را به چالش بکشند و تصاویر، مقالات یا دیگر محتواهای رسانهای که تاییدی بر باورهایشان است را به این راحتیها نپذیرند. این موضوع باید در کلاسهای درس مطرح شود و افراد باید از همان ابتدا فهم درستی از چنین مشکلاتی داشته باشند.
علاوه بر این، اتاقهای خبر و سازمانهای رسانهای وظیفه دارند نه تنها عموم را از خطراتی که هوش مصنوعی دیپ فیک میتواند به وجود آورد مطلع کنند، بلکه باید وقتی اطلاعات نادرستی منتشر میشود، حتما آن جعلی بودن ویدیو یا خبر را به گوش افراد برسانند.
شوارتز میگوید: «این جور مقالهها آگاهی رو افزایش میدن که یه جورایی مثل واکسیناسیون در رابطه با پخش اطلاعات نادرست به وسیله هوش مصنوعی عمل میکنه. اینجوری مردم همیشه حواسشون هست و اونایی که هدف قرار داده میشن از این جریان خبردار میشن.»
بنابراین باید آن چه در ادامه ذکر میکنیم را به عنوان یک هشدار در نظر بگیرید. ما در عصری هستیم که هوش مصنوعی مولد میتواند دست به تولید متن، تصاویر و ویدیوهایی بزند که به سرعت پخش و معروف میشوند. هر روز این ابزار قدرت و محبوبیت بیشتری به دست میآورند و نرخ استفاده از آنها افزایش پیدا میکند. این ابزارها علیه شما استفاده خواهند شد و احتمالا پیشتر هم علیهتان به کار گرفته شدهاند.
این مسئله ترسناک و قطعا گیجکننده است. اما همین که بدانیم چنین چیزی وجود دارد، قدم اول برای فهمیدن این است که چه چیزی حقیقی بوده و چه چیزی جعلی است. همین امر بدون تردید میتواند در برخورد با چنین چیزهایی در رفتار و واکنش ما تفاوت ایجاد کند.
شوارتز میگوید: «ما ابزار لازم واسه مقابله با این چیزها رو داریم. توانایی استدلال یه چیز خدادادیه. ما میتونیم ازش استفاده کنیم و در واقع باید به کار ببریمش.»
منبع: TheDailyBeast