ChatGPT خطرناک می‌شود؛ WormGPT بدون محدودیت‌های اخلاقی

هوش مصنوعی WormGPT یک ابزار مخرب است که جایگزینی بدون محدودیت‌های اخلاقی برای ChatGPT محسوب می‌شود. در ادامه این مطلب با مایکت همراه باشید.

با محبوب شدن هر چه بیش‌تر چت جی پی تی، ابزارهای مختلفی معرفی می‌شوند که بتوانند با آن رقابت کنند. یکی از آن‌ها جوری طراحی شده که یک جایگزین غیراخلاقی با هدف انجام اعمال مجرمانه برای این چت بات باشد.

WormGPT یک هوش مصنوعی مخرب است که متن‌هایی متقاعدکننده را به شکلی که خیلی واقعی به نظر برسند تحویل می‌دهد. هکرها از این ابزار برای انجام فیشینگ (Fishing) با ایمیل، ساخت پست‌های فیک در شبکه‌های اجتماعی و تولید دیگر محتواهای نامناسب استفاده می‌کنند.

این ابزار با استفاده از مدل زبانی متن‌بازی (Open Source) به نام GPT-J طراحی شده که در سال 2021 توسعه یافته است. علاوه بر ارائه محتوای متنی، WormGPT می‌تواند کدها را فرمت‌بندی کند تا برای استفاده در جرایم سایبری و نرم‌افزارهای مخرب مناسب‌تر شوند. این ابزار ویروس‌ها و تروجان‌ها (Trojan) را راحت‌تر وارد سیستم‌تان می‌کند و موجب آسان‌تر شدن انجام حملات فیشینگ می‌شود.

اما ترسناک‌ترین بخش این تکنولوژی چیزی نیست جز نگه داشتن چت‌ها در حافظه‌اش. با این کار WormGPT می‌تواند با توجه به سابقه گفتگوها و اطلاعات استخراج شده از آن‌ها دست به شخصی‌سازی حملات بزند.

فروش حق دسترسی به این ابزار در حال حاضر فقط از طریق Dark Web صورت می‌گیرد هکرها و سازندگان بدافزارها می‌توانند با پرداخت ماهیانه 67 دلار یا سالانه 617 دلار از این برنامه استفاده کنند.

SlashNext که یک شرکت در حوزه امنیت سایبری است، از طریق یک انجمن آنلاین به WormGPT دسترسی پیدا کرده است. آن‌ها روی این ابزار بررسی‌های زیادی انجام داده‌اند و آن را به عنوان یک مدل هوش مصنوعی پیچیده معرفی می‌کنند. این شرکت می‌گوید WormGPT محدودیت‌های اخلاقی ندارد.

چرا WormGPT بسیار وحشتناک است؟

ChatGPT خطرناک می‌شود؛ WormGPT بدون محدودیت‌های اخلاقی

در حال حاضر اکثر افراد نسبت به ایمیل‌های فیشینگ اطلاع پیدا کرده‌اند و در دام نمی‌افتند؛ اما حالا WormGPT آمده تا از راه‌های پیچیده‌تری دست به انجام حملات بزند. به طور خاص Business Email Compromise یا همان (BEC) یکی از انواع حملات فیشینگ است که در آن مجرمان سعی می‌کنند دارندگان حساب را فریب دهند تا آن‌ها دست به انجام تراکنش زده یا به نحوی اطلاعات حساس‌شان را برملا کنند. این اقدام به انجام حملات سایبری ختم می‌شود.

دیگر ابزار هوش مصنوعی مثل ChatGPT و Bard قابلیت‌های امنیتی دارند که موجب حفاظت از داده‌های کاربران شده و مانع از این می‌شوند که کاربران از تکولوژی سوء استفاده کنند.

SlashNext در تحقیقات خود از WormGPT استفاده کرد تا ایمیلی ساخته و آن را به حساب‌کاربری‌ای که کاملا از این موضوعات بی‌اطلاع است بفرستد و او را با یک فاکتور جعلی مجبور به پرداخته پول کند.

نتایج نشان می‌دهند که ایمیل‌های ساخته شده با این ابزار نه تنها مخاطب را فریب می‌دهند، بلکه در متقاعد کردن فرد هم خیلی خوب کار می‌کنند. در نتیجه WormGPT پتانسیل شکل دادن حملات بزرگ‌تر را هم دارد.

این ابزار در حملات فیشینگ هم کاربرد دارد و می‌تواند متن‌هایی قانع‌کننده را تولید کند تا موجب شود کاربران اطلاعات محرمانه‌شان را لو دهند. با این روش ممکن است اطلاعات مربوط به ورود به حساب‌های کاربری گوناگون یا اطلاعات مالی فرد لو برود. این امر می‌تواند به بیش‌تر شدن پرونده‌های جعل هویت، سرقت مالی و لو رفتن اطلاعات شخصی منتهی شود.

هر چه تکنولوژی و به خصوص هوش مصنوعی پیشرفت می‌کند، پتانسیل هم برای استفاده از علم فناوری در انجام جرایم سایبری افزایش می‌یابد. هکرها از این تغییرات برای منافع شخصی استفاده کرده و سعی می‌کنند از هرچه در اختیار دارند برای آسیب زدن به دیگران استفاده کنند.

اسکرین‌شات‌های (Screenshot) پست‌های منتشر شده در انجمنی که SlashNext از آن برای دسترسی به WormGPT استفاده کرده، نشان می‌دهد که توسعه‌دهنده این ابزار آن را بزرگ‌ترین دشمن شناخته‌شده‌ی ChatGPT می‌داند. او مدعی شده که با این ابزار می‌توان هر کار مجرمانه‌ای را انجام داد.

یک چالش بزرگ برای مجریان قانون

ChatGPT خطرناک می‌شود؛ WormGPT بدون محدودیت‌های اخلاقی

گزارش اخیر Europol هشدار می‌دهد که مدل‌های زبانی بزرگ (LLM) نظیر ChatGPT که می‌توانند توسعه پیدا کرده، دست به ایجاد تغییرات زده و محتوای متنی تولید کنند، توسط مجرمان برای کلاه‌برداری و پخش اطلاعات نادرست مورد استفاده قرار گیرند.

در گزارش ذکر شده آمده که: «هرچه تکنولوژی توسعه پیدا می‌کند و مدل‌های جدید در دسترس قرار می‌گیرند، این که مجریان قانون در خط مقدم قرار گرفته و دست به پیش‌بینی شرایط زده و از سوء استفاده‌ها جلوگیری کنند، اهمیت بیش‌تری پیدا می‌کند. توانایی ChatGPT در تولید محتوایی که کاملا واقعی به نظر می‌رسند و استفاده از آن توسط کاربران می‌تواند آن را به یک ابزار برای اهداف فیشینگ تبدیل کند. پیش‌تر کلاه‌برداری فیشینگ به خاطر برخی از اشتباهات تلفظی و گرامری واضخ، خیلی ساده‌تر قابل تشخیص بود. اما حالا جعل هویت یک سازمان یا شخص به خاطر وجود راه‌هایی که متن‌ها را بسیار واقعی جلوه می‌دهند راحت‌تر شده و برای این کار یک درک پایه‌ای از زبان انگلیسی کافی است.»

Europol هشدار می‌دهد که LLMها به ابزاری برای هکرها تبدیل شده‌اند که می‌تواند حملات‌شان را سرعت ببخشند. همچنین این ابزار همه‌چیز را واقعی‌تر جلوه داده و وسعت حملات را بیش‌تر می‌کنند.

منبع: TomsGuide

دکمه بازگشت به بالا
دانلود مایکت ×