ChatGPT خطرناک میشود؛ WormGPT بدون محدودیتهای اخلاقی
هوش مصنوعی WormGPT یک ابزار مخرب است که جایگزینی بدون محدودیتهای اخلاقی برای ChatGPT محسوب میشود. در ادامه این مطلب با مایکت همراه باشید.
با محبوب شدن هر چه بیشتر چت جی پی تی، ابزارهای مختلفی معرفی میشوند که بتوانند با آن رقابت کنند. یکی از آنها جوری طراحی شده که یک جایگزین غیراخلاقی با هدف انجام اعمال مجرمانه برای این چت بات باشد.
WormGPT یک هوش مصنوعی مخرب است که متنهایی متقاعدکننده را به شکلی که خیلی واقعی به نظر برسند تحویل میدهد. هکرها از این ابزار برای انجام فیشینگ (Fishing) با ایمیل، ساخت پستهای فیک در شبکههای اجتماعی و تولید دیگر محتواهای نامناسب استفاده میکنند.
- چطور از ChatGPT در گوشیهای اندروید و آیفون استفاده کنیم؟
- متا هوش مصنوعی متنبازش را برای رقابت با گوگل و OpenAI در دسترس قرار میدهد
- تست چتبات هوش مصنوعی پزشکی گوگل در بیمارستانها
این ابزار با استفاده از مدل زبانی متنبازی (Open Source) به نام GPT-J طراحی شده که در سال 2021 توسعه یافته است. علاوه بر ارائه محتوای متنی، WormGPT میتواند کدها را فرمتبندی کند تا برای استفاده در جرایم سایبری و نرمافزارهای مخرب مناسبتر شوند. این ابزار ویروسها و تروجانها (Trojan) را راحتتر وارد سیستمتان میکند و موجب آسانتر شدن انجام حملات فیشینگ میشود.
اما ترسناکترین بخش این تکنولوژی چیزی نیست جز نگه داشتن چتها در حافظهاش. با این کار WormGPT میتواند با توجه به سابقه گفتگوها و اطلاعات استخراج شده از آنها دست به شخصیسازی حملات بزند.
فروش حق دسترسی به این ابزار در حال حاضر فقط از طریق Dark Web صورت میگیرد هکرها و سازندگان بدافزارها میتوانند با پرداخت ماهیانه 67 دلار یا سالانه 617 دلار از این برنامه استفاده کنند.
SlashNext که یک شرکت در حوزه امنیت سایبری است، از طریق یک انجمن آنلاین به WormGPT دسترسی پیدا کرده است. آنها روی این ابزار بررسیهای زیادی انجام دادهاند و آن را به عنوان یک مدل هوش مصنوعی پیچیده معرفی میکنند. این شرکت میگوید WormGPT محدودیتهای اخلاقی ندارد.
چرا WormGPT بسیار وحشتناک است؟
در حال حاضر اکثر افراد نسبت به ایمیلهای فیشینگ اطلاع پیدا کردهاند و در دام نمیافتند؛ اما حالا WormGPT آمده تا از راههای پیچیدهتری دست به انجام حملات بزند. به طور خاص Business Email Compromise یا همان (BEC) یکی از انواع حملات فیشینگ است که در آن مجرمان سعی میکنند دارندگان حساب را فریب دهند تا آنها دست به انجام تراکنش زده یا به نحوی اطلاعات حساسشان را برملا کنند. این اقدام به انجام حملات سایبری ختم میشود.
دیگر ابزار هوش مصنوعی مثل ChatGPT و Bard قابلیتهای امنیتی دارند که موجب حفاظت از دادههای کاربران شده و مانع از این میشوند که کاربران از تکولوژی سوء استفاده کنند.
SlashNext در تحقیقات خود از WormGPT استفاده کرد تا ایمیلی ساخته و آن را به حسابکاربریای که کاملا از این موضوعات بیاطلاع است بفرستد و او را با یک فاکتور جعلی مجبور به پرداخته پول کند.
نتایج نشان میدهند که ایمیلهای ساخته شده با این ابزار نه تنها مخاطب را فریب میدهند، بلکه در متقاعد کردن فرد هم خیلی خوب کار میکنند. در نتیجه WormGPT پتانسیل شکل دادن حملات بزرگتر را هم دارد.
این ابزار در حملات فیشینگ هم کاربرد دارد و میتواند متنهایی قانعکننده را تولید کند تا موجب شود کاربران اطلاعات محرمانهشان را لو دهند. با این روش ممکن است اطلاعات مربوط به ورود به حسابهای کاربری گوناگون یا اطلاعات مالی فرد لو برود. این امر میتواند به بیشتر شدن پروندههای جعل هویت، سرقت مالی و لو رفتن اطلاعات شخصی منتهی شود.
هر چه تکنولوژی و به خصوص هوش مصنوعی پیشرفت میکند، پتانسیل هم برای استفاده از علم فناوری در انجام جرایم سایبری افزایش مییابد. هکرها از این تغییرات برای منافع شخصی استفاده کرده و سعی میکنند از هرچه در اختیار دارند برای آسیب زدن به دیگران استفاده کنند.
اسکرینشاتهای (Screenshot) پستهای منتشر شده در انجمنی که SlashNext از آن برای دسترسی به WormGPT استفاده کرده، نشان میدهد که توسعهدهنده این ابزار آن را بزرگترین دشمن شناختهشدهی ChatGPT میداند. او مدعی شده که با این ابزار میتوان هر کار مجرمانهای را انجام داد.
یک چالش بزرگ برای مجریان قانون
گزارش اخیر Europol هشدار میدهد که مدلهای زبانی بزرگ (LLM) نظیر ChatGPT که میتوانند توسعه پیدا کرده، دست به ایجاد تغییرات زده و محتوای متنی تولید کنند، توسط مجرمان برای کلاهبرداری و پخش اطلاعات نادرست مورد استفاده قرار گیرند.
در گزارش ذکر شده آمده که: «هرچه تکنولوژی توسعه پیدا میکند و مدلهای جدید در دسترس قرار میگیرند، این که مجریان قانون در خط مقدم قرار گرفته و دست به پیشبینی شرایط زده و از سوء استفادهها جلوگیری کنند، اهمیت بیشتری پیدا میکند. توانایی ChatGPT در تولید محتوایی که کاملا واقعی به نظر میرسند و استفاده از آن توسط کاربران میتواند آن را به یک ابزار برای اهداف فیشینگ تبدیل کند. پیشتر کلاهبرداری فیشینگ به خاطر برخی از اشتباهات تلفظی و گرامری واضخ، خیلی سادهتر قابل تشخیص بود. اما حالا جعل هویت یک سازمان یا شخص به خاطر وجود راههایی که متنها را بسیار واقعی جلوه میدهند راحتتر شده و برای این کار یک درک پایهای از زبان انگلیسی کافی است.»
Europol هشدار میدهد که LLMها به ابزاری برای هکرها تبدیل شدهاند که میتواند حملاتشان را سرعت ببخشند. همچنین این ابزار همهچیز را واقعیتر جلوه داده و وسعت حملات را بیشتر میکنند.
منبع: TomsGuide