امنیت دیجیتال: ۵ چیزی که نباید با هوش مصنوعی به اشتراک بگذارید
چتباتهای هوش مصنوعی، ابزارهای شگفتانگیزی هستند که میتوانند در بسیاری از زمینهها مفید واقع شوند، اما نباید از نقصها و قابلیتهای پنهان آنها غافل شد. با افزایش کاربردها و استقبال بینظیر از این فناوری، اهمیت حریم خصوصی بیشتر از قبل مورد توجه قرار میگیرد و برخی از اطلاعات، مانند شمارههای بانکی، رمزهای عبور یا هویت کاربر، بهتر است هرگز با چتباتها به اشتراک گذاشته نشوند؛ زیرا این دادهها ممکن است در سرورها ذخیره شوند و در معرض حملات سایبری یا سوءاستفاده قرار بگیرند. به همین دلیل، استفاده از چتباتها باید به سؤالات و درخواستهای غیرشخصی مانند پرسیدن راهکارهایی برای نوشتن مقاله یا یادگیری مفاهیم تخصصی و عمومی محدود شود.
قبل از استفاده از چتباتها، کاربران باید سیاستهای حفظ حریم خصوصی پلتفرم را بررسی کرده و مطمئن شوند که اطلاعات آنها به درستی مدیریت میشود. در محیطهای حرفهای و سازمانی نیز، تنظیم سیاستهای داخلی برای حفاظت از اطلاعات محرمانهی کاربران، ضروری است. کسبوکارها میتوانند از نسخههای سفارشیسازیشده یا سازمانی چتباتها استفاده کنند تا کنترل بیشتری روی دادههای خود داشته باشند و امنیت اطلاعات را تضمین کنند. در این مطلب قصد داریم تا به معرفی مواردی بپردازیم که نباید با هوش مصنوعی به اشتراک بگذارید. با ماه همراه باشید.
چالشهای امنیتی حین استفاده از چتباتها
چتباتهای هوش مصنوعی مانند ChatGPT و Gemini گوگل به دلیل توانایی در پاسخ به سوالات کاربران و ارائه اطلاعات کاربردی، بسیار محبوب هستند. با این حال، وابستگی آنها به مدلهای زبانی بزرگ (LLMs) با خطرات امنیتی و حریم خصوصی همراه است. این آسیبپذیریها نشان میدهند که چگونه اطلاعات شخصی که در طول تعامل به اشتراک گذاشته میشوند، ممکن است افشا یا مورد سوءاستفاده قرار بگیرند.
- شیوههای جمعآوری دادهها: چتباتها از دادههای زیادی برای آموزش استفاده میکنند که ممکن است شامل تعاملات کاربران نیز باشد. شرکتهایی مانند OpenAI به کاربران اجازه میدهند تا از جمعآوری دادهها انصراف دهند، اما تضمین اینکه تمام اطلاعات کاربران در امنیت کامل باشد، وجود ندارد.
- آسیبپذیری سرور: دادههای ذخیرهشده کاربران در معرض حملات هکری قرار دارند و ممکن است مجرمان سایبری، این اطلاعات را به سرقت برده و برای اهداف مخرب استفاده کنند.
- دسترسی سرویسهای شخص ثالث: دادههای تعاملات چتبات با کاربران ممکن است با ارائهدهندگان خدمات شخص ثالث به اشتراک گذاشته شود و این موضوع، خطر نقض امنیت را افزایش میدهد.
- استفاده تبلیغاتی از دادهها: اگرچه شرکتها ادعا میکنند که دادهها برای بازاریابی فروخته نمیشوند، اما برای اهدافی مانند نگهداری سیستم و عملیات داخلی به اشتراک گذاشته میشوند.
- نگرانیهای مربوط به هوش مصنوعی مولد: منتقدان معتقدند که گسترش استفاده از هوش مصنوعی مولد میتواند خطرات امنیتی و حریم خصوصی را تشدید کند.
اگر میخواهید در هنگام استفاده از ChatGPT و سایر چتباتها از دادههای خود محافظت کنید، آگاهی از خطرات حریم خصوصی مرتبط با آن ضروری است. اگرچه شرکتهایی مانند OpenAI سطحی از شفافیت و کنترل را برای کاربران فراهم میکنند، اما پیچیدگیهای مرتبط با اشتراکگذاری دادهها و آسیبپذیریهای امنیتی نیازمند دقت و توجه مداوم است.
1. اطلاعات مالی
با گسترش استفاده از چتباتهای هوش مصنوعی، بسیاری از کاربران برای دریافت مشاوره مالی و مدیریت امور شخصی به این چت بات ها روی آوردهاند. اگرچه این ابزارها میتوانند به بهبود سواد مالی کمک کنند، اما آگاهی از خطرات احتمالی اشتراکگذاری جزئیات مالی با چتباتهای هوش مصنوعی بسیار مهم است.
استفاده از چتباتها بهعنوان مشاور مالی میتواند خطراتی از جمله احتمال دسترسی مجرمان سایبری به اطلاعات مالی شما و سوءاستفاده از آنها برای خالی کردن حسابهای بانکی را به همراه داشته باشد. اگرچه شرکتها ادعا میکنند که دادههای مکالمات کاربران، ناشناس باقی میمانند، اما این اطلاعات ممکن است همچنان در دسترس برخی از کارکنان قرار بگیرند. بهعنوان نمونه، ممکن است چتباتها برای ارائه مشاوره مالی، عادتهای خرجکردن شما را تحلیل کنند، اما در صورتی که این دادهها به دست افراد غیرمجاز بیفتند، میتوانند برای ساخت پروفایل شما و انجام کلاهبرداریهایی مانند ارسال ایمیلهای فیشینگ با ظاهر بانک شما مورد استفاده قرار بگیرند.
برای محافظت از اطلاعات مالی خود، تعاملات خود با چتباتهای هوش مصنوعی را به اطلاعات کلی و سؤالات عمومی محدود کنید. به اشتراک گذاشتن جزئیات حساب، سوابق تراکنشها یا رمزهای عبور میتواند شما را در معرض خطر قرار دهد. اگر به مشاوره مالی شخصی نیاز دارید، مشاوره با یک مشاور مالی مجاز گزینهای ایمنتر و قابلاعتمادتر است.
ChatGPT
حجم:۴۹.۸ مگابایت
2. افکار شخصی
بسیاری از کاربران برای دریافت مشاورههای روانشناسی، به چتباتهای هوش مصنوعی روی آوردهاند؛ بدون اینکه از پیامدهای احتمالی این کار برای سلامت روان خود آگاه باشند. درک خطرات مرتبط با افشای اطلاعات شخصی و خصوصی به این چتباتها ضروری است و اگر بخواهید بدون توجه به افشای اطلاعات شخصی، به اینکار ادامه بدهید، پس از مدتی، ویژگیهای شخصیتی و مشکلاتی که با آنها دست و پنجه نرم میکنید، به شکل تمام و کمال در دسترس چتبات قرار میگیرد و از طریق این دادهها، به راحتی از شما سوء استفاده میشود.
چتباتهای هوش مصنوعی فاقد دانش واقعی و تخصصی در دنیای ما هستند و تنها میتوانند پاسخهای کلی به سؤالات مرتبط با سلامت روان ارائه دهند. این بدان معناست که داروها یا درمانهایی که پیشنهاد میکنند ممکن است برای نیازهای خاص شما مناسب نباشد و حتی برای سلامت شما مضر باشد. علاوهبراین، بعضی از گروههای فعال در زمینه هوش مصنوعی، اقدام به ساخت پرسوناهای مختلف کردهاند که کاربران میتوانند از طریق آنها به تنهایی خود پایان دهند و با آنها صحبت کنند.
با اینکه این ایده میتواند به بسیاری از کاربران کمک کند، اما تنهایی چیزی نیست که با حضور یک چتبات حل شود. علاوهبراین، هرچقدر که بیشتر با پرسونا حرف بزنید، اطلاعات بیشتری از زندگی شخصی خود را در اختیارش قرار میدهید و در آینده بر ضد خودتان عمل میکند. از اینرو، بهتر است تا مشکلات و بیماریهای خود را با پزشک و افراد متخصص در میان بگذارید
3. اطلاعات شغلی
یکی دیگر از اشتباهاتی که کاربران باید هنگام تعامل با چتباتهای هوش مصنوعی از آن جلوگیری کنند، اشتراکگذاری اطلاعات محرمانه مرتبط با شغل است. شرکتهای بزرگ فناوری مانند اپل، سامسونگ و گوگل، استفاده از چتباتهای هوش مصنوعی را در محیط کار برای کارکنان خود محدود کردهاند.
گزارشی از بلومبرگ به موردی اشاره کرده است که در آن کارکنان سامسونگ برای کدنویسی از ChatGPT استفاده کردند و بهطور ناخواسته، کدهای حساس را در این پلتفرم هوش مصنوعی مولد بارگذاری کردند. این اتفاق به افشای اطلاعات محرمانه سامسونگ منجر شد و شرکت را وادار کرد تا استفاده از چتباتهای هوش مصنوعی را ممنوع کند. اگر از هوش مصنوعی برای حل مشکلات کدنویسی یا سایر مسائل کاری استفاده میکنید، نباید به این چتباتها برای مدیریت اطلاعات محرمانه اعتماد کنید.
با این وجود، بسیاری از کارکنان از چتباتهای هوش مصنوعی برای خلاصه کردن صورتجلسههای ملاقاتها یا اتوماسیون وظایف روزانه استفاده میکنند که این کار، خطر افشای ناخواسته دادههای حساس را به همراه دارد. با آگاهی از خطرات مرتبط با اشتراکگذاری دادههای کاری، میتوانید از اطلاعات مهم خود محافظت کرده و از در دسترس قرار دادن اطلاعات شغلی جلوگیری کنید.
4. رمز حسابهای کاربری
رمز عبور، کلید دسترسی به اطلاعات شخصی و حسابهای حساس شما محسوب میشود و ارائه آنها به هوش مصنوعی، میتواند امنیت شما را به طور جدی تهدید کند. مدلهای زبانی ممکن است دادههای ورودی را برای بهبود عملکرد خود ذخیره کنند که این امر خطر سوءاستفاده یا افشای ناخواسته اطلاعات را افزایش میدهد. برای محافظت از حریم خصوصی، به هیچ وجه رمزهای عبور خود را در این پلتفرمها وارد نکنید و از ابزارهای مطمئن مدیریت رمز عبور برای ذخیره و مدیریت آنها استفاده کنید. رعایت این اصول ساده میتواند از شما در برابر حملات سایبری و نقض امنیت اطلاعات محافظت کند.
در ماه مه ۲۰۲۲، چتبات Chat GPT دادههای کاربران را به شکل ناخواسته فاش کرد که موجب نگرانی کاربران زیادی شد. علاوه بر این، ChatGPT در ایتالیا به دلیل عدم رعایت مقررات عمومی حفاظت از دادههای اتحادیه اروپا ممنوع شد. مقامات ایتالیایی، این هوش مصنوعی را غیرمنطبق با قوانین حریم خصوصی تشخیص دادند و این ممنوعیت، خطرات نقض دادهها در این پلتفرم را برجسته کرد. اگرچه این ممنوعیت مدتهاست لغو شده، اما نشان میدهد که حتی با وجود بهبود اقدامات امنیتی توسط شرکتها، آسیبپذیریها همچنان پابرجاست.
برای محافظت از اطلاعات خود، هرگز آنها را حتی برای رفع مشکلات فنی با چتباتها به اشتراک نگذارید و اگر نیاز به بازیابی یا مدیریت رمزهای عبور دارید، از سرویس پشتیبانی برنامه استفاده کنید
5. اطلاعات محل سکونت
مانند شبکههای اجتماعی و سایر پلتفرمهای آنلاین، نباید هیچگونه اطلاعات شخصی را با چتباتها به اشتراک بگذارید. اطلاعات شناسایی شخصی شامل دادههای حساسی مانند محل سکونت، شماره ملی، تاریخ تولد و اطلاعات بهداشتی و درمانی است که میتوانند برای شناسایی یا پیدا کردن شما مورد استفاده قرار بگیرند. برای مثال، ذکر تصادفی آدرس خانه هنگام درخواست کمک از یک چتبات ممکن است شما را در معرض خطر قرار دهد. اگر این دادهها افشا شوند، ممکن است شخصی از آنها برای سرقت هویت یا پیدا کردن شما در دنیای واقعی استفاده کند. بهطور مشابه، اشتراکگذاری بیش از حد اطلاعات و مشخصات در پلتفرمهای یکپارچه با هوش مصنوعی مانند اسنپچت، میتواند به شکل ناخواسته، اطلاعات بیشتری از شما را فاش کند.
برای حفظ امنیت دادههای شخصی خود هنگام تعامل با هوش مصنوعی، نکات کلیدی زیر را دنبال کنید:
- با سیاستهای حریم خصوصی چتباتها آشنا شوید تا از خطرات مرتبط آگاه شوید.
- از مطرح کردن سؤالاتی که ممکن است بهطور ناخواسته هویت یا اطلاعات شخصی شما را فاش کنند، خودداری کنید.
- در ارائه اطلاعات پزشکی به چتباتهای هوش مصنوعی احتیاط کرده و از اشتراکگذاری آنها پرهیز کنید.
- هنگام استفاده از چتباتهای هوش مصنوعی در شبکههای اجتماعی مانند اسنپچت، نسبت به آسیبپذیری احتمالی دادههای خود آگاه باشید.
چتباتهای هوش مصنوعی در زمینههای گستردهای مورد استفاده قرار میگیرند، اما در مقابل، میتوانند به یک تهدید نیز تبدیل شوند. محافظت از دادههای شخصی هنگام استفاده از ابزارهایی مانند ChatGPT، Copilot، Claude یا هر چتبات دیگری کار دشواری نیست و تنها کافی است قبل از اشتراکگذاری اطلاعات، لحظهای به این فکر کنید که در صورت افشای آنها چه پیامدهایی ممکن است رخ دهد. این روش به شما کمک میکند تا بدانید چه چیزهایی را باید به اشتراک بگذارید و چه چیزهایی را نزد خودتان حفظ کنید.
منبع: MUO