چرا ابزار تشخیص محتوای هوش مصنوعی قابل اتکا نیست؟
با پیشرفت روز افزون هوش مصنوعی و توانایی آن در تولید انواع محتوا، از جمله متن، تصویر و حتی ویدیو، نیاز به ابزارهایی برای تشخیص این محتوا از محتوای تولید شده توسط انسان بیش از پیش احساس میشود. ابزار تشخیص محتوای هوش مصنوعی با تحلیل الگوها، ساختار و ویژگیهای خاص محتوای تولید شده توسط هوش مصنوعی، قادر هستند تا با دقت نسبی، منشأ تولید یک محتوا را تشخیص دهند.
ابزارهای تشخیص محتوای هوش مصنوعی کاربردهای متنوعی دارند. از جمله این کاربردها میتوان به تشخیص اخبار جعلی، شناسایی مقالات علمی تقلبی، بررسی اصالت آثار هنری و ادبی و ارزیابی کیفیت محتوای تولید شده توسط مدلهای زبانی اشاره کرد. همچنین، این ابزارها میتوانند در حوزههای آموزشی و پژوهشی به عنوان یک ابزار مفید برای بررسی اصالت آثار دانشجویان و محققان به کار بروند.
الگوریتمهای این ابزارها بر اساس تکنیکهای یادگیری ماشین و پردازش زبان طبیعی طراحی شدهاند. این الگوریتمها با تحلیل حجم عظیمی از دادههای آموزشی، قادر هستند تا الگوها و ویژگیهای خاص محتوای تولید شده توسط انسان و هوش مصنوعی را شناسایی کنند. با این حال، تشخیص دقیق و قطعی محتوای تولید شده توسط هوش مصنوعی هنوز هم یک چالش بزرگ است و این ابزارها ممکن است در برخی موارد دچار خطا شوند.
متاسفانه، با وجود تبلیغ شرکتهای فعال در زمینه هوش مصنوعی مبنی بری عملکرد بینظیر ابزار تشخیص محتوای هوش مصنوعی، همچنان این ابزارها نمیتوانند به درستی، متون نوشته شده را تشخیص دهند و از اینرو، تا حدی بیمصرف هستند. در این مقاله قصد داریم به این موضوع بپردازیم که چرا ابزارهای تشخیص محتوای هوش مصنوعی همیشه کاربردی نیستند. با ما همراه باشید.
نحوه عملکرد ابزار تشخیص محتوای هوش مصنوعی
ابزار تشخیص محتوای هوش مصنوعی از روشهای مختلفی برای تشخیص متن نوشته شده توسط انسان و هوش مصنوعی استفاده میکند. این ابزارها معمولاً از طریق مجموعه دادههای عظیمی از متون آموزش میبینند و با استفاده از الگوریتمهای پیچیده، ویژگیهایی مانند پیچیدگی (Perplexity) و تنوع کلمات را در متن مورد تحلیل قرار میدهند.
مدلهای زبانی بزرگ مانند GPT-4 با تغذیه از حجم عظیمی از متون نوشته شده توسط انسان، به دانش عمیقی از زبان دست مییابند. این مدلها، میلیونها کتاب، مقاله و وبسایت را بررسی میکنند تا الگوهای زبانی انسان را شناسایی کنند. در این فرایند، متن به بخشهای کوچکتر تقسیم شده و به نمایشهای عددی یا بردارهایی تبدیل میشود که معنای کلمات و روابط بین آنها را نشان میدهند. به این ترتیب، مدل یاد میگیرد که چگونه کلمات و عبارات را در کنار هم قرار دهد تا جملهها و پاراگرافهای معنیدار بسازد.
نکته قابل توجه این است که این مدلها دانش ذاتی ندارند و دانش آنها از دنیای نویسندگی و محتوا، به دادههای آموزشی خلاصه میشود. به عبارت دیگر، خروجی مدل زبانی، ترکیبی از الگوها و ساختارهایی است که در دادههای آموزشی وجود داشته است. هنگامی که یک مدل زبانی بزرگ، متنی را تولید میکند، در واقع ترکیبی از عناصر مختلفی است که از دادههای آموزشی استخراج شدهاند.
به همین دلیل، حتی با وجود اینکه متن تولید شده توسط هوش مصنوعی ممکن است بسیار خلاقانه و اصیل به نظر برسد، باز هم رد پای انسان در آن دیده میشود. این ردپا در قالب الگوهای زبانی، سبک نگارش و حتی برخی از عبارات و اصطلاحاتی که در دادههای آموزشی وجود داشته است دیده میشود. میتوان گفت که مدلهای زبانی بزرگ مانند یک هنرمند هستند که با استفاده از رنگها و ابزارهای مختلف، آثار هنری جدیدی خلق میکنند، اما این آثار هنری همیشه تحت تأثیر سبک و تکنیکهای هنرمندانی هستند که قبلاً از آنها الهام گرفته شده است.
یکی از مهمترین مفاهیم در این زمینه، مفهوم «پیچیدگی» است. پیچیدگی نشان میدهد که یک متن تا چه حد از الگوهای زبانی رایج و آموزش داده شده به مدل فاصله دارد. متون تولید شده توسط انسان معمولاً پیچیدگی کمتری دارند؛ زیرا اغلب از ساختارهای زبانی شناخته شده و عبارات رایج استفاده میکنند. در مقابل، متون تولید شده توسط هوش مصنوعی ممکن است پیچیدگی بیشتری داشته باشند و از الگوهای غیرمنتظره و ترکیبات کلمات غیرمعمولی استفاده کنند و در نهایت، از طبیعی بودن فاصله بگیرند.
ابزارهای تشخیص متن با استفاده از معیارهایی مانند «پیچیدگی» و «تنوع کلمات»، احتمال اینکه یک متن توسط انسان یا هوش مصنوعی تولید شده باشد را تخمین میزنند. با این حال، این ابزارها کامل نیستند و ممکن است در برخی موارد اشتباه کنند. به عنوان مثال، متونی که بسیار غیرمعمول یا خلاقانه هستند، ممکن است توسط ابزارهای تشخیص متن به عنوان متن نوشته شده توسط هوش مصنوعی طبقهبندی شوند؛ حتی اگر توسط انسان نوشته شده باشند.
به طور کلی، هرچقدر یک متن پیشبینیپذیرتر و مطابق با الگوهای زبانی شناخته شده باشد، پیچیدگی کمتری دارد و احتمال تشخیص آن به عنوان محتوای تولید شده توسط هوش مصنوعی بیشتر میشود. این مفهوم، ما را به یک پرسش جالب در مورد ساختار و زبان به کار رفته در قانون اساسی آمریکا سوق میدهد.
1. تشخیص اشتباه
ابزارهای تشخیص هوش مصنوعی، به رغم ادعای دقت بالا، همچنان در تشخیص دقیق محتوای تولید شده توسط هوش مصنوعی با چالش مواجهاند. آزمایشهای متعدد با ChatGPT نشان داد که این ابزارها در بسیاری از موارد، محتوای تولید شده توسط هوش مصنوعی را به درستی شناسایی نمیکنند. به عنوان مثال، متنی که توسط ChatGPT در مورد دوربینهای آیفون ۱۵ پرو تولید شده بود، توسط ZeroGPT به عنوان «صددرصد» نوشته شده توسط انسان تشخیص داده شد. این امر نشان میدهد که نمیتوان به طور کامل به نتایج این ابزارها اعتماد کرد و برای اطمینان از اصالت و صحت محتوا، باید روشهای دیگری را نیز بکار برد.
2. توماس جفرسون و سفر در زمان
تصور کنید قانون اساسی ایالات متحده، سند بنیادین یک دموکراسی قدرتمند را در یک ابزار تشخیص محتوای هوش مصنوعی قرار دهیم. نتیجه شگفتانگیز خواهد بود. این ابزار ممکن است با اطمینان اعلام کند که این سند تاریخی، توسط یک هوش مصنوعی نوشته شده است! دلیل این پارادوکس عجیب آن است که سبک نوشتاری رسمی و ساختار قانون اساسی، به شدت شبیه به متن تولید شده توسط مدلهای زبانی امروزی است. به عبارت دیگر، مدلهای هوش مصنوعی به قدری خوب آموزش دیدهاند که میتوانند متونی آماده کنند که از نظر سبک و ساختار، از متون نوشته شده توسط انسان غیرقابل تشخیص باشند
اما قانون اساسی آمریکا، تنها قربانی این قضایا نیست. اعلامیه استقلال ایالات متحده، یکی از مشهورترین متون تاریخی جهان است که توسط توماس جفرسون در سال ۱۷۷۶ نوشته شده است. با توجه به اینکه هوش مصنوعی در آن زمان وجود نداشت، این ادعا که بخشی از این سند توسط یک سیستم هوشمند تولید شده، بسیار عجیب به نظر میرسد، اما چگونه ابزار هوش مصنوعی ZeroGPT به چنین نتیجهای رسیده است؟ آیا ممکن است این ابزار در تشخیص تفاوت بین متن نوشته شده توسط انسان و هوش مصنوعی دچار اشتباه شده باشد؟
در واقع، سبک نوشتاری قانون اساسی آنقدر در این مدلها ریشه دوانده است که ابزارها آن را به عنوان متن هوش مصنوعی طبقهبندی میکنند و درصد تایید آنها بالا خواهد بود
ChatGPT
حجم:۲۲.۵ مگابایت
3. تشخیص اشتباه متن
کتاب مقدس عبری، قرنها قبل از اختراع کامپیوتر نوشته شده است. با این حال، ابزار هوش مصنوعی ZeroGPT ادعا میکند که این کتاب کاملاً توسط یک هوش مصنوعی تولید شده است. این اطلاعات نشان میدهد که ابزارهای تشخیص محتوای تولید شده توسط هوش مصنوعی هنوز در مراحل اولیه توسعه هستند و ممکن است در تشخیص دقیق بین متن نوشته شده توسط انسان و ماشین دچار اشتباه شوند. به نظر میرسد این ابزارها به جای تمرکز بر محتوای واقعی متن، بیشتر به الگوهای زبانی و ساختاری آن توجه میکنند.
4. داستان Moby Dick
مدلهای هوش مصنوعی برای آموزش به حجم عظیمی از دادهها نیاز دارند. متون کلاسیک مانند موبی-دیک، به دلیل زیبایی و پیچیدگی زبانی، بخشی از این دادهها هستند. به همین دلیل، این مدلها با الگوهای زبانی موجود در این متون آشنا هستند. با این حال، این بدان معنا نیست که موبی-دیک توسط یک هوش مصنوعی نوشته شده است. ابزار تشخیص محتوای هوش مصنوعی در این مورد نشان میدهد که هنوز راه زیادی تا رسیدن به موفقیت وجود دارد.
5. مسئله اصالت محتوا
مدلهای زبانی بزرگ، با قابلیتهای پیشرفته خود، فرصتهای بینظیری را برای تقویت خلاقیت و نوآوری انسان فراهم کردهاند. با بهرهگیری هوشمندانه از این مدلها و تکنیکهای پرامپت نویسی، میتوانیم به نتایج شگفتانگیزی دست یابیم. در این فرایند، هوش مصنوعی به عنوان یک همکار خلاق عمل میکند و انسان را در تولید ایدههای بدیع و ساختارمند یاری میرساند. موتورهای دانش، منطق و خلاقیت این مدلها، به ترتیب مسئولیت شناسایی الگوها، ایجاد ارتباطات منطقی و تولید ایدههای نو را بر عهده دارند. این همکاری تنگاتنگ بین انسان و هوش مصنوعی، نه تنها به تولید محتوای باکیفیتتر کمک میکند، بلکه مرزهای دانش و خلاقیت را نیز گسترش میدهد.
این وضعیت همچنان ادامه دارد
ابزار تشخیص محتوای هوش مصنوعی، علیرغم پیشرفتهای چشمگیر، هنوز نتوانستهاند به طور کامل در این چالش پیروز شوند. یکی از دلایل اصلی این محدودیت، مفهوم «تنوع» یا (burstiness) است که در نوشتههای انسانی وجود دارد. اگرچه این ابزارها تلاش میکنند تا با تحلیل ساختار جمله، انتخاب واژگان و سایر ویژگیهای زبانی، محتوای تولید شده توسط هوش مصنوعی را شناسایی کنند، اما توانایی تقلید انسان از سبکهای نوشتاری مختلف و پیشرفت روزافزون مدلهای زبانی بزرگ، این کار را بسیار دشوار کرده است. علاوه بر این، تفاوتهای زبانی و فرهنگی نیز بر دقت این ابزارها تأثیرگذار است.