;
coinex

محققان استنفورد: ابزارهای تشخیص محتوای ساخته‌شده با ChatGPT به سادگی فریب می‌خورند

محققان استنفورد در تحقیقات جدید خود دریافتند که ابزارهای تشخیص محتوای ساخته‌شده با ChatGPT به سادگی فریب تکنولوژی پیشرفته را می‌خورند.

محققان دانشگاه استنفورد بریج اخیراً دریافتند که تشخیص محتوای ساخته‌شده با ChatGPT برای ابزارهای آنتی ChatGPT اصلاً آسانی نیست و این ابزارها به‌سادگی فریب می‌خورند. ابن محققان برای رسیدن به نتیجه مورد بحث، چت‌بات مبتنی‌بر هوش مصنوعی OpenAI را بارها به چالش کشیده و در آخر متوجه شدند که این چت‌بات به سادگی می‌تواند ابزارهای ضد خود را فریب دهد.

بیشتر بخوانید: تولید یک مقاله پژوهشی کامل در کمتر از یک ساعت با ChatGPT

ابزارهای تشخیص محتوای ساخته‌شده با ChatGPT به سادگی فریب می‌خورند

متنی‌که اکنون می‌خوانید را یک انسان تایپ کرده اما شاید با متن‌های دیگری در اینترنت مواجه شوید که عامل انسانی آن‌ها را ننوشته باشد. با ظهور برنامه‌های هوش مصنوعی مولد ازجمله ChatGPT و میدجورنی، اکنون عموم مردم می‌توانند به‌طور رایگان از آن‌ها برای تولید متن، تصویر و غیره بهره ببرند و بدین ترتیب تشخیص محتوایی که انسان‌ها تولید می‌کنند سخت‌تر شده است.

هوش مصنوعی، سیستم‌های کامپیوتری خودکار، الگوریتم‌ها و یادگیری ماشینی از مدت‌ها قبل در رسانه‌های اجتماعی، تحقیقات علمی، تبلیغات، کشاورزی و صنعت استفاده می‌شوند، اما ظهور ChatGPT به ایجاد رقابتی بسیار شدید منجر شد و حتی دانش‌آموزان از این ابزار برای تقلب بهره می‌برند و برخی دیگر برای نگارش مقالات علمی از هوش مصنوعی استفاده می‌کنند. به‌همین دلیل سیستم‌هایی برای تشخیص محتوای ساخته‌شده با هوش مصنوعی در دسترس قرار گرفته تا جلوی سؤاستفاده‌های احتمالی را بگیرد.

ابزارهای تشخیص محتوای ساخته‌شده با ChatGPT به سادگی فریب می‌خورند

محققان دانشگاه استنفورد با انتشار مقاله‌ای در مجله‌ Patterns نشان دادند که برنامه‌های تشخیص محتوای ایجادشده با هوش مصنوعی، چقدر قابل‌اعتماد هستند. این تیم تحقیقاتی درکمال تعجب دریافت که برخی از محبوب‌ترین ابزارهای شناسایی محتوای GPT، معمولاً نوشته‌های غیر انگلیسی را به‌عنوان متون هوش مصنوعی طبقه‌بندی می‌کنند.

محققان استنفورد ۹۱ مقاله‌ تافل (آزمون انگلیسی به‌عنوان زبان خارجی) انجمن چینی و ۸۸ مقاله‌ای که دانش‌آموزان کلاس هشتم ایالات‌متحده نوشته‌اند را مورد بررسی قرار داد. آن‌ها درمرحله‌ بعد چندین برنامه‌ آشکارساز محتوای تولیدشده با GPT ازجمله GPTZero را اجرا کرده و دریافتند فقط ۵٫۱ درصد از مقالات دانشجویان ایالات‌متحده به‌عنوان هوش منصوعی طبقه‌بندی شده‌اند. ازطرف دیگر، مقالات تافل که انسان‌ها آن‌ها را نوشته بودند در ۶۱ درصد مواقع به‌اشتباه به‌عنوان متن ایجاد شده با هوش مصنوعی شناسایی شد. یکی از برنامه‌های مذکور ۹۷٫۹ درصد از مقالات تافل را به هوش مصنوعی نسبت داد.

محققان با بررسی عمیق‌تر، متوجه شدند برخی مقالات احتمالاً به‌دلیل تغییر متن به‌عنوان محتوای تولید شده با هوش مصنوعی طبقه‌بندی شده‌اند. پیش‌از این مشخص شده بود افراد غیرانگلیسی زبان در متن‌های انگلیسی خود از کلمات کم‌تری استفاده می‌کنند زیرا دایره‌ لغات آن‌ها درمقایسه با افرادی که زبانشان انگلیسی است بسیار کوچک‌تر درنظر گرفته می‌شود و برنامه‌های‌ آشکارساز محتوای هوش مصنوعی چنین متونی را به‌عنوان هوش مصنوعی درنظر می‌گیرند.

این یعنی اگر از متن ادبی‌تر استفاده کنید، ابزارهای مذکور آن را به‌عنوان محتوای ایجاد شده با هوش مصنوعی درنظر نمی‌گیرند.

محققان استنفورد آزمایش دیگری انجام دادند و از هوش مصنوعی بهره گرفتند تا مشخص شود آیا نرم‌افزارهای تشخیص‌دهنده‌ نوع محتوا، متون موردنظر را به‌درستی به‌عنوان محتوای هوش مصنوعی شناسایی کرده‌اند یا خیر.

تیم محققان استنفورد از ChatGPT برای ایجاد پاسخ به درخواست‌های مقاله‌ پذیرش کالج ایالات‌متحده استفاده کردند. مقالات ایجاد شده با چت‌بات OpenAI ازطریق چندین ابزار آشکارساز منبع محتوا، مورد بررسی قرار گرفت. تیم تحقیقاتی دریافت نرم‌افزارهای موردبحث به‌طور متوسط ۷۰ درصد مقالات مذکور را به‌عنوان هوش مصنوعی علامت‌گذاری می‌کنند. به‌هرحال درنهایت مشخص شد اگر متن مقاله را با زبان ادبی‌‌تر تغییر دهید، دیگر به‌عنوان هوش مصنوعی شناخته نمی‌شوند.

ابزارهای تشخیص محتوای ساخته‌شده با ChatGPT به سادگی فریب می‌خورند

تیم تحقیقاتی در آزمایشی دیگر، مقالاتی ایجاد کرد که نرم‌افزار‌های تشخیص محتوای GPT فقط در ۳٫۳ درصد از مواقع، متون ایجاد شده با هوش مصنوعی را به‌درستی تشخیص دادند. با ارائه‌ چکیده‌های علمی نیز می‌توانید نتایج مشابهی از این نوع برنامه‌ها به‌دست آورید.

جیمز زو، دانشمند داده‌های زیست‌پزشکی دانشگاه استنفورد به‌عنوان یکی از نویسندگان مقاله‌ فوق می‌گوید:

انتظار نداشتیم این آشکارسازها روی متن افراد و غیر انگلیسی‌ زبان تا این حد ضعیف عمل کند یا به‌راحتی فریب بخورد.

این تحقیقات سؤال مهمی در ذهن ایجاد می‌کند:‌ اگر فریب دادن آشکارسازهای محتوای تولیدشده با هوش مصنوعی اینقدر آسان باشد، پس چنین ابزارهایی چه فایده‌ای دارند؟

چگونه به نتایج بهتر دست یابیم؟

تفاوتی ندارد که سیستم‌های تشخیص محتوای تولیدشده با هوش مصنوعی در انجام اینکار فریب بخورند یا خودشان به‌درستی عمل نکنند؛ مهم این است که ابزارهای مذکور مشکل دارند. زو اشاره می‌کند مکانیزم امیدوارکننده برای نرم‌افزارهای تشخیص محتوای هوش مصنوعی می‌تواند مقایسه‌ نوشته‌های متعدد درمورد موضوع خاصی مثل پاسخ‌های انسان و هوش مصنوعی باشد و سپس بررسی شود تا ببینیم آیا می‌توان متن‌ها را به‌درستی دسته‌بندی کرد یا خیر؛ و شاید این فرایند، رویکرد بهتر و کارآمدتری باشد.

ازطرفی محققان اعتقاد دارند ضعف برنامه‌های تشخیص محتوای GPT می‌تواند به خلاقیت و اصالت بیشتر در نوشتن متن‌ها منجر شود.

بیشتر بخوانید:

نظر شما درباره‌ فریب خوردن ابزارهای تشخیص محتوای ساخته‌شده با ChatGPT چیست؟ دیدگاه خود را در بخش کامنت‌ها با تکراتو در میان بگذارید و اخبار تکنولوژی را با ما دنبال کنید.

ارسال برای دوستان در: واتساپ | تلگرام |






ارسال نظر (1 نظر)

    روسیه هیچ وقت به ایران سوخو نمیده باید حالا که قدرت پهبادی ما مشخص شده ما هم هیچ پهبادی به روس ها ندیم و فروش برابر فروش بشه از روس ها ابی برای ایران گرم نمیشه با دوستان مروت با دشمنان مدارا

    پاسخ