;
coinex

درخواست تکرار یک کلمه در ChatGPT اطلاعات محرمانه را فاش می‌کرد؛ اما حالا این تکنیک جواب نمی‌دهد

یک روش جدید که توسط محققان گوگل اخیرا کشف شده است، نشان می‌دهد که استفاده از تکنیک تکرار یک کلمه در ChatGPT ممکن است، اطلاعات شخصی و خصوصی از داده‌های این هوش مصنوعی را فاش کند. به نظر می رسد که این چت بات اکنون از انجام چنین درخواست هایی امتناع می کند و هشدار می‌دهد که چنین درخواستی ممکن است خطاهای حاصل از محتوا و یا شرایط ارائه خدمات را نقض کند.

بر همین اساس، تیم محققانی 404 Media، هفته گذشته یک مقاله منتشر کرد که نشان می‌دهد ChatGPT می‌تواند قسمت‌هایی از داده‌ها از جمله شماره تلفن، آدرس‌های ایمیل و تاریخ تولد را به‌طور ناخواسته افشا کند. برای این اتفاق فقط کافی بود از این هوش بخواهید تا یک کلمه مانند شعر را برای همیشه تکرار کند. اما به نظر می‌رسد چنین درخواستی نقض قوانین خدمات ChatGPT باشد.


ادامه مطلب در ادامه

بیشتر بخوانید:


تکرار یک کلمه در ChatGPT

درخواست تکرار کلمه “Hello” با استفاده از ChatGPT موجب شد که محققان متوجه شوند این مدل به نحوی نامحدود می‌تواند اطلاعات شخصی مانند آدرس ایمیل، تاریخ تولد و شماره تلفن کاربران را نمایش دهد. اما اکنون، اگر چنین درخواستی از ChatGPT کنید، این هوش مصنوعی به شما هشدار می‌دهد که ممکن است این درخواست متناقض با شرایط خدمات مورد نظر باشد.

تکرار یک کلمه در ChatGPT
تکرار یک کلمه در ChatGPT

با این حال، بعد از بررسی دقیق‌تر، مشخص شد که شرایط خدمات OpenAI به صراحت اجازه داده است که کاربران از ارسال فرمان‌های تکرار کلمات به چت‌باتها استفاده کنند؛ این شرایط تنها استفاده از روش‌های خودکار یا برنامه‌ریزی‌شده برای استخراج داده‌ها را ممنوع می‌کند. در این شرایط بیان شده است که کاربر مجاز به استفاده از هیچ روش خودکار یا برنامه‌ای برای استخراج داده نیست، مگر اینکه این موضوع از طریق API مجاز تایید شده باشد.

OpenAI اکنون از اظهارنظر در مورد اینکه آیا این رفتار در تناقض با سیاست‌های آن‌ها است یا خیر، خودداری می‌کند.

بیشتر بخوانید: 

نظر شما درباره‌ی اصلاح باگ تکرار یک کلمه در ChatGPT چیست؟ لطفا نظرات خود را در بخش کامنت با تکراتو در میان بگذارید و اخبار تکنولوژی را با ما دنبال کنید.

ارسال برای دوستان در: واتساپ | تلگرام |






ارسال نظر