کلاهبرداران با توجه به ترند موضوع هوش مصنوعی، اقدام به ساخت توکنهای جعلی ChatGPT و بینگ بدون اطلاع و دخالت مایکروسافت و OpenAI کردهاند.
پس از گذشت چند هفته از معرفی رسمی نسخه جدید موتور جستجوی بینگ که از چتبات مبتنی بر هوش مصنوعی بهره میبرد، کلاهبرداران متوجه پتانسیل بالای این حوزه شدند و توکنهای جعلی زیادی را در این راستا ساختهاند. این کلاهبرداران تلاش دارند تا با ایجاد توکنهای جعلی ChatGPT و بینگ از جو و هیجان بهوجودآمده در این فضا سوءاستفاده کنند.
براساس گزارش Decrypt، محبوبیت فوقالعاده چتباتهایی همچون ChatGPT و بینگ منجر به ساخت توکنهای بسیاری با ادعای ارتباط با این پروژهها شده است. به عنوان نمونه، بررسیهای DEXTools حاکی از آن است که حداقل 20 توکن با نام BingChatGPT در بازار رمزارزها پدید آمده است. در این میان، 12 توکن در زنجیره BNB (بایننس)، 6 توکن در اتریوم و 2 توکن در Arbitrum بهوجود آمدهاند.
از طرف دیگر 170 توکن دیگر نیز در مواقع مختلف با نام ChatGPT به صورت عمومی ارائه شدهاند و دوباره BNB محبوبترین پروتکل برای عرضه این توکنهای جعلی ChatGPT بوده است. کلیه این پروژهها درحالی مشغول فعالیت هستند که مایکروسافت هرگز برنامهای را جهت عرضه توکن رمزارزی برای بینگ اعلام نکرده است.
بیشتر بخوانید: چت بات MOSS به عنوان جدیدترین رقیب ChatGPT معرفی شد
سوء استفاده کلاهبرداران با توکنهای جعلی ChatGPT و بینگ
همواره کلاهبرداران در پی کشف و ابداع روشهای جدید کلاهبرداری هستند و حالا بهنظر سهولت ایجاد توکنها منجر به جذابیت این بازار برای اهداف فریبکارانه کلاهبرداران شده است. بنابراین مراقبت بیشتر از سرمایه یک اصل مهم برای فعالیت در این بازارها است.
شرکت امنیت سایبری PeckShield طی توییتی در مورد تعداد بالای توکنهای BingChatGPT این ادعا را مورد تایید قرار میدهد که حداقل سه مورد از این توکنها هانیپات هستند و 2 مورد نیز مالیات زیادی در هنگام فروش بهدنبال دارند.
هانیپات شیوهای از کلاهبرداری رمزارزی بوده که در آن به ادعای مالک پروژه اگر کاربر مقداری پول به او بدهد، سرمایه بیشتری را بهدست خواهد آورد؛ اما در عمل چنین امری امکان وقوع ندارد. علاوهبراین، 2 مورد از این توکنها همین حالا نیز 99 درصد از ارزش خود را از دست دادهاند.
گفتنی است که یکی از این توکنها ظاهراً توسط یک کلاهبردار سریالی تحت عنوان Deployer oxb583 ایجاد شده است که پیشتر نیز توکنهایی را با اسامی جالب و مشهوری همچون «ایلان ماسک» و «لیز تراس»، نخست وزیر سابق بریتانیا، ساخته بود.
بیشتر بخوانید:
- مایکروسافت بعد از بینگ، قصد تجهیز ویندوز 11 به ChatGPT را دارد!
- قابلیتهای هوش مصنوعی ChatGPT به گوشیهای سامسونگ اضافه میشود
- اعتراف گوگل به شکست بارد برابر ChatGPT ؛ بیهوده عجله کردیم!
- مدیرعامل OpenAI: چتبات ChatGPT جذاب اما ناقص و وحشتناک است!
دیدگاه شما در خصوص ساخت توکنهای جعلی ChatGPT و بینگ برای کلاهبرداری چیست؟ نظرات خود را در بخش کامنتها با تکراتو در میان بگذارید.