شکایت یک مجری رادیویی از ChatGPT خبرساز شد. ظاهراً چتبات هوش مصنوعی شرکت OpenAI این مجری مشهور را یک اختلاسگر معرفی کرده است.
مارک والترز مجری رادیویی گرجستان، معتقداست که افترای وارد شده بر او توسط مدل هوش مصنوعی ذکر شده باعث شده است که شهرت وی در بین مردم کشورش لطمه ببیند. اما یک مسئله اینجا حائز اهمیت است که چتباتهای هوش مصنوعی با وجود کاربردهای فراوان، اصلاً قابلاعتماد نیستند و بارها اتفاق افتاده است که با توهینهای بیاساس افراد یا سازمانی را مورد گزند قرار دادهاند.
بیشتر بخوانید: نخستین مجری هوش مصنوعی ترکیه معرفی شد [+فیلم]
شکایت یک مجری رادیویی از ChatGPT
مجری رادیویی گرجستان، مارک والترز پساز اینکه سرویس ChatGPT به او گفت درحال اختلاس پول از بنیاد SAF است، از OpenAI شکایت کرد.
والترز احتمالاً اولین شکایت را در نوع خود تنظیم و ادعا کرد ChatGPT با طرح ادعاهای نادرست اختلاس، به هویت او آسیب رسانده است.
درحالیکه وکلا احتمالاً با نبرد سختی روبرو خواهند شد که ثابت میکند چتبات هوش مصنوعی به شهرت والترز لطمه زده، اما دعوی مذکور میتواند گفتوگوها را هدایت کند زیرا این ابزارها همچنان به ارائهی ادعاهای توهمآمیز ادامه میدهند.
وکیل والترز در شکایت خود ادعا میکند چتبات OpenAI مطالب افتراآمیزی درمورد موکلش منتشر و او را در این پرونده دخیل و حتی بهعنوان خزانهدار و مدیر ارشد مالی SAF معرفی کرد که درواقع این ادعا نادرست است. والترز به هیچوجه با SAF ارتباط ندارد.
ابزار هوش مصنوعی حتی به مواردی درمورد حسابداری مالی مبهم اشاره داشت که کاملاً ساختگی بودند. درواقع این چتبات حتی شماره پرونده را بههم ریخته است.
نکتهی مهم این است که وکیل والترز هرگز اطلاعات نادرستی که هوش مصنوعی ارائه داده بود را منتشر نکرد اما بعداً با وکلای مرتبط با پرونده مذکور تماس گرفت. ChatGPT و سایر چتباتهای هوش مصنوعی مانند آن، سابقه بسیار زیادی در ارائه دروغهای کاملاً ساختگی دارند؛ نقصی که عمیقاً مفید بودن آنها را تضعیف میکند.
همانطور که فیوچریسم مینویسد، با وجود این نقصها، شرکتهایی مثل OpenAI و گوگل آنها را بهعنوان راهی جدید برای بازیابی اطلاعات معرفی کردند درحالیکه بهطور عجیبی بهطور دائم هشدار میدهند که نباید به خروجی هوش مصنوعی اعتماد کرد.
جان مونرو، وکیل والترز اکنون استدلال میکند ما همچنان باید این شرکتها را درقبال خروجی معیوب چتباتهایشان مسئول بدانیم.
مونرو میگوید:
درحالیکه تحقیقوتوسعه در هوش مصنوعی، تلاش ارزشمندی محسوب میشود، اما راهاندازی سیستم برای عموم مردم غیرمسئولانه است زیرا این ابزارها میتوانند اطلاعاتی جعل کنند که به اشخاص آسیب میرساند.
سؤال این است: آیا میتوان از اطلاعات ساختگی که چتباتهایی مثل ChatGPT ارائه میدهند در دادگاه بهعنوان افترا یاد کرد؟ یوجین ولوخ، استاد دانشکده حقوق دانشگاه کالیفرنیای لسآنجلس مینویسد، چنین موضوعی دور از ذهن نیست.
بیشتر بخوانید:
- هشدار FBI در خصوص سواستفاده مجرمان سایبری از چتباتهای هوش مصنوعی
- ابزار هوش مصنوعی جدید وردپرس برای تدوین و ترجمه محتوا معرفی شد
- تماشا کنید: تصاویر هوش مصنوعی از زنان کشورهای مختلف جهان ؛ زن ایرانی از نظر هوش مصنوعی چه شکلی است؟
نظر شما درباره شکایت یک مجری رادیویی از ChatGPT چیست؟ دیدگاه خود را در بخش کامنت ها با تکراتو در میان بگذارید و اخبار تکنولوژی را با ما دنبال کنید.