روز پنجشنبه OpenAI هوش مصنوعی o1 را معرفی کرد. به نظر میرسد آخرین محصول ویژگیهایی دارد که باعث شده محققان و کارشناسان امنیتی نسبت به آن حساس شوند.
به گزارش دیجیاتو، احتمال دارد از هوش مصنوعی o1 اوپنایآی به شکل معناداری در ساخت سلاحهای بیولوژیکی، رادیولوژیکی و هستهای (CBRN) سوءاستفاده شود. در این میان نکتهی جالبی نیز وجود دارد؛ اینکه خود OpenAI نیز این خطرات را تایید و در توضیحاتش عنوان کرده است.
هوش مصنوعی o1 و خطرات احتمالی: آیا هوش مصنوعی به سمت سوءاستفادههای خطرناک میرود؟
هوش مصنوعی مدل o1 از تواناییهای پیشرفتهای مانند استدلالهای گامبهگام و حل مسائل پیچیده ریاضی برخوردار است که این موضوع نگرانیهایی را درباره احتمال استفاده نادرست از آن برای توسعه سلاحهای خطرناک ایجاد کرده است. اگرچه سطح خطر این مدل «متوسط» عنوان شده، اما این بالاترین سطح خطر شناختهشده برای مدلهای هوش مصنوعی OpenAI تاکنون است.
این مسئله باعث شده تا بحثهای جدیدی پیرامون قانونگذاری در حوزه هوش مصنوعی شکل بگیرد. مخصوصا در ایالت کالیفرنیا، لایحه SB 1047 با هدف الزام شرکتهای تولیدکننده مدلهای هوش مصنوعی به اتخاذ تدابیری برای جلوگیری از استفاده از مدلهایشان در توسعه سلاحهای بیولوژیکی در حال بررسی است.
شرکت OpenAI و برخی دیگر از شرکتهای فناوری و سرمایهگذاران خطرپذیر مخالفت خود را با این قانون اعلام کردهاند و معتقدند که تصویب آن میتواند به ضرر صنعت هوش مصنوعی باشد.
بیشتر بخوانید:
- مطالعه جدید: هوش مصنوعی میتواند در اصلاح باورهای اشتباه مردم موثر باشد
- اولین بازخوردها از عملکرد مدل o1 ؛ هوش مصنوعی استدلالی OpenAI چطور ظاهر شد؟