coinex
otetmarket
همین حالا برای دوستان خود به اشتراک بگذارید: واتساپ | تلگرام |

هوش مصنوعی o1 خطر ساخت سلاح‌های بیولوژیکی را افزایش می‌دهد؛ اعتراف OpenAI

روز پنجشنبه OpenAI هوش مصنوعی o1 را معرفی کرد. به نظر می‌رسد آخرین محصول ویژگی‌هایی دارد که باعث شده محققان و کارشناسان امنیتی نسبت به آن حساس شوند.

به گزارش دیجیاتو، احتمال دارد از هوش مصنوعی o1 اوپن‌ای‌آی به شکل معناداری در ساخت سلاح‌های بیولوژیکی، رادیولوژیکی و هسته‌ای (CBRN) سوءاستفاده شود. در این میان نکته‌ی جالبی نیز وجود دارد؛ اینکه خود OpenAI نیز این خطرات را تایید و در توضیحاتش عنوان کرده است.

راهنمای خرید تکراتو

هوش مصنوعی o1 و خطرات احتمالی: آیا هوش مصنوعی به سمت سوءاستفاده‌های خطرناک می‌رود؟

هوش مصنوعی مدل o1 از توانایی‌های پیشرفته‌ای مانند استدلال‌های گام‌به‌گام و حل مسائل پیچیده ریاضی برخوردار است که این موضوع نگرانی‌هایی را درباره احتمال استفاده نادرست از آن برای توسعه سلاح‌های خطرناک ایجاد کرده است. اگرچه سطح خطر این مدل «متوسط» عنوان شده، اما این بالاترین سطح خطر شناخته‌شده برای مدل‌های هوش مصنوعی OpenAI تاکنون است.

این مسئله باعث شده تا بحث‌های جدیدی پیرامون قانون‌گذاری در حوزه هوش مصنوعی شکل بگیرد. مخصوصا در ایالت کالیفرنیا، لایحه‌ SB 1047 با هدف الزام شرکت‌های تولید‌کننده مدل‌های هوش مصنوعی به اتخاذ تدابیری برای جلوگیری از استفاده از مدل‌هایشان در توسعه سلاح‌های بیولوژیکی در حال بررسی است.

شرکت OpenAI و برخی دیگر از شرکت‌های فناوری و سرمایه‌گذاران خطرپذیر مخالفت خود را با این قانون اعلام کرده‌اند و معتقدند که تصویب آن می‌تواند به ضرر صنعت هوش مصنوعی باشد.

بیشتر بخوانید:

راهنمای خرید تکراتو
ارسال برای دوستان در: واتساپ | تلگرام |






ارسال نظر