مایلز براندیج، مشاور ارشد سابق OpenAI پس از خروج از این استارتاپ طی پستی اعلام کرده که هیچیک از آزمایشگاههای از جمله OpenAI، برای مواجهه با هوش مصنوعی انسانگونه یا AGI آماده نیستند.
او طی پستی با عنوان چرا اوپنایآی را ترک کردم و چه برنامههایی برای آینده دارم نوشت: «نه اوپنایآی و نه هیچ آزمایشگاه دیگری برای هوش مصنوعی انسانگونه آماده نیست و جهان نیز آمادگی مواجه شدن با آن را ندارد.»
هیچکس برای هوش مصنوعی انسانگونه آماده نیست
براندیج که در زمینه ایمنی هوش مصنوعی فعالیت میکرده در این پست نوشته که آمادگی برای هوش مصنوعی جامع یا AGI به عوامل مختلفی وابسته است. این عوامل شامل نحوهی اجرای فرهنگی ایمنی و امنیت، تاثیر مقررات بر انگیزههای سازمانی و مشکلاتی در زمینه ارائه اطلاعات دقیق در مورد قابلیتهای هوش مصنوعی میشود.
وی در ادامه به یکی از مهمترین دلایل خروجش از این مجموعه نیز اشاره کرده و گفته که به دلیل محدودیتهایی که OpenAI در زمینه تحقیقات و آزمایشها تعیین کرده، تصمیم به خروج از این شرکت گرفته است.
براندیج اولین فردی نیست که از این شرکت جدا میشود؛ پیش از او نیز یان لکه، ایلیا سوتسکور و دو چهرهی کلیدی دیگر نیز از این شرکت به دلایل مشابه جدا شدند. در این میان سوتسکور استارتاپ خودش را با تمرکز بر توسعه هوش مصنوعی انسانگونه (AGI) تاسیس کرد.
یکی دیگر از نکات حائز اهمیت که براندیج به آن اشاره کرده، انحلال تیم «آمادگی AGI» و پیش از آن، تیم «Superalignment» است که به کاهش خطرات بلندمدت هوش مصنوعی پرداخته بود. این تغییرات به نوعی نشاندهنده چالشهای جدی در مدیریت و هدایت پروژههای مربوط به AGI در OpenAI است.
علیرغم تمامی چالشها و اتفاقاتی اخیری که رخ داده، براندیچ اشاره کرده که این شرکت او را در زمینه تامین بودجه؛ اعتبار API و دسترسی به مدلهای اولیه برای برنامههای آیندهاش حمایت خواهد کرد.
بیشتر بخوانید: