تیم هوش مصنوعی مسئول متا منحل شد تا منابع بیشتری برای توسعۀ هوش مصنوعی مولد اختصاص داده شوند. سایت اینفورمیشن امروز این خبر را منتشر کرد و آن را به یک پست داخلی در شرکت متا ارجاع داد.
بر اساس این گزارش، اکثر اعضای تیم هوش مصنوعی مسئول متا به تیم محصولات هوش مصنوعی مولد این شرکت منتقل میشوند؛ این در حالی است که دیگر کارکنان بر روی زیرساختهای هوش مصنوعی Meta کار خواهند کرد.
این شرکت به طور منظم اعلام میکند که میخواهد هوش مصنوعی مسئول (RAI) را توسعه دهد و حتی یک صفحۀ کامل را به این موضوع اختصاص داده است. شرکت در این صفحه فهرستی از ارکان هوش مصنوعی مسئول را درج کرده است. از جمله این ارکان میتوان به مسئولیتپذیری، شفافیت، ایمنی، حریم خصوصی و چند مورد دیگر اشاره کرد.
ادامه مطلب در ادامه
بیشتر بخوانید:
- توقف تبلیغات اپل در X ؛ حمایت ایلان ماسک از پستهای یهودستیزانه کار دستش داد
- پشیمانی OpenAI از اخراج سم آلتمن ؛ مذاکره برای بازگشت او در جریان است
- جنگنده های روسی سوخو ۷۵ به هوش مصنوعی مجهز میشوند
انحلال تیم هوش مصنوعی مسئول متا
در گزارش سایت اینفورمیشن به نقل از جان کارویل (Jon Carvill)، نماینده شرکت Meta آمده: «شرکت به اولویتبندی و سرمایهگذاری در توسعه ایمن و مسئولانۀ هوش مصنوعی ادامه خواهد داد.» او همچنین افزود که این شرکت در حال تفکیک تیم است و اعضای تیم به حمایت از تلاشهای مرتبط در توسعه و استفاده از هوش مصنوعی مسئول ادامه خواهند داد. تا زمان انتشار این خبر، متا به درخواست برای ارائه نظر پاسخ روشنی نداده است.
تیم متا پیشتر در سال جاری با یک بازسازی روبهرو شد. طبق گزارش Business Insider این بازسازی شامل اخراجهایی در تیم RAI بود که این تیم را تبدیل به یک پوستۀ ظاهری کرد. در ادامۀ این گزارش آمده که تیم RAI که از سال 2019 شروع به کار کرده بود استقلال کمی داشته و برنامههای تیم باید از طریق مذاکرات طولانی با سهامداران تصویب و اجرا میشدند.
تیم هوش مصنوعی مسئول متا برای شناسایی مشکلاتی که در رویکردهای آموزشی هوش مصنوعی وجود داشت شکل گرفت. از جمله این مشکلات این بود که آیا مدلهای هوش مصنوعی این شرکت با اطلاعات متنوع و کافی آموزش داده شدهاند؟ هدف این تیم جلوگیری از مشکلاتی مانند مسائل مدیریتی در پلتفرمهای Meta بود. سیستمهای خودکار در شبکههای اجتماعی متا باعث بروز مشکلاتی شدهاند، مثل ترجمه در فیسبوک که منجر به یک دستگیری اشتباه شد. یا تولید استیکرهای مبتنی بر هوش مصنوعی در واتساپ که باعث تولید تصاویر مغرضانه شد و الگوریتمهای اینستاگرام که به افراد در پیدا کردن مواد و سوءاستفاده جنسی از کودکان کمک میکند.
تصمیماتی مثل تصمیم شرکت متا و تصمیم مشابهی که شرکت مایکروسافت در ابتدای سال گرفت، در حالی گرفته شدهاند که دولتهای جهان برای ایجاد قوانین و مقرارات جدید برای توسعه هوش مصنوعی با هم رقابت میکنند. دولت آمریکا با شرکتهای هوش مصنوعی به توافقاتی رسیده است و بعد از این توافقات رئیس جمهور بایدن دستور داد تا آژانسهای دولتی برای ایجاد قوانین ایمنی برای هوش مصنوعی سریعا اقدام کنند. در این حین اتحادیه اروپا اصول هوش مصنوعی خود را منتشر کرده و در تلاش است هرچه زودتر قوانین خود را برای هوش مصنوعی تصویب کند.
به نظر شما با این تصمیمات گسترده و ارائه قوانین جدید میتوان امنیت کاربران را در برابر هوش مصنوعی تضمین کرد و این اختراع شگفتانگیز بشری را تحت کنترل گرفت؟ نظرات خود را در بخش نظرات با ما و دیگر کاربران به اشتراک بگذارید و برای آگاهی از جدیدترین اخبار تکنولوژی تکراتو را دنبال کنید.
بیشتر بخوانید:
- طراحی لوگو با هوش مصنوعی ؛ معرفی بهترین سایتها و ابزارهای ساخت لوگو
- سایت ساخت عکس با هوش مصنوعی
- هوش مصنوعی چیست به زبان ساده
منبع: theverge