شرکت DeepSeek چین با همکاری دانشگاه Tsinghua روش نوینی برای بهبود عملکرد مدلهای زبانی هوش مصنوعی ارائه کرده است.
به گزارش تکراتو و به نقل از scmp، استارتاپ چینی DeepSeek که در زمینه هوش مصنوعی فعالیت میکند، همزمان با بالا رفتن انتظارها برای معرفی نسل بعدی مدلهای زبانیاش، از یک روش نوآورانه برای تقویت قدرت استدلال در مدلهای زبانی بزرگ رونمایی کرده است.
این روش که با همکاری پژوهشگران دانشگاه Tsinghua توسعه یافته، ترکیبی از دو رویکرد به نامهای generative reward modelling و self-principled critique tuning است.
به گفته پژوهشگران، هدف این ترکیب آن است که مدلهای هوش مصنوعی بتوانند به سؤالات عمومی با سرعت و دقت بیشتر پاسخ دهند و پاسخهایی نزدیکتر به ترجیحات انسانی ارائه کنند.
مدلهایی که بر اساس این روش با نام DeepSeek-GRM آموزش داده شدهاند، توانستهاند عملکرد رقابتی قابلتوجهی در مقایسه با روشهای قبلی نشان دهند. در این روش، مدل هوش مصنوعی یاد میگیرد چگونه پاسخهایی ارائه دهد که بیشترین رضایت انسان را به همراه دارد.
پژوهشگران اعلام کردهاند که قصد دارند این مدلها را به صورت متنباز در اختیار عموم قرار دهند، اما هنوز زمان مشخصی برای این کار اعلام نشده است.
این مقاله علمی در پلتفرم arXiv منتشر شده و در حالی منتشر شده که گمانهزنیها درباره برنامههای آینده DeepSeek به اوج رسیده است. این شرکت با معرفی مدلهای V3 و R1 توجه جهانی را به خود جلب کرد. عملکرد مدل R1 با وجود هزینه پایین، در سطحی ظاهر شد که بسیاری از مدلهای پیشرفته دنیا را به چالش کشید.
بر اساس گزارشی از خبرگزاری Reuters، نسخه بعدی این مدل یعنی DeepSeek-R2 ممکن است تا پایان همین ماه منتشر شود، زیرا این شرکت سعی دارد از موقعیت رو به رشد خود بیشترین استفاده را ببرد.
با این حال، DeepSeek تاکنون به شکل رسمی درباره زمان عرضه مدل جدید R2 اظهارنظری نکرده و تنها یک حساب کاربری خدمات مشتریان این موضوع را در یک گروه چت با مشتریان تجاری رد کرده است. این موضوع نیز ماه گذشته از سوی رسانههای چینی گزارش شد.