coinex
otetmarket
خرید بلیط هواپیما

هوش مصنوعی اپرا (Opera) از زبان‌های مختلف پشتیبانی می‌کند

به نظر می‌رسد سرمایه گذاری‌های وسیعی که Opera در حوزه هوش مصنوعی انجام داده، نتیجه داده است. این شرکت امروز قابلیتی جدیدی با استفاده از هوش مصنوعی ارائه داده که تاکنون هیچ مرورگر دیگری قادر به ارائه آن نبوده است. قابلیت جدید اپرا به شما اجازه می‌دهد به مدل های هوش مصنوعی محلی دسترسی داشته باشید.

با افزودن پشتیبانی آزمایشی برای 150 نوع LLM محلی (مدل زبان بزرگ) از حدود 50 خانواده مدل، اوپرا این امکان را برای کاربران فراهم کرده که مستقیماً از مرورگر خود به LLM‌های محلی دسترسی داشته باشند و بتوانند آنها را مدیریت کنند.

بیشتر بخوانید: از ایلان ماسک تیک آبی ایکس رایگان دریافت کنید!

به گفته اپرا، مدل‌های هوش مصنوعی محلی مکمل سرویس آنلاین Aria AI اپرا هستند که در مرورگر اپرا در iOS و اندروید نیز موجود است. LLM های محلی پشتیبانی شده شامل نام‌هایی مانند Llama (Meta)، Vicuna، Gemma (Google)، Mixtral (Mistral AI) و بسیاری موارد دیگر است.

ویژگی جدید برای کسانی که مایلند جستجوی خود را تا حد امکان خصوصی نگه دارند بسیار کاربردی خواهد بود. امکان دسترسی به LLM های محلی از Opera به این معنی است که داده‌های کاربران به صورت محلی در دستگاه آنها نگهداری شده و به آنها اجازه می‌دهد بدون نیاز به ارسال اطلاعات به سرور از هوش مصنوعی مولد استفاده کنند.

از امروز، ویژگی جدید برای کاربران برنامه نویس اپرا وان در دسترس است، اگرچه لازم است جدیدترین نسخه برنامه نویس اپرا  را تهیه و راهنمای گام به گامش را برای فعال کردن آن دنبال کنید.

به خاطر داشته باشید که پس از انتخاب یک LLM خاص، در دستگاه شما دانلود می҅‌شود. ذکر این نکته لاطم است که یک LLM محلی معمولاً به 2-10 گیگابایت فضای ذخیره‌سازی برای هر نوع نیاز دارد. پس از بارگیری در دستگاه شما، LLM جدید به جای Aria، هوش مصنوعی مرورگر بومی اپرا، استفاده خواهد شد.

بیشتر بخوانید: 

منبع:phonearena

راهنمای خرید تکراتو
ارسال برای دوستان در: واتساپ | تلگرام |






ارسال نظر