به نظر میرسد سرمایه گذاریهای وسیعی که Opera در حوزه هوش مصنوعی انجام داده، نتیجه داده است. این شرکت امروز قابلیتی جدیدی با استفاده از هوش مصنوعی ارائه داده که تاکنون هیچ مرورگر دیگری قادر به ارائه آن نبوده است. قابلیت جدید اپرا به شما اجازه میدهد به مدل های هوش مصنوعی محلی دسترسی داشته باشید.
با افزودن پشتیبانی آزمایشی برای 150 نوع LLM محلی (مدل زبان بزرگ) از حدود 50 خانواده مدل، اوپرا این امکان را برای کاربران فراهم کرده که مستقیماً از مرورگر خود به LLMهای محلی دسترسی داشته باشند و بتوانند آنها را مدیریت کنند.
بیشتر بخوانید: از ایلان ماسک تیک آبی ایکس رایگان دریافت کنید!
به گفته اپرا، مدلهای هوش مصنوعی محلی مکمل سرویس آنلاین Aria AI اپرا هستند که در مرورگر اپرا در iOS و اندروید نیز موجود است. LLM های محلی پشتیبانی شده شامل نامهایی مانند Llama (Meta)، Vicuna، Gemma (Google)، Mixtral (Mistral AI) و بسیاری موارد دیگر است.
ویژگی جدید برای کسانی که مایلند جستجوی خود را تا حد امکان خصوصی نگه دارند بسیار کاربردی خواهد بود. امکان دسترسی به LLM های محلی از Opera به این معنی است که دادههای کاربران به صورت محلی در دستگاه آنها نگهداری شده و به آنها اجازه میدهد بدون نیاز به ارسال اطلاعات به سرور از هوش مصنوعی مولد استفاده کنند.
از امروز، ویژگی جدید برای کاربران برنامه نویس اپرا وان در دسترس است، اگرچه لازم است جدیدترین نسخه برنامه نویس اپرا را تهیه و راهنمای گام به گامش را برای فعال کردن آن دنبال کنید.
به خاطر داشته باشید که پس از انتخاب یک LLM خاص، در دستگاه شما دانلود می҅شود. ذکر این نکته لاطم است که یک LLM محلی معمولاً به 2-10 گیگابایت فضای ذخیرهسازی برای هر نوع نیاز دارد. پس از بارگیری در دستگاه شما، LLM جدید به جای Aria، هوش مصنوعی مرورگر بومی اپرا، استفاده خواهد شد.
بیشتر بخوانید:
- پیدا کردن مخاطبین در اینستاگرام با شماره موبایل
- الگوریتم ریلز اینستاگرام چطور کار میکند؟
- آموزش دی اکتیو کردن اینستاگرام
- چگونه آهنگ های اینستاگرام را پیدا کنیم ؟
- چگونه آهنگ های ریلز اینستاگرام را دانلود کنیم؟
منبع:phonearena