تواصل Opera الاستثمار بكثافة في تكنولوجيا الذكاء الاصطناعي، وكان آخر التطورات هو تقديم ميزة فريدة تميزها عن المتصفحات الأخرى - وهي القدرة على الوصول إلى نماذج الذكاء الاصطناعي المحلية. تسمح هذه الميزة الجديدة للمستخدمين باستخدام وإدارة LLMs (نماذج اللغات الكبيرة) المحلية مباشرة من متصفح Opera، مما يضيف طبقة أخرى من الوظائف والخصوصية إلى تجربة التصفح الخاصة بهم.
يدعم Opera الآن الوصول التجريبي إلى 150 نوعًا محليًا من LLM من حوالي 50 عائلة نماذج مختلفة، بما في ذلك الأسماء الشائعة مثل Llama (Meta)، وVicuna، وGemma (Google)، وMixtral (Mistral AI). تكمل نماذج الذكاء الاصطناعي المحلية هذه خدمة Aria AI الموجودة عبر الإنترنت من Opera، والمتوفرة على إصدارات المتصفح iOS وAndroid.
يعد تقديم LLMs المحلي أمرًا مهمًا بشكل خاص للمستخدمين المهتمين بخصوصيتهم أثناء التصفح. من خلال الاحتفاظ بالبيانات المخزنة محليًا على أجهزتهم، تضمن Opera أن المستخدمين يمكنهم الاستفادة من قدرات الذكاء الاصطناعي التوليدية دون المساس بمعلوماتهم الشخصية عن طريق إرسالها إلى الخادم.
للوصول إلى هذه الميزة الجديدة، يمكن لمستخدمي Opera One Developer الترقية إلى أحدث إصدار من Opera Developer واتباع دليل التنشيط البسيط. بمجرد تحديد LLM معين، سيتم تنزيله على جهاز المستخدم. تجدر الإشارة إلى أن كل متغير LLM محلي يتطلب عادةً ما بين 2 إلى 10 جيجابايت من مساحة التخزين. بمجرد تنزيله، سيحل LLM الجديد محل Aria باعتباره متصفح Opera الأصلي AI.
ومع هذه الإضافة المبتكرة لمجموعة ميزاتها، تواصل Opera دفع الحدود في عالم تكنولوجيا الذكاء الاصطناعي مع إعطاء الأولوية لخصوصية المستخدم وأمن البيانات. ترقبوا المزيد من التحديثات مع قيام Opera بتطوير تجربة المتصفح الخاصة بها من خلال التطورات المتطورة في الذكاء الاصطناعي.