Notebookcheck Logo

Opera staje się pierwszą przeglądarką internetową oferującą dostęp do lokalnych LLM

Opera ogłasza możliwość pobierania i korzystania z lokalnych LLM (źródło obrazu: Opera)
Opera ogłasza możliwość pobierania i korzystania z lokalnych LLM (źródło obrazu: Opera)
Opera, jedna z popularnych przeglądarek internetowych, ogłosiła możliwość pobierania i korzystania z lokalnych LLM (dużych modeli językowych). Ta nowa funkcja jest obecnie wdrażana w deweloperskim strumieniu Opery One. Tak więc użytkownicy korzystający z wersji deweloperskiej mogą teraz wybierać i używać ponad 150 modeli z ponad 50 rodzin.
AI Software

Użytkownicy Opery One w strumieniu deweloperskim otrzymują dużą aktualizację. Najnowsza aktualizacja pozwala użytkownikom na pobieranie i używanie LLM lokalnie. Obecnie wybór modeli pochodzi z ponad 50 rodzin i istnieje ponad 150 różnych modeli, które użytkownicy mogą pobrać i uruchomić na swoich komputerach.

Niektóre z godnych uwagi modeli to Gemma od Google, LLaMA od Meta, Mixtral od Mistral AIoraz Vicuna od LMSYS. Ta nowa funkcja jest wprowadzana w ramach programu AI Feature Drops. Oznacza to, że użytkownicy korzystający z wersji deweloperskiej Opera One aby przetestować aktualizację.

Mimo to Opera stała się pierwszą przeglądarką internetową, która umożliwia swoim użytkownikom pobieranie i korzystanie z lokalnych modeli LLM. Dla tych, którzy zastanawiają się, uruchamianie tych modeli lokalnie często oferuje pełną kontrolę, mniejsze opóźnienia i, co najważniejsze, lepszą prywatność. Państwa komputer musi jednak spełniać pewne wymagania.

Na przykład, firma zajmująca się przeglądarkami internetowymi twierdzi, że każdy wariant lokalnego LLM będzie potrzebował ponad 2 GB pamięci. Jeśli chodzi o uruchamianie modeli, Opera twierdzi, że korzysta z frameworka open-source Ollama. Oznacza to również, że wszystkie obecnie dostępne modele w przeglądarce są podzbiorem biblioteki Ollama. Dobrą stroną jest to, że Opera planuje włączyć modele z innych źródeł.

Nie wszyscy użytkownicy skorzystają z tej aktualizacji. Jest to jednak dobra wiadomość dla tych, którzy chcą przetestować różne LLM lokalnie na swoich komputerach. Mogą Państwo skorzystać z wbudowanego Asystenta AI o nazwie Aria jeśli nie chcą Państwo pobierać modeli. Jest on dostępny dla zwykłej wersji przeglądarki od maja ubiegłego roku.

Kamerę internetową OBSBOT Tiny 2 z obsługą sztucznej inteligencji można nabyć w sklepie Amazon

Źródło(a)

Please share our article, every link counts!
> laptopy testy i recenzje notebooki > Nowinki > Archiwum v2 > Archiwum 2024 04 > Opera staje się pierwszą przeglądarką internetową oferującą dostęp do lokalnych LLM
Abid Ahsan Shanto, 2024-04- 4 (Update: 2024-04- 4)