Featured image of post شغل مساعد LEO في متصفح Brave محليا مع Ollama و Docker compose

شغل مساعد LEO في متصفح Brave محليا مع Ollama و Docker compose

متصفح Brave اضاف مؤخرا القدرة على استضافة مساعد LEO محليا باستخدام Ollama

هذا شرح قصير عن تشغيل LEO محليا بستخدام برمجية Ollama على دوكر. استخدام دوكر يسهل تثبيت Ollama خاصة على كروت AMD, لان سيختصر كل اعداد التعريفات

Ollama اعداد

CPU

1
2
3
4
5
6
7
services:
  ollama:
    image: ollama/ollama
    volumes:
      - ./ollama:/root/.ollama
    ports:
      - "11434:11434"

ROCm

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
services:
  ollama:
    image: ollama/ollama:rocm
    devices:
      - /dev/kfd:/dev/kfd
      - /dev/dri:/dev/dri
    # environment:
    #   - HSA_OVERRIDE_GFX_VERSION=10.3.0 # for unsupported gpus such as 6700xt, 7800xt etc.
    volumes:
      - ./ollama:/root/.ollama
    ports:
      - "11434:11434"

CUDA

ستحتاج لتثبيت ادوات أنڤيديا للحاويات (nvidia container toolkit) كامل التفاصيل موجوده على صفحة Ollama على docker hub.

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
services:
  container_name: ollama
  ollama:
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: all
              capabilities:
                - gpu
    volumes:
      - ollama:/root/.ollama
    ports:
      - 11434:11434
    image: ollama/ollama

Downloading an LLM

ستحتاج لاختيار موديل يتسع على ذاكرة كرت الشاشة الخاص بك. هناك نسخ “quantized” من LLMs تكون اصغر وتعمل بذاكرة اقل. ادخل الى صفحة الLLM وابحث في قائمة الاصدارات عن نسخه تتسع على الكرت الخاص بك.

بامكانك معرفة ابرز الLLMs على صفحة Lmsys’s chatbot arena Leaderboard, ترتب الموديلات على حسب تقييمات المستخدمين. https://lmarena.ai/

موديلات LLAMA 3 من ميتا هي الاشهر الحاليا.

1
2
docker exec -it ollama bash
~# ollama pull llama3:YOUR_TAG

هذا الامر سيقوم بتنزيل الموديل الى مجلد ./ollama المربوط في دوكر.

استخدام LEO مع الموديل المحلي

أذهب الى الاعدادات ثم صفحة Leo Leo setting page (صور من Brave)

ال model request name هو نفس اسم الموديل في Ollama, أي: llama3:YOUR_TAG

عنوان الخادم سيكون دائما: http://localhost:11434/v1/chat/completions الا اذا تستضيف Ollama على خادم اخر او غيرت المنفذ.

local llm settings

تاكد من اختيار الموديل المحلي عند استخدام leo. select model model

والان اصبح لديك مساعد ذكاء اصطناعي مدمج في المتصفح ويعمل محليا مع خصوصية تامه!

FarisZR
مبني بستخدام Hugo
قالب Stack مصمم من Jimmy