gemlog/public/uk/first-experience-with-ollama-llm.gmi
2025-11-06 14:35:55 +02:00

64 lines
No EOL
4.8 KiB
Text
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# Перший досвід з Ollama / LLM
Схоже, я значно відстаю від загальних трендів і хайпу довкола ШІ, хоча й давно вже користуюсь цим інструментом, зокрема - засобами Duck.ai
Тільки зараз знайшов час поставити собі відкритий сервер Ollama локально, здебільшого - з метою приватного користування, без відправлення хоч й анонімних, але цілком очевидних запитів на сторонні сервери. Нижче коротенький "дамп" з цього досвіду, може комусь також згодиться.
## Встановлення
Ollama - сервер з відкритим кодом, який надає API для роботи з мовними моделями від різних постачальників. Завантажити його можна з офіційного сайту:
=> https://ollama.com
Є також останні релізи в репозиторії на GitHub:
=> https://github.com/ollama/ollama/releases
Зібрати з сорсу в мене не вийшло через помилку Vulkan. Наскільки я зрозумів (з попереднього досвіду встановлення графічного редактора Zed) його API не підтримується моїм старим залізом (iMac 2011)
Вперше, я спробував поставити сервер Ollama з репозиторію Fedora:
``` bash
dnf install ollama
```
Він працює, але модель gpt-oss не запустилась через баг з датою, дуже дивно, що в репозиторії (Fedora 43) й досі якась допотопна версія цього серверу:
=> https://github.com/ollama/ollama/issues/11680
Отже, збирайтесь одразу або з сорсу (якщо зможете) або з бінарників останніх релізів на GitHub - там по суті треба розпакувати теку та виконати бінарник:
``` bash
bin/ollama --help
```
* або поставити його в систему командою `install`
## Моделі LLM
Після встановлення сервера, потрібно завантажити мовну модель. Вони бувають різні, для кожної задачі - своя спеціалізація, така спеціалізація може бути "універсальною". Для коду (в рамках тестування на Duck.ai) мені сподобались Claude Haiku та загальний GPT-4o mini. Обрати популярні моделі можна зі списку на офіційному сайті:
=> https://ollama.com/search
* інші можна скачати на їх офіційних сайтах
Для тестів я обрав:
* Mistral (~4Gb)
* GPT-OSS (~14Gb або 65Gb) - в залежності від кількості "нейронів" та конкретної версії
Встановлюються і запускаються моделі після запуску сервера Ollama:
``` bash
ollama serve
```
Потім вказується потрібна модель:
``` bash
ollama run mistral
```
* якщо модель відсутня, її буде автоматично завантажено з репозиторію
Тут варто зауважити, що у вас повинно бути достатньо оперативної пам'яті, інакше ймовірне її переповнення з подальшим завісанням системи. Скільки для якої моделі потрібно пам'яті - дивіться в специфікації. Скажу тільки що моїх 12 Gb + 8 Gb swap достатньо лише для Mistral. Наскільки розумію, розмір пам'яті приблизно дорівнюватиме розміру моделі. Так собі думаю, що теоретично можна організувати swap-файл на SSD, звісно буде не дуже швидко і не дуже "гуманно" для цього типу носія, але якось буде.
## Клієнти
З клієнтів, не довго обираючи, поставив зі стандартного магазина застосунків Alpaca, ця "альпака" також є на GitHub:
=> https://github.com/Jeffser/Alpaca
В іншому, тут що кому треба: можна прикрутити плагіни для VSCode, тощо.