1762434019

This commit is contained in:
postscriptum 2025-11-06 15:00:19 +02:00
parent 7823c71020
commit 0becce6012

View file

@ -47,18 +47,26 @@ bin/ollama --help
ollama serve
```
Потім вказується потрібна модель:
Потрібна модель вказується аргументом run, я це роблю в окремому табі (сесії) терміналу:
``` bash
ollama run mistral
```
* якщо модель відсутня, її буде автоматично завантажено з репозиторію
* тут варто зауважити, що у вас повинно бути достатньо оперативної пам'яті, інакше ймовірне її переповнення з подальшим завісанням системи. Скільки для якої моделі потрібно пам'яті - дивіться в специфікації. Скажу тільки що моїх 12 Gb + 8 Gb swap достатньо лише для Mistral. Наскільки розумію, розмір пам'яті приблизно дорівнюватиме розміру моделі + витрати на систему і сам сервер Ollama. Так собі думаю, що теоретично можна організувати swap-файл на SSD, звісно буде не дуже швидко і не дуже "гуманно" для цього типу носія, але якось буде.
Тут варто зауважити, що у вас повинно бути достатньо оперативної пам'яті, інакше ймовірне її переповнення з подальшим завісанням системи. Скільки для якої моделі потрібно пам'яті - дивіться в специфікації. Скажу тільки що моїх 12 Gb + 8 Gb swap достатньо лише для Mistral. Наскільки розумію, розмір пам'яті приблизно дорівнюватиме розміру моделі. Так собі думаю, що теоретично можна організувати swap-файл на SSD, звісно буде не дуже швидко і не дуже "гуманно" для цього типу носія, але якось буде.
Щоб видалити модель і звільнити простір, виконуємо послідовність команд:
``` bash
ollama list
ollama rm ID
```
* ID - назва зі списку
* в системах Linux, моделі завантажуються до стандартної теки профілю `~/.ollama`
## Клієнти
З клієнтів, не довго обираючи, поставив зі стандартного магазина застосунків Alpaca, ця "альпака" також є на GitHub:
Не довго обираючи, поставив зі стандартного магазина застосунків Alpaca, ця "альпака" також є на GitHub:
=> https://github.com/Jeffser/Alpaca
В іншому, тут що кому треба: можна прикрутити плагіни для VSCode, тощо.