Ответ на комментарий от shaos
Deepseek нормальный не потянет на домашнем пк, но можно попробовать Qwen, Gemma или gpt-oss (последнюю хвалят даже на 20b)
Вместо ollama лучше использовать llama.cpp ибо позволяет настроить больше опций/оптимизаций
Ответы на это сообщение:
shaos (2025-12-18 07:39:59)
nnii (2025-12-18 08:52:01)
Вместо ollama лучше использовать llama.cpp ибо позволяет настроить больше опций/оптимизаций
doesnm (2025-12-18 06:51:38)
[Ответить]