AI: знайомство з Ollama для локального запуску LLM
31 Травня 2025Дуже хочеться покрутити якісь LLM локально, бо це дасть змогу краще зрозуміти нюанси їхньої роботи Це як знайомитись з AWS до цього не мавши справу з хоча б VirutalBox – робота з AWs Console чи API не дасть розуміння того, що відбувається під капотом. До того ж локальна модель – це безкоштовно, дасть змогу потюнити… Читати далі »