AI: знайомство з Ollama для локального запуску LLM
31 Травня 2025Дуже хочеться покрутити якісь LLM локально, бо це дасть змогу краще зрозуміти нюанси їхньої роботи Це як знайомитись з AWS до цього не мавши справу з хоча б VirutalBox – робота з AWS Console чи AWS API не дасть розуміння того, що відбувається під капотом. До того ж локальна модель – це безкоштовно, дасть змогу… Читати далі »