Архів категорії: AI

Hermes Agent: запуск AI Agent у FreeBSD Jail з Bastille
5 (1)

3 Травня 2026

По самому Hermes Agent і його можливостям буду писати окремо, сьогодні – як запустити його на FreeBSD. Вчора погрався на своєму Arch Linux – тепер хочеться вже більш production setup. Крутити буду на моєму NAS з FreeBSD, запускати там, звісно, вже тільки у FreeBSD Jail, бо NAS – це доступ до важливих даних і бекапів.… Читати далі »

Loading

Claude Code: створення Kubernetes debugging AI Agent для VictoriaMetrics
5 (4)

30 Квітня 2026

Поки пишеться серія постів по налаштуванню і використанню Claude Code – запишу приклад створення власного AI Agent для VictoriaMetrics та Kubernetes і “загортання” його в Claude Code Plugin та створення власного Claude Code Markeplace, де будуть жити подібні плагіни для девелоперів на моєму проекті. Загальна ідея: мати агента, якого девелопери можуть підключити собі до Claude… Читати далі »

Loading

AI: знайомство з Ollama для локального запуску LLM
0 (0)

31 Травня 2025

Дуже хочеться покрутити якісь LLM локально, бо це дасть змогу краще зрозуміти нюанси їхньої роботи Це як знайомитись з AWS до цього не мавши справу з хоча б VirutalBox – робота з AWS Console чи AWS API не дасть розуміння того, що відбувається під капотом. До того ж локальна модель – це безкоштовно, дасть змогу… Читати далі »

Loading

AI: пишемо MCP-сервер для VictoriaLogs
0 (0)

10 Травня 2025

В попередньому матеріалі розібрались з тим, що таке MCP взагалі, і створили дуже простенький сервер, який підключили до Windsurf – див. AI: що таке той MCP? Тепер – давайте спробуємо створити щось більш корисне, наприклад – MCP-сервер, який буде підключатись до VictoriaLogs та отримувати якісь дані. Насправді команда VictoriaMetrcis вже робить власний, тому тут ми… Читати далі »

Loading

AI: що таке той MCP?
0 (0)

10 Травня 2025

Щось всі навколо тільки і говорять що про море про MCP – тож прийшов час і самому розібратись в темі. Отже, сьогодні розберемося з основними поняттями – “що воно взагалі таке”, потім напишемо власний “мікро-MCP сервер”, а в наступному пості – щось більш реальне, про роботу з VictoriaLogs. Обмеження LLM Будь-яка Large Language Model –… Читати далі »

Loading