Hostovani vllm a pripojeni opencodeKódovací agent s vlastním LLM

zdroj: https://cefboud.com/posts/coding-agent-self-hosted-llm-opencode-vllm Publikováno 7. března 2026, autor Moncef Abboud Obsah: Zajištění GPU Spuštění vLLM Bezpečný přístup k modelu (SSH‑tunel) Testování modelu Propojení s Opencode O nastavení max_tokens Měření výkonu vLLM Závěr Zajištění GPU Pro ukázku použiji Lambda jako poskytovatele GPU, ale libovolný poskytovatel funguje. Stačí se zaregistrovat zde, doplnit platební údaje a vytvořit virtuální stroj s GPU. … Číst dál

Nvidia DGX models run

 Přehled Krok Co se udělá 1. Zobrazíte aktuální seznam modelů a jejich statistiky na leaderboardu spark‑arena.com. 2. Spustíte model lokálně (nebo v kloučovém cloudu) pomocí oficiálního Docker‑image eugr/spark‑vllm (repo spark‑vllm‑docker). 3. Připravíte data a pomocí stejného Docker‑image provedete fine‑tuning (trénink) vlastního modelu. Níže je podrobný návod, který můžete použít krok po kroku. 2️⃣ Tabulka modelů – Leaderboard 3️⃣ Spuštění modelu s Dockerem (spark‑vllm‑docker) 3.1 Požadavky Požadavek Verze … Číst dál

Proxmox Help

https://gist.github.com/Impact123/3dbd7e0ddaf47c5539708a9cbcaab9e3 # Proxmox VE tips Just some tips I gathered over time. All in one easily reachable place so I can share it wherever I want. Please note that unless you see a shebang `(#!/…)` these code blocks are usually meant to be copy & pasted directly into the shell. Some of the steps will … Číst dál

generate image AI

odkazy https://github.com/lllyasviel/Fooocus OCR mnoho paměti 20GB Vram https://github.com/petrgru/HunyuanOCR Czech translator Best https://github.com/Tencent-Hunyuan/HY-MT https://github.com/infiniflow/ragflow paperless-NGX https://github.com/baruchiro/paperless-mcp