2025年8月14日
個人的Ubuntu24.04 Serverセットアップメモ の続きです。VRAM 8 GB しかない GPU で、マルチモーダル入力可能なローカル LLM サーバーを構築していきます。結論、これからローカル LLM のために GPU を用意するなら RTX 40xx 世代以降がおすすめ。 ## 環境 * Ubuntu 24.04 Server * Ryzen 7 3700X * メモリ 32GB * NVIDIA GeForce RTX 2070 * VRAM 8 GB * nvidia-driv
2025年8月13日
前回 個人的Ubuntu24.04 Desktopセットアップメモ を書きましたが、結局 Ubuntu Server に切り替えたのでその時のメモ。 ## 環境 * Ubuntu 24.04 Server * Ryzen 7 3700X * メモリ 32GB * NVIDIA GeForce RTX 2070 ## なんで Server 版にしたのか ローカル LLM とかを動かすサーバとして運用したくなった。Desktop 版のままでも良いかもとは思ったが、RDP 切断時に常時起動するはずの(ユ
2023年6月13日
今まで kubeadm でクラスター運用をしていたのですが、ラズパイくんたちのお引越しの関係で再構築することにしました。Raspberry Pi 4B 2GB や 3A+(RAM 512MB)も join させたかったこともあり、エッジ環境での動作も想定されている K3s を選びました。 ## 環境 * Raspberry Pi 4B 8GB x 2, Raspberry Pi 4B 4GB x 1, Raspberry Pi 4B 2GB x 1 * SSD ブート * PoE+ 電源