ROCm

ローカルLLM

RX7900XTXでコンテキスト長2倍!vLLMのFP8量子化徹底解説

RX7900XTX + vLLMでコンテキスト長を2倍に!FP8量子化によるローカルLLM最適化術を完全解説。VRAM制限を突破する最新技術をチェック。
ハードウェア

2026年版!AMD APU vs NVIDIA:AI開発者必見の選択肢徹底解説!

2026年のAI開発でAMD APUとNVIDIA GPUどちらを選ぶべきか?Copilotとの会話から導かれる実践的比較と選択肢を解説。PyTorchやROCmの現状も詳しくご紹介。