ハードウェア ローカルLLM爆速化!llama.cpp b8763でCUDA13対応とROCm7.2が実現 llama.cpp b8763がリリースされ、ローカルLLMの常識が覆ります。CUDA 13.1・ROCm 7.2対応で爆速化。Apple SiliconもKleidiAI強化。クラウドなしで最強のAI環境を構築する方法を徹底解説。今すぐチェック! 2026.04.13 ハードウェア