CUDA 13

ハードウェア

ローカルLLM爆速化!llama.cpp b8763でCUDA13対応とROCm7.2が実現

llama.cpp b8763がリリースされ、ローカルLLMの常識が覆ります。CUDA 13.1・ROCm 7.2対応で爆速化。Apple SiliconもKleidiAI強化。クラウドなしで最強のAI環境を構築する方法を徹底解説。今すぐチェック!