テキスト生成

ローカルLLM

M4 Maxで464 tok/s!vLLM-MLXがローカルLLMを3.4倍高速化

Apple Silicon搭載Macで464 tok/sを実現!vLLM-MLXがローカルLLMを3.4倍高速化。OpenAI API互換で、少ないリソースで大規模モデルを動作。