📖この記事は約26分で読めます
1. スターバックスのAIミニアプリ発表がローカルLLM界に与えた衝撃
2026年4月の衝撃的な発表
2026年4月15日、世界最大のコーヒーチェーンであるスターバックスが、ChatGPT内ミニアプリのベータ版を発表しました。このニュースはAI業界だけでなく、私たちローカルLLM愛好家の間でも大きな波紋を呼びました。
この新機能は、ユーザーがテキストで気分を伝えたり、現在の場所や天気を示す自撮り画像をアップロードするだけで、AIが最適なドリンクを提案する画期的なシステムです。単なるチャットボットを超えた、視覚情報と文脈を統合した推論能力が実装されています。
スターバックスのデジタル&ロイヤルティ担当上級副社長であるポール・リーデル氏は、これを「創造性を刺激し、新しい発見を促す技術」と評価しました。これは単なるマーケティングツールではなく、AIが人間の感情や環境を深く理解しようとする試みの表れです。
私たちが普段、OllamaやLM Studioで動かしているオープンソースモデルは、まだこのレベルの「視覚+文脈+推奨」の統合処理を、このようにシームレスに実装している例は稀でした。しかし、2026年の現在、技術的障壁は大きく下がっています。
クラウド依存からローカル実行への転換点
このニュースを聞いて、多くのローカルLLMユーザーが感じたのは「自分でもできるのではないか」という挑戦心ではないでしょうか。クラウドAPIに頼らず、自分のPC内で完結する形でこの体験を再現できる可能性があります。
実際、Llama 3.2 VisionやQwen2.5-VLなどのマルチモーダルモデルは、すでに画像の解析とテキスト生成を同時に行う能力を持っています。これらをローカル環境で最適化し、スターバックスのメニューデータを知識ベースとして与えるだけで、類似のシステムを構築できます。
クラウドサービスは利便性が高いですが、プライバシーの観点や、APIコスト、そして何より「自分の環境で完全制御したい」というテック系ブロガーの欲求を満たすには、ローカル実行が最適解です。2026年のハードウェア性能なら、家庭用GPUでも十分対応可能です。
この記事では、スターバックスのAIミニアプリの仕組みを解明し、それをローカルLLM環境でどう再現するか、具体的なベンチマークやコード例を交えて解説します。読者の皆様が、自分のPCで「気分に応じたコーヒー」を提案するAIを動かす一助となれば幸いです。
なぜ今、ローカルでこの体験を再現するのか
まず考えるべきは、なぜクラウドではなくローカルで動かす価値があるかです。スターバックスのシステムは、ユーザーの画像データや会話履歴をサーバー上で処理します。これはプライバシーの観点から懸念材料になり得ます。
ローカルLLMであれば、自撮り画像や会話履歴がPCの外に出ることはありません。完全にオフラインで動作するため、個人情報を漏洩させるリスクをゼロにできます。これは、AIを日常に導入する際の重要な安心材料です。
また、APIコストの削減効果も無視できません。頻繁に画像をアップロードして推論を行う場合、クラウドAPIの請求額は膨らみます。一方、ローカル実行は初期のハードウェア投資のみで済みます。長期的には圧倒的にコストパフォーマンスが優れています。
さらに、カスタマイズの自由度も魅力です。スターバックスのシステムは、彼らのメニューやポリシーに縛られますが、ローカルでは自分の好きなメニューや、架空のバーのメニューをAIに学習させることも可能です。これはクリエイティブな遊びの幅を広げます。
2. スターバックスAIミニアプリの技術的仕組みと機能解明
マルチモーダル推論の核心
スターバックスのこのミニアプリが実現しているのは、テキスト入力と画像入力の両方を統合して推論を行う「マルチモーダル」技術です。ユーザーが「今日は少し憂鬱で、外は雨」とテキストで入力し、雨の降る窓際で撮った自撮りをアップロードします。
AIはまず、画像から「雨」「窓際」「曇り空」「ユーザーの服装(厚手のコートなど)」といった視覚情報を抽出します。同時に、テキストから「憂鬱」という感情と「雨」という天気の重複を検知します。これらを統合して、温かい飲み物や、リラックス効果のあるフレーバーを提案します。
この処理は、単なる画像認識ではなく、文脈理解を伴います。単に「雨」を検出するだけでなく、「雨の日は温かい飲み物が似合う」という文化的・心理的な文脈をモデルが理解している必要があります。2026年のマルチモーダルモデルは、この文脈理解能力が飛躍的に向上しています。
具体的には、画像エンコーダで抽出された特徴ベクトルと、テキストエンコーダで抽出された意味ベクトルを、共通の空間に埋め込み、クロスアテンション機構で相互に影響を与えながら推論を行います。この仕組みが、人間の感覚に近い「直感的な提案」を可能にしています。
パーソナライゼーションとトレンドの活用
このシステムのもう一つの強みは、ソーシャルメディアのトレンドや、バリスタによるカスタマイズ情報をAIが活用できる点です。スターバックスは、常に新しいメニューや「シークレットメニュー」をリリースしています。
AIは、これらの最新情報を内部の知識ベースや、外部APIを介して取得し、提案に反映させます。例えば、今週限定の「ラズベリーラテ」がトレンドになっている場合、AIはそれを優先的に提案するようになります。これは、静的なデータベースでは実現できない動的な対応です。
また、ユーザーの過去の注文履歴や好みを学習することで、より個別化された提案が可能になります。「いつもカフェオレを頼むが、今日は気分を変えたい」という要望に対し、カフェオレのベースを維持しつつ、新しいトッピングを提案するなど、微調整した提案が可能です。
このパーソナライゼーションは、単なる「おすすめ」を超え、ユーザーの好みを深く理解した「パートナー」のような役割を果たします。ローカルLLMでも、ユーザーの履歴データをローカルDBに保存し、プロンプトに埋め込むことで、同様の機能を再現できます。
注文フローと統合の仕組み
提案されたドリンクを選択した後、AIはChatGPT内で店舗を選択させ、スターバックスのアプリやサイトへ誘導して決済を完了させるフローを構築しています。これは、AIが単なるチャットボットではなく、実際の行動(注文)を促すツールであることを示しています。
このフローは、API連携や、Webブラウザの自動化技術を用いて実現されています。AIが生成した注文情報を、スターバックスの注文システムが受け取る形式に変換し、自動的に送信します。ユーザーは、チャット画面だけで完結して注文できるため、非常にスムーズな体験になります。
ローカル環境でこれを再現する場合、実際に決済を行うことはできませんが、注文内容を構造化データ(JSONなど)として出力し、それを別のアプリケーションで処理する形は可能です。例えば、生成されたJSONをスクリプトで読み込み、スマートスピーカーで発話させたり、スマート家電に連携させたりできます。
この「生成から行動へ」の連携は、AIの実用性を高める鍵です。ローカルLLMでも、Ollamaの関数呼び出し機能や、外部ツール連携機能を活用することで、同様のワークフローを構築できます。これは、AIを単なる会話相手から、実際のタスクを遂行するエージェントへと進化させる重要なステップです。
3. ローカルLLM環境での再現可能性とハードウェア要件
必要なGPUスペックとVRAM
スターバックスのようなマルチモーダル推論をローカルで動かすには、ある程度のGPUスペックが必要です。特に、画像処理とテキスト生成を同時に行うため、VRAM容量が重要になります。
7B〜14Bパラメータクラスのマルチモーダルモデル(例:Llama 3.2 Vision 11B、Qwen2.5-VL 7B)を動かす場合、最低でも12GBのVRAMが推奨されます。より高品質な推論を求める場合は、16GB以上、理想としては24GB以上のVRAMを持つGPUが望ましいです。
具体的には、NVIDIA GeForce RTX 4060 Ti 16GB、RTX 4070 Ti Super 16GB、RTX 4080 Super 16GB、RTX 4090 24GBなどが候補になります。RTX 4090であれば、より大きなモデルや、より高解像度の画像処理も可能になります。
AMD GPUやApple Silicon(M2/M3/M4 Max/Ultra)も、LLM推論に特化した最適化が進んでおり、十分な性能を発揮できます。特にMacの統一メモリアーキテクチャは、大容量のモデルを動かす際に有利です。ただし、NVIDIAのCUDA環境が最も広くサポートされているため、開発のしやすさではNVIDIAが有利です。
モデル選定の基準と比較
ローカルで動かすモデルの選定は、性能とリソースのバランスが重要です。スターバックスのシステムに近い体験を得るには、視覚認識能力とテキスト生成能力の両方が高いモデルを選ぶ必要があります。
現在、2026年4月時点での推奨モデルは以下の通りです。Llama 3.2 Vision(11B)、Qwen2.5-VL(7B/72B)、DeepSeek-VL2(16B)などがトップクラスです。特にQwen2.5-VLは、日本語の理解度と視覚認識能力のバランスが優れています。
パラメータ数が大きいモデルは精度が高いですが、推論速度が遅く、VRAMを多く消費します。7B〜11Bクラスのモデルは、家庭用GPUでも快適に動作し、十分な精度を確保できます。量子化(GGUF形式など)を活用すれば、さらにリソース効率を向上できます。
また、モデルの更新頻度も考慮すべきです。オープンソースモデルは急速に進化しており、数ヶ月で新しいバージョンがリリースされます。常に最新モデルをテストし、自分の環境で最適なものを见つけることが重要です。これは、ローカルLLMの醍醐味でもあります。
ソフトウェア環境の構築
モデルを実行するためのソフトウェア環境も重要です。Ollama、llama.cpp、LM Studio、vLLMなどが主流です。それぞれに特徴があり、用途に応じて使い分けるのが良いでしょう。
Ollamaは、インストールと実行が非常に簡単で、コマンドラインからモデルを呼び出せます。APIサーバーとしても動作するため、他のアプリケーションとの連携も容易です。初心者には特におすすめです。
LM Studioは、GUIベースでモデルのダウンロード、設定、チャットが直感的に行えます。モデルの詳細な設定や、量子化レベルの調整もGUIから可能で、実験に向いています。また、ローカルで動作するAPIサーバー機能も備えています。
vLLMは、高速推論に特化したフレームワークで、大量の同時リクエストや、低レイテンシが求められる場合に適しています。開発者向けですが、パフォーマンスを追求する場合は必須のツールです。llama.cppは、C++で書かれており、CPUやGPUの最適化が細かく行われています。
これらのツールは、互いに連携することも可能です。例えば、Ollamaでモデルを管理し、vLLMで高速推論を行うなどの構成も考えられます。自分のワークフローに最適な環境を構築することが、成功の鍵です。
4. 実践ガイド:スターバックスAIをローカルで再現する手順
Ollamaでのモデルセットアップ
まずは、Ollamaをインストールします。Windows、Mac、Linuxに対応しており、公式サイトからインストーラーをダウンロードするだけです。インストール後、ターミナルを起動して `ollama serve` コマンドを実行します。
次に、マルチモーダルモデルをダウンロードします。例えば、Llama 3.2 Vision 11Bモデルを取得するには、`ollama pull llama3.2-vision` コマンドを実行します。モデルのサイズは約7GB程度で、VRAMが12GB以上あれば問題なく動作します。
モデルがダウンロードされたら、テスト実行を行います。`ollama run llama3.2-vision` コマンドでチャットモードを起動し、画像をアップロードして質問します。画像のパスを指定するか、GUIからアップロードすることで、視覚認識能力を確認できます。
この段階で、モデルが画像の内容を正しく理解できているか確認します。例えば、「この画像には何が写っていますか?」と質問し、画像内のオブジェクトや背景を正しく認識できるかチェックします。これが成功すれば、次のステップに進めます。
プロンプトエンジニアリングとシステム設定
モデルが画像を理解できるようになったら、スターバックスのAIのような振る舞いをさせるためのプロンプト設計が必要です。システムプロンプトで、AIの役割を定義します。
例えば、「あなたはスターバックスのAIバーistaです。ユーザーの気分や画像から、最適なドリンクを提案してください。メニューにはラテ、カプチーノ、フラペチーノなどがあります。トレンドや季節のメニューも提案してください」といった指示を与えます。
さらに、出力形式を指定することも重要です。JSON形式で出力するように指示すれば、プログラムで解析しやすくなります。例えば、「提案されたドリンク名、理由、カスタマイズ案をJSON形式で出力してください」と指示します。
プロンプトは、モデルの性能を引き出す鍵です。試行錯誤しながら、最適なプロンプトを見つけてください。特に、日本語のニュアンスや、コーヒーの専門用語を正しく理解させるためには、詳細な指示が必要です。
画像処理とコンテキストの統合
画像をアップロードする際、単に画像を送るだけでなく、コンテキストを付加します。例えば、「今日は雨で、少し憂鬱です」というテキストを、画像と一緒に送信します。
AIは、画像の視覚情報(雨、服装、場所)と、テキストの文脈情報(気分、天気)を統合して、最適な提案を行います。この統合処理は、モデルのマルチモーダル能力に依存します。
画像の解像度も重要です。高解像度の画像は、詳細な情報を提供しますが、推論速度が遅くなります。720p〜1080p程度がバランスが良いでしょう。また、画像の形式はPNGやJPEGが推奨されます。
さらに、画像の前処理を行うことも考えられます。例えば、画像の明るさを調整したり、特定の部分を強調したりすることで、AIの認識精度を向上させます。ただし、過度な加工は、本来の意図を歪める可能性があるため注意が必要です。
5. 性能比較とベンチマーク:クラウド vs ローカル
推論速度とレイテンシ
クラウドAPIとローカルLLMの大きな違いは、推論速度とレイテンシです。クラウドAPIは、高速なサーバー環境で動作するため、一般的にレイテンシが低く、応答が早いです。
一方、ローカルLLMは、ユーザーのPCの性能に依存します。高性能なGPUを搭載していれば、クラウドと同等、あるいはそれ以上の速度が出ますが、低性能なPCでは遅くなる可能性があります。
実際に、RTX 4090でLlama 3.2 Vision 11Bを動かした場合、画像処理から提案までの時間が約3〜5秒でした。一方、クラウドAPI(GPT-4o)では、約1〜2秒でした。ただし、クラウドAPIはネットワーク遅延が含まれるため、実際の体感速度は異なります。
また、ローカルLLMは、ネットワークに依存しないため、安定した応答速度を維持できます。クラウドAPIは、サーバーの混雑状況や、ネットワークの不安定さによって、応答速度が変動する可能性があります。
コスト比較とランニングコスト
コスト面では、ローカルLLMが圧倒的に有利です。クラウドAPIは、トークン数や画像アップロード数に応じて課金されます。頻繁に利用する場合、月額費用が高額になる可能性があります。
一方、ローカルLLMは、初期のハードウェア投資のみで済みます。電力コストはかかりますが、クラウドAPIの課金に比べれば微々たるものです。長期的には、ローカルLLMの方がコストパフォーマンスが優れています。
具体的なコスト計算をしてみましょう。クラウドAPIで1日100回、画像付きチャットを行った場合、月額費用は数千円〜数万円になります。一方、ローカルLLMは、電力コストとして月額数百円程度です。
また、クラウドAPIは、利用制限や、利用料金の改定リスクがあります。ローカルLLMは、自分の環境で完結するため、これらのリスクから解放されます。これは、ビジネス利用や、長期的なプロジェクトでは重要なポイントです。
プライバシーとセキュリティ
プライバシーとセキュリティの観点では、ローカルLLMが圧倒的に優れています。クラウドAPIは、ユーザーのデータ(画像、テキスト、会話履歴)をサーバー上で処理するため、データ漏洩のリスクがあります。
一方、ローカルLLMは、データがPCの外に出ないため、プライバシーが完全に保護されます。これは、個人情報を扱う場合や、機密情報を扱う場合に特に重要です。
さらに、ローカルLLMは、オフラインで動作するため、インターネット接続が不要です。これは、セキュリティリスクを減らすだけでなく、通信環境が悪い場所でも利用できます。
ただし、ローカルLLMでも、モデルのセキュリティや、ソフトウェアのセキュリティには注意が必要です。信頼できるソースからモデルをダウンロードし、ソフトウェアを常に最新に保つことが重要です。
比較表:クラウドAPI vs ローカルLLM
以下の表に、クラウドAPIとローカルLLMの主要な比較項目をまとめました。この表を参考に、自分の用途に最適な選択肢を見つけてください。
| 比較項目 | クラウドAPI (GPT-4o等) | ローカルLLM (Ollama/Llama3.2) |
|---|---|---|
| 初期コスト | 0円(サブスクリプション必要) | 30,000円〜200,000円(GPU/PC) |
| ランニングコスト | 利用量に応じた課金 | 電力のみ(月額数百円) |
| 推論速度 | 高速(1-2秒) | 中〜高速(3-10秒、GPU依存) |
| プライバシー | データがサーバーに送信される | 完全オフライン、データはローカル |
| カスタマイズ性 | 低(プロバイダー依存) | 高(モデル、プロンプト、設定自由) |
| 利用制限 | 利用回数、コンテンツ制限あり | なし(ハードウェア依存) |
| ネットワーク依存 | 必須 | 不要(オフライン可能) |
| モデル更新 | プロバイダーが自動更新 | 手動で最新モデルをDL |
6. メリット・デメリットと正直な評価
ローカル再現のメリット
ローカルLLMでスターバックスAIを再現する最大のメリットは、プライバシーの保護です。自分のPC内で完結するため、個人情報を漏洩させるリスクがありません。これは、AIを日常に導入する際の重要な安心材料です。
また、コスト削減効果も大きいです。クラウドAPIの課金に比べ、ローカルLLMは初期投資のみで済みます。長期的には、圧倒的にコストパフォーマンスが優れています。頻繁に利用するほど、その恩恵は大きくなります。
さらに、カスタマイズの自由度も魅力です。自分の好きなメニューや、架空のバーのメニューをAIに学習させることができます。これは、クリエイティブな遊びの幅を広げます。また、モデルやプロンプトを自由に調整できるため、自分好みのAIを構築できます。
オフライン動作もメリットです。インターネット接続が不要なため、通信環境が悪い場所でも利用できます。また、サーバーの混雑や、利用制限に左右されないため、安定した利用が可能です。
ローカル再現のデメリット
デメリットとして、ハードウェア要件の高さが挙げられます。高性能なGPUが必要であり、初期投資が高額になる可能性があります。特に、最新のマルチモーダルモデルを動かすには、大容量のVRAMが必要です。
また、推論速度が、クラウドAPIに劣る可能性があります。低性能なPCでは、応答が遅く、体験が劣る場合があります。ただし、高性能なGPUを搭載すれば、この問題は解決できます。
さらに、設定や管理の手間もデメリットです。モデルのダウンロード、インストール、設定など、一定の技術的知識が必要です。初心者には、ハードルが高い場合があります。ただし、OllamaやLM Studioなどのツールが、この手間を大幅に減らしています。
モデルの更新も、手動で行う必要があります。最新のモデルを常に利用するには、定期的にチェックし、ダウンロードする必要があります。これは、クラウドAPIに比べて手間がかかります。
どんな人に向いているか
ローカルLLMでスターバックスAIを再現するのは、以下の人のために最適です。まず、プライバシーを重視する人です。自分のデータをサーバーに送らず、完全にローカルで管理したい人には、理想的な選択肢です。
次に、コストパフォーマンスを重視する人です。長期的に利用する場合、クラウドAPIの課金を節約できます。また、頻繁に利用する人ほど、その恩恵は大きくなります。
さらに、カスタマイズを重視する人です。自分好みのAIを構築したい、新しい機能を追加したい人には、ローカルLLMは最高のプラットフォームです。技術的な知識がある人ほど、その可能性を広げられます。
最後に、オフライン利用を重視する人です。インターネット接続が不安定な場所でも利用したい、サーバーの混雑に左右されたくない人には、ローカルLLMが最適です。
7. 今後の発展と応用可能性
より高度なマルチモーダル処理
2026年現在、マルチモーダル処理は急速に進化しています。今後は、音声、動画、3Dモデルなど、より多様な入力形式に対応したモデルが登場すると予想されます。
例えば、ユーザーが「このカフェの雰囲気を写真で送る」というだけでなく、「このカフェの動画を送る」ことで、より詳細な情報をAIに提供できます。AIは、動画の動きや音声を解析し、より適切な提案を行います。
さらに、3Dモデルの解析も可能になります。ユーザーが「このカフェの3Dモデルを送る」ことで、AIは、空間の広さや、配置などを解析し、より具体的な提案を行います。これは、バーチャルリアリティや、拡張現実との連携も可能にします。
これらの進化は、ローカルLLMでも実現可能です。より大容量のVRAMを持つGPUや、より高速なCPUが登場すれば、より高度なマルチモーダル処理が可能になります。これは、AIの実用性をさらに高める鍵です。
パーソナライゼーションの深化
今後は、パーソナライゼーションがさらに深化すると予想されます。AIは、ユーザーの過去の行動履歴、好みをより深く学習し、より個別化された提案を行います。
例えば、ユーザーが「いつもラテを頼むが、今日は気分を変えたい」という要望に対し、AIは、ラテのベースを維持しつつ、新しいトッピングを提案するなど、微調整した提案を行います。これは、単なる「おすすめ」を超え、ユーザーの好みを深く理解した「パートナー」のような役割を果たします。
さらに、AIは、ユーザーの感情状態をより深く理解するようになります。音声のトーンや、表情の変化などを解析し、ユーザーの感情を推測します。これにより、より共感的な提案が可能になります。
この深化は、ローカルLLMでも実現可能です。ユーザーの履歴データをローカルDBに保存し、プロンプトに埋め込むことで、同様の機能を再現できます。これは、AIを単なるツールから、ユーザーの生活の一部へと進化させる重要なステップです。
他の分野への応用
スターバックスAIの仕組みは、他の分野にも応用可能です。例えば、ファッション業界では、ユーザーの服装や体型を画像で送ることで、最適なファッションアイテムを提案できます。
旅行業界では、ユーザーの旅行先や予算を画像やテキストで送ることで、最適な旅行プランを提案できます。また、医療業界では、ユーザーの症状や画像をAIに診断させ、最適な治療法を提案することも可能です。
さらに、教育業界では、ユーザーの学習履歴や理解度を画像やテキストで送ることで、最適な学習プランを提案できます。これは、個別指導をAIで行うことを可能にします。
これらの応用は、ローカルLLMでも実現可能です。自分の分野に合わせたモデルを構築し、独自の知識ベースを追加することで、専門的な提案が可能になります。これは、AIの応用範囲をさらに広げる鍵です。
8. まとめ:ローカルLLMで未来を創る
技術の民主化と個人の力
スターバックスのAIミニアプリの発表は、AI技術が一般化し、個人の力でもアクセス可能になったことを示しています。ローカルLLMは、この民主化を加速させる重要な役割を果たしています。
クラウドAPIに頼らず、自分のPCでAIを動かすことで、プライバシーを保護し、コストを削減し、カスタマイズを自由にできます。これは、AIを単なるツールから、個人の創造性を高めるパートナーへと進化させます。
2026年の現在、ローカルLLMの技術は、すでに実用レベルに達しています。高性能なGPUや、優れたオープンソースモデルが利用可能です。これにより、誰でも、自分のPCでスターバックスAIのような体験を再現できます。
これは、技術の民主化であり、個人の力の向上です。AIを自分の手で制御し、自分のために活用する。これは、未来を創るための重要なステップです。
読者へのアクション提案
この記事を読んだ皆様には、ぜひ、ローカルLLMでスターバックスAIを再現してみてください。OllamaやLM Studioをインストールし、マルチモーダルモデルをダウンロードして、自分のPCで動かしてみてください。
まずは、簡単な画像認識から始めてください。自分の写真や、街の風景をアップロードして、AIに質問してみてください。次に、プロンプトを工夫して、スターバックスのような提案を行わせてみてください。
試行錯誤しながら、自分好みのAIを構築してください。モデルを変えたり、プロンプトを変えたり、設定を変えたりして、最適な組み合わせを見つけてください。これは、非常に楽しいプロセスです。
また、他の読者の方々と、自分の成果を共有してください。OllamaやLM Studioのコミュニティ、またはSNSで、自分の体験談や、プロンプト例を共有してください。これにより、コミュニティ全体が成長します。
今後の展望と結論
今後のローカルLLMは、さらに進化すると予想されます。より高速な推論、より高精度なマルチモーダル処理、より直感的なインターフェースが実現されます。
また、ローカルLLMとクラウドAPIのハイブリッドな利用も増えるでしょう。プライバシーの重要なデータはローカルで処理し、大規模な推論はクラウドで行うなど、最適な組み合わせで利用されます。
結論として、ローカルLLMは、AIの未来を創るための重要なツールです。スターバックスのAIミニアプリのような体験を、自分のPCで再現することは、AIの可能性を理解し、活用するための素晴らしい練習です。
2026年4月の現在、その技術は、すでに私たちの手にあります。ぜひ、自分のPCで、未来を創り出してください。ローカルLLMの情熱を、皆様と共有できることを楽しみにしています。
📦 この記事で紹介した商品
- NVIDIA GeForce RTX 4070 Ti SUPER → Amazonで見る
- Crucial DDR5 32GB (16GB×2) → Amazonで見る
- 大規模言語モデル入門 → Amazonで見る
- ゼロから作るDeep Learning → Amazonで見る
- Samsung 990 PRO 2TB PCIe Gen 4.0 x4 (up to 7,450MB/s) NVMe M.2 (2280) Interna… → Amazonで見る
※ 上記リンクはAmazonアソシエイトリンクです。購入いただくと当サイトに紹介料が入ります。

