Kimi K2: オープンソースLLMがChatGPT-5.1 & Claude 4.5に匹敵する推論力

著者: Boxu Li

Kimi K2の考える力とは?

Kimi K2の考える力は、Moonshot AIが最新開発した大規模言語モデル(LLM)で、「考えるエージェント」として段階的に推論し、外部ツールを自律的に呼び出すことが可能です。本質的に、Kimi K2は深層推論と長期的なタスク実行の限界を押し広げるオープンソースのエージェント的推論モデルです。2025年後半にリリースされ、1兆パラメータという巨大なアーキテクチャを持ちながらも、Mixture-of-Experts(MoE)設計により推論ごとに32億パラメータのみを活性化して効率的に動作します[1]。これにより、K2は複雑なタスクでトップクラスの性能を発揮しつつ、非現実的なハードウェアを必要としません。オープンモデルとして(修正MITライセンスの下でリリース)、Kimi K2はAIコミュニティに自由に提供されており、OpenAIのGPT-5シリーズやAnthropicのClaudeのようなプロプライエタリシステムとは対照的です。

主な特徴と革新

  • 深い思考の連鎖とツールの利用: Kimi K2は、思考の連鎖と動的ツール呼び出しを組み合わせるように訓練されています。自動的に検索エンジン、電卓、コードインタープリター、その他のAPIを思考の途中で呼び出すことができます。驚くべきことに、200〜300回の連続的なツール呼び出しを人間の介入なしに行っても一貫性を保ちます。以前のモデルは30〜50回の呼び出しで目的を見失うことがありましたが、K2の長期間にわたる集中力はツール使用エージェントの革新です。これにより、複雑なワークフロー(リサーチ、コーディング、ライティング)が数百ステップにわたっても軌道を外れることなく実行できます。
  • 大規模なコンテキストウィンドウ: 256,000トークンのコンテキスト長を持つKimi K2は、本全体や数時間のトランスクリプトを入力として扱うことができます。これは、今日のほとんどのモデルのコンテキストを大幅に超えています(参考までに、Claude 4.0は100Kトークンを提供し、新たな競合他社であるDeepSeek V4やGoogle Gemini 3もようやく1Mトークンのコンテキストに到達しています)。この巨大なコンテキストにより、K2は長文や対話を通して知識を統合することができ、初期情報を切り捨てたり忘れたりすることなく、推論の連続性を向上させます。
  • 兆パラメータのMoE効率: 内部では、K2のMixture-of-Expertsアーキテクチャは384のエキスパートサブネットワークを使用し、クエリごとにその一部のみを活性化します。これにより、各トークンごとに8つのエキスパートを選択することで、32Bパラメータモデルとして機能し、兆パラメータモデルの力をランタイムコストの一部で発揮します。このスパースゲーティングアプローチにより、異なるタスクの側面をより専門化された“脳”が処理し、マルチドメイン推論を向上させることができます。兆パラメータモデルはかつては純粋に理論的でしたが、Kimi K2は極端なスケールと実用性が出会う実現可能なデザインを示しています。
  • INT4量子化による高速化: K2は、量子化認識トレーニングを使用して4ビットの重みをネイティブにサポートするように後期トレーニングされました。このINT4量子化により、メモリと推論のレイテンシーが約半分に削減され、精度の損失はありません。実際には、K2は同等のサイズのモデルよりも少ないGPUメモリでより速く回答を生成できます。すべてのベンチマーク結果はINT4精度で報告され、効率がパフォーマンスを犠牲にする必要はないことを示しています。開発者にとっては、この大規模なモデルをより控えめなハードウェアで使用するための障壁を下げます。
  • 安定した長期エージェンシー: 専門的な報酬モデリングと一貫性のあるトレーニングのおかげで、K2は非常に長いセッションにおいて安定した目標指向の行動を示します。他のエージェントが多くのインタラクション後に示す通常のドリフトや劣化に抵抗します。たとえば、初期のテスターは、300回のツール呼び出しや4時間の連続的な推論セッション後でもコンテキストと目的を保持できることを発見しました。この長いタスク(段階的な問題解決や多段階のコーディングプロジェクトなど)における信頼性は重要な差別化要因です。

Kimi K2アーキテクチャ: MoEと「推論グラフ」

Kimi K2のアーキテクチャは、最先端のトランスフォーマーバックボーンと、ほぼすべてのブロックにMoE(専門家の混合)レイヤーを組み合わせています。合計61層と384の専門家を持ち、64のアテンションヘッドとSwiGLU活性化関数を使用しています[8]。トークンごとにアクティブになるのは8つの専門家のみで、ゲーティングネットワークによって各クエリが最も関連性の高い「専門家」にルーティングされます。この設計により、K2はモジュラー推論の形を取ります:異なる専門家がサブタスク(数学、コード、言語など)に特化でき、モデルは入力を処理する際に専門家のパスウェイの**「推論グラフ」**を動的に組み立てます。つまり、複雑なクエリは専門家ノードのグラフを通過し、単一のモデルよりも多様で正確な推論を可能にします。

このアイデアは、線形パスではなくグラフとして思考の連鎖を表現する新興の研究と一致しており、モデルの理解と堅牢性を向上させる可能性があります。K2のトレーニングは、そのような分岐と統合の動作を思考の連鎖に促し、各クエリに対して暗黙の推論グラフを生成したと考えられます。その結果、問題に柔軟にアプローチし、複数の解決策を内部で探求してから回答に収束するLLMが生まれました。これにより、推論ベンチマークでの高スコアに寄与する可能性があります。洗練されているにもかかわらず、K2は使いやすさを保っています。テスターは、AppleのSOCであるデュアルM3-Ultra設定で約15トークン/秒で動作し、完全な1Tモデルは圧縮で約600GBのVRAMに収まると報告しています[12][13]。オープンソースコミュニティモデルとして、その規模を考えると驚くほどアクセスしやすいです。

ベンチマークパフォーマンス: Kimi K2 vs. GPT-5.1, Claude 4.5, DeepSeek

MoonshotのKimi K2は、2025年の最高のモデルと比較テストされました。多くのAIベンチマーク2025で、K2の結果は注目を集めています。いくつかの推論チャレンジで新たな最先端のスコアを記録し、しばしばクローズドソースの競合を上回ります[2][14]。以下に主要なベンチマーク比較のスナップショットを示します(高いほどパフォーマンスが良い):

ベンチマーク (2025)
Kimi K2
GPT‑5.1
Claude 4.5
DeepSeek V3.2
人類の最後の試験 (ツール付き)
44.9%[15]
41.7%[16]
~32%[16]
20.3%[16]
BrowseComp ウェブ検索 (ツール付き)
60.2%[15]
54.9%[17]
24.1%[18]
40.1%[17]
GPQA (難問 Q&A 正確度)
85.7%[15]
84.5%[15]
79.9%[19]
SWE-Bench (コーディング、検証済み)
71.3%[11][20]
68% (推定)
コンテキストウィンドウの長さ
256K トークン[5]
「マルチウィンドウ」 (圧縮で百万以上)[21]
100K トークン
1M トークン (V4)[6]

テーブル: Kimi K2 Thinking vs. トップモデル – 複雑な推論(HLE)やウェブリサーチのタスクにおいて、K2は群を抜いており、GPT-5.1をも凌ぐ結果を見せています。BrowseCompのようなエージェントツール強化型ベンチマークでは、Claude 4.5を大きく上回っており(Claude 4.5はツールの使用に苦戦しました)[15]GPQAでは、K2は困難なQ&AでGPT-5.1と互角の戦いを見せ、コーディングベンチマーク(SWE-Bench)では、K2はオープンモデルの最前線に立っています[11][20]。K2の唯一の控えめなパフォーマンスのカテゴリーは、GPT-5.1やClaudeが依然として若干の優位性を保つ知識重視のタスクです[14] – 例えば、GPT-5.1は高度な言語タスクでわずかに高得点を獲得し、Claude 4.5は高レベルのクリエイティブライティング評価で依然としてアドバンテージを持っているとの報告があります。それにもかかわらず、Kimi K2は劇的にその差を縮めています。オープンモデルがクローズド「フロンティア」モデルに総合能力でこれほど接近したことはかつてありません[22]

特に、Humanity’s Last Exam (HLE) – 多くの領域にわたる過酷で包括的なテスト – は、K2の実力を示す場となりました。ツールが有効化された状態で、Kimi K2は44.9%のスコアを記録し、GPT-5.1の41.7%を上回りました[18]。これは大きな出来事です:HLEは本質的にチューリングテストに似た知識と推論の試練であり、ここでオープンモデルがOpenAIのフラッグシップモデルを上回るのは注目に値します。BrowseCompという難易度の高いウェブリサーチのベンチマークでは、K2は60.2%を達成し、GPT-5.1の54.9%に対して優れた結果を示し、Claude 4.5は24%と大きく遅れをとりました[15]。これは、Kimi K2のようなツールを使う“エージェント”モデルが、アクティブな情報取得と多段階の推論を必要とするタスクを支配できることを強調しています。AnthropicのClaudeは、「Sonnet 4.5」推論モードでも、このようなインタラクティブなタスクには最適化されていませんでしたが、K2はそのために作られました。

注目すべき点は、すべてのスコアがK2にとっての勝利ではないということです。まだ(いくつかの一般知識クイズや創造的タスク)でGPT-5.1Claude 4.5が優位に立つことがあります[14]。例えば、GPT-5.1は特定の高レベルの学術的ベンチマークでわずかなリードを持ち、Claudeの広範な微調整は、時に微妙な会話の質で役立ちます。しかし、その差は小さく、K2はしばしばマージン内で勝利または引き分けます。これは、オープンソースのLLMにとって大きな飛躍を表しており、1年前には最高のオープンモデルがGPT-4のようなものに大きく遅れを取っていたことを考えると驚異的です。

Kimi K2 vs. GPT-5.1 Codex-Max

OpenAI の GPT-5.1-Codex-Max は、長文のコーディングやエージェントタスクを目的とした GPT-5.1 の特化版です。これはクローズドモデルですが、公開されている情報によれば、GPT-5.1 は数百億から数千億のパラメータを持つ密な(完全にアクティブな)アーキテクチャを使用しています(OpenAI は正確なサイズを公表していません)。比較すると、Kimi K2 は GPT-5.1 に対抗しています。推論ベンチマークの HLE では、K2 はツールを使用して GPT-5.1 をわずかに上回りました[18] し、複雑な QA ではほぼ同等のパフォーマンスを示しました(K2 の 85.7% 対 GPT-5.1 の 84.5% の難しい QA セットで)[15]。GPT-5.1 はいくつかの分野で若干の優位性を持っています。たとえば、GPT-5.1 のマルチステップコーディングや数学のトレーニングにより、特定の数学/コードテストでほぼ完璧なスコアを達成しています(OpenAI は GPT-5.1 が AIME 数学でツールを使用して 99.6% に達し、K2 の 99.1% をわずかに上回っていると報告しています[23])。しかし、これらの差はわずかです。

大きな対比はコンテキスト処理です。Kimi K2は固定された256Kトークンウィンドウを持っていますが、GPT-5.1 Codex-Maxは「マルチコンテキスト」戦略である コンパクションを使用しています。OpenAIのモデルは、複数のコンテキストウィンドウを横断して作業することができ、1つの拡張されたタスクで何百万ものトークンを効果的に処理できます**[21]**。1つの巨大なウィンドウを用いるのではなく、必要に応じてコンテキストを分割し圧縮します。これにより、GPT-5.1は、例えば、全コードベースを読み込むための無限の作業空間を持ちます。K2は一度に何百万ものトークンをネイティブに処理することはできませんが、256Kに制限されています。それでも、巨大なドキュメントを一度に処理することは可能です。そのため、大規模なコードのリファクタリングのようなタスクでは、GPT-5.1はその賢いコンテキスト処理によって優位性を持っているかもしれません。一方、Kimi K2の利点はアクセスビリティです。オープンソースであり、自己ホスティングが可能であるのに対し、GPT-5.1は独自のサービスです。開発者はOpenAI互換のAPIを介してK2を統合したり、自分のハードウェアで実行したりできます*[24]*、ベンダーロックインを回避します。要するに、Kimi K2とGPT-5.1は推論ベンチマークで拮抗していますが、哲学が異なります。1つはオープンコミュニティのスケールの勝利であり、もう1つは最先端の独自トリックを持つクローズドモデルです。

Claude 4.5(「ソネット」)対 Kimi K2

AnthropicのClaude 4.5は、「Claude Sonnet 4.5」というコードネームが付けられたアップデートで、より長い推論チェーンと「会話的思考」スタイルを強調しました。Claude 4.5はインターリーブ思考トークンを導入しました。これは、Claudeが問題を解決する際に内部で自分に話しかけるような方法で、Anthropicに特有のものでした[25]。興味深いことに、これはKimi K2や他のエージェントモデルが思考の連鎖を実行する方法に似ていますが、Claudeは歴史的にツールを使用せずにこれを行っていました。直接比較すると、Kimi K2はほとんどのツール補強タスクでClaude 4.5を大きく上回っています。例えば、BrowseComp(ウェブナビゲーション/検索チャレンジ)では、K2が60%を達成したのに対し、Claude 4.5はわずか24%でした[15]。これは、Claudeの推論がアクティブなツールの使用やウェブインタラクションが必要な場合に失敗することを示唆しています。これは、おそらくClaudeが自律的なツール呼び出しのために明示的に構築されていなかったためです。Claude 4.5は純粋な知識ベンチマークでは競争力を維持しました。例えば、拡張されたMMLU知識テストでは、Claudeのスコアは80点台後半で、K2とほぼ同等でした[26]

クリエイティブライティングと「雰囲気」に関しては、Claudeはフレンドリーで非決定論的なスタイルで知られています。初期のユーザーは、Kimi K2がその前モデルからの独特な書き味を保持していると指摘しており、人間らしい魅力的な応答を生成することができるとされています。ClaudeとK2の両方が100K+のコンテキストサポートを提供しており(Claudeは最大100K、K2はそれを超える)、長い会話や文書をうまく処理します。K2が引き離すのは、決定論的で目標志向のタスクにおいてです。何百ものステップを経てもプロットを失うことなく進行し、非常に複雑なクエリに対してもClaudeよりも一貫性があります。

もう一つの要因はオープン性です。Claude 4.5はクローズドソースでAPI経由でアクセスされ(コストやガードレールがある)、一方でK2はオープンです。開発者や研究者がモデルを検査したり微調整したりする必要がある場合、K2はその柔軟性を提供します。まとめると、Claude 4.5の自然な会話AIにおける強みは認められていますが、Kimi K2は構造化された推論とツール使用のシナリオにおいてより堅牢であることを証明し、2つの中でより強力な「思考」エージェントと言えるでしょう。

DeepSeek V4とGemini 3: 新たな挑戦者たち

AIの状況は急速に進化しており、Kimi K2と並んでよく言及される名前にDeepSeekGeminiがあります。DeepSeek V4(2025年末に予定)は、中国拠点のDeepSeekラボからの次期フラッグシップであり、コンテキストの長さと効率性を積極的に推し進めることで知られています。プレビューでは、DeepSeek V4は百万トークンのコンテキストウィンドウをサポートするとされています。これは戦争と平和を2回分収めるのに十分です[6]。これはK2のコンテキストさえも圧倒し、膨大なデータ(例えば、全コードベースやライブラリ)を一度に取り込むことへの重要性を示唆しています。V4の初期テスターは、V3に比べて40%のステップバイステップ問題解決の向上と、はるかに少ない推論エラーを報告しています[27]。これらの数値が維持されれば、DeepSeek V4はKimi K2に対して体系的な推論タスクで挑戦する可能性があります。しかし、DeepSeekモデルは歴史的に「ベンチマーク重視」、つまりベンチマークスコアを支配することに焦点を当てており、時には実世界での洗練さを犠牲にすることがあります[28]。V4がK2のようにバランスの取れたエージェント的な行動を示せるかはまだ分かりません。Kimi K2は、MoEとツール使用トレーニングによって、ボックスから出した直後によりホリスティックなエージェントであり、DeepSeekは同様の機能を達成するために追加のツールプラグインやプロンプトが必要かもしれません。

一方、GoogleのGemini 3 Proは次世代AIに対するテクノロジー大手の回答です。Gemini 3 Proは、「推論優先」マルチモーダルモデルで高度なエージェント機能を備えていると説明されており、特に1Mトークンコンテキストウィンドウも特徴としています[7]。複雑な問題解決に優れており、画像や他のモダリティも処理できるよう設計されており、テキスト専用のKimi K2とは若干異なる焦点を反映しています。内部ベンチマークでは、Gemini 3は推論、コーディング、マルチモーダルタスクで以前のモデルを上回ると噂されています[29][30]。クローズドモデルとして、GeminiはGoogleのサービス(例:Vertex AI)を通じてアクセス可能で、ダウンロード可能な重みは提供されません。噂の流れによれば、Gemini 3はK2のスコアを上回る可能性があるとされていますが、公にベンチマークされるまでは、Kimi K2がオープンに報告されたエージェントLLMの中でトップを維持しています。

オープンモデルとクローズドモデルの差が急速に縮まっていることは示唆的です。Nathan Lambertは、Kimi K2が「これまでで最もクローズドな性能のフロンティアに近づいているオープンモデル」であると観察しています[22]。DeepSeekやKimiのようなオープンモデルは、1年前にプロプライエタリモデルだけが持っていたレベルに到達しています。AIの実践者にとって、これはより多くの選択肢と迅速な進展を意味します。Kimi K2はHugging FaceやMoonshot APIを通じて今日利用可能で、クローズドエコシステムの制約なしに多くのケースでGPT-5.1に匹敵する結果を楽しめます。同様に、DeepSeek V4、Gemini 3などの競争は、OpenAIやAnthropicからさらにイノベーションを促す可能性があります(コミュニティが言うように、「汗をかく必要がある」[31])。

FAQ: Kimi K2と次世代の推論AI

Q: Kimi K2 Thinking モデルとは何ですか? A: Kimi K2 Thinking は、Moonshot AI が開発した大規模な言語モデルで、自律的な推論エージェントとして設計されています。これは 1兆パラメーターのモデル(エキスパート混合アーキテクチャ)で、複雑な問題を段階的に解決し、推論過程で外部ツール(ウェブ検索やPythonなど)を呼び出すことができます。Kimi K2 はオープンソースで、誰でも利用または展開することができ、2025年の多くのAIベンチマークで最先端の性能を達成しています。

Q: Kimi K2 はオープンソースで無料で使えるのですか? A: はい。Kimi K2 はコミュニティ向けに公開されました(修正版MITライセンスの下で)[1]。モデルの重みは Hugging Face からダウンロードするか、Moonshot の API を介して利用できます[24]。オープンソースであることは、研究者や開発者が自分のハードウェアで K2 を実行したり、微調整したり、アプリケーションに統合したりできることを意味し、ライセンス料を支払う必要がありません(少なくとも小規模なデプロイメントにおいては)。このアクセスのしやすさは、GPT-5.1 や Claude のような有料APIを通じてのみ利用可能なクローズドモデルに対する大きな利点です。

Q: Kimi K2はGPT-5.1やClaude 4.5とどう比較されますか? A: Kimi K2は、多くの推論領域で最新のGPT-5.1やClaude 4.5と同等であり、特定のベンチマークではそれらを上回っています[15][14]。例えば、K2は難易度の高い試験ベンチマーク(HLE with tools)でGPT-5.1より高得点を獲得し[18]、ウェブリサーチタスク(BrowseComp)ではClaude 4.5を大きく上回りました[15]。一方で、GPT-5.1は依然としていくつかのタスクでわずかに優れており(マルチウィンドウコンテキスト処理のような独自機能を持っています[21])、Claude 4.5は会話や創造的なタスクで卓越しています。しかし、全体的に見て、Kimi K2はオープンモデルとしてトップの閉鎖モデルに匹敵する能力を持つに至ったことは、驚くべき成果です。

Q: Kimi K2を実行するために必要なハードウェアは何ですか? A: Kimi K2は大規模モデルで、1兆のパラメータを持ち(各トークンで32Bアクティブ)、フルモデルをFP16精度でロードするには約500〜600 GBのVRAMが必要です。しかし、4ビット量子化のおかげで、INT4ウェイトを使用することで約**>150 GBのVRAM**で実行可能です[12][13]。これにより、ハイエンドのサーバーやクラスター(例えば、8× A100 GPUがホスト可能)でも実行できます。個人利用では、より小型の蒸留版を実行したり、クラウドサービスを利用したりできます。あるRedditユーザーは、2つのApple M3 Ultraチップを使用して、量子化されたモデルで~15トークン/秒でK2を実行しました[12]。要約すると、簡単ではありませんが、K2の効率的な設計により、合理的なマルチGPUセットアップで1兆パラメータ規模の実験が可能です。

Q: Kimi K2 は1回のセッションでいくつのツールを使用できますか? A: Kimi K2 は1回のセッションで印象的な数のツールコールを管理できます。具体的には、200から300回の連続したツール使用が人間の介入なしに可能です[2][3]。これにより、K2は目標に向けて何百ものステップを踏みながら、検索、計算、コーディングなどをループで続けることができます。これらのコール中にコンテキストを維持し、「考える」とツールの実行を組み合わせる特別なフォーマットを使用します。この機能が「考える」モデルと呼ばれる理由の一部です。内部的に自律エージェントループを実行しているからです。対照的に、以前のほとんどのモデルは数十回のツール使用で目標を見失ったり、忘れたりしてしまいました。

意味:エージェントAIとメモリ拡散の未来

Kimi K2の出現は、エージェント推論モデルにとって重要な瞬間を示しています。私たちは今、複雑な推論と自律的なタスク実行において、最高の閉鎖モデルと競争するオープンソースシステムを手にしています。これにより、独自のAI大手とコミュニティ主導のプロジェクトの境界線が曖昧になります。AI分野にとって、長い文脈、ツール使用の統合、大規模なスケールなどの主要な進歩が、数兆ドル企業に限定されていないことを示唆しています。オープンモデルがより速くリリースされ、パフォーマンスのギャップを縮めることで、閉鎖的な研究所は、単なるパラメータのスケールアップを超えたイノベーションを求められています[31]。オープンモデルが新しい研究を取り入れる速度が、企業モデルと同じくらい早く(またはそれ以上に)進んでいくと、急速な飛躍のサイクルが見られるでしょう。この競争的なダイナミクスは、エンドユーザーと研究者に利益をもたらし、モデルがより能力があり、透明でカスタマイズ可能になります。

「マカロンのメモリーディフュージョン」や類似の取り組みにとって、Kimi K2の成功は検証の役割を果たしています。メモリーディフュージョンとは、AIエージェントに長期間にわたる深く持続的な記憶を付与するマカロンのアプローチであり、K2が示したトレンドと一致しています。Kimi K2は、非常に長い文脈と安定した長期的な推論が実践可能であることを示しましたが、これはまさにメモリーディフュージョンが提供しようとする能力です。エージェントモデルに豊かな長期記憶を統合することで、時間をかけて知識を保持し洗練する**「生涯学習」AIエージェントがさらに可能になるかもしれません。K2は、長いツール使用セッションで一貫性を保つことでこの未来を示唆しています。次のステップは、おそらくセッションを超えて記憶し、持続的な知識ストアに新しい情報を絶えず拡散するモデルです。マカロンのメモリーディフュージョンプロジェクトは、そのような進歩を活用し、K2のような推論グラフと長期記憶メカニズムを組み合わせて、本当に継続的に学習するAI**を創造することを目指しています。

結論として、「Kimi K2 Thinking」は単なる大規模モデルではなく、AIの未来を示す青写真です。オープンソースのLLMが、適切なアーキテクチャとトレーニングによって一流の推論能力を達成できることを示しています。これらのアイデアを新しいシステムに組み込むことで(OpenAIの次のモデル、GoogleのGemini、またはMacaronの独自エージェントにおいても)、AIが無限の時間軸にわたって信頼性のある「思考、記憶、行動」を行うことに近づきます。AIを追いかけている人にとって、Kimi K2のパフォーマンスは明確なシグナルです。強力でオープンなエージェントAIの時代が到来し、その波及効果—より多くの革新、より多くのコラボレーション、そして内部の「メモリ拡散」の増加—が次世代のインテリジェントエージェントを形作るでしょう。


[1] [11] [12] [13] [15] [18] [20] [24] Kimi K2 Thinkingのハンズオンレビュー:ゲームを変えるオープンソースAI : r/LocalLLaMA

https://www.reddit.com/r/LocalLLaMA/comments/1oqi4qp/my_handson_review_of_kimi_k2_thinking_the/

[2] [4] [8] [16] [17] [19] [23] [26] moonshotai/Kimi-K2-Thinking · Hugging Face

https://huggingface.co/moonshotai/Kimi-K2-Thinking

[3] [5] [9] [10] [14] [22] [25] [28] [31] Kimi K2 Thinkingに関する5つの考え - ナサニエル・ランバート著

https://www.interconnects.ai/p/kimi-k2-thinking-what-it-means

[6] [27] DeepSeek V4プレビュー: ミリオントークンコンテキストウィンドウと推論加速 | AIエンジニアリングによる | 2025年9月 | Medium

https://ai-engineering-trend.medium.com/deepseek-v4-preview-million-token-context-window-and-inference-acceleration-73496d89f814

[7] Googleモデル  |  Vertex AIの生成AI  |  Google Cloudドキュメント

https://docs.cloud.google.com/vertex-ai/generative-ai/docs/models

[21] GPT-5.1-Codex-Maxでより多くを構築する | OpenAI

https://openai.com/index/gpt-5-1-codex-max/

[29] Gemini 3 がエンタープライズ向けに利用可能 | Google Cloud ブログ

https://cloud.google.com/blog/products/ai-machine-learning/gemini-3-is-available-for-enterprise

[30] GPT-3 から Gemini 3 までの3年間 - イーサン・モリック著

https://www.oneusefulthing.org/p/three-years-from-gpt-3-to-gemini

Boxuはエモリー大学で定量経済学を専攻し、学士号を取得しました。Macaronに参加する前は、アメリカのプライベート・エクイティとベンチャー・キャピタル分野でキャリアを積んでいました。現在、彼はMacaron AIの参謀長兼マーケティング副社長として、財務、物流、運営を管理しつつ、マーケティングを監督しています。

応募する Macaron の最初の友達