メインジャーナル
29分で読めます 5,652文字

GenAI週刊 2026年3月7日号

週の概要 アネックス 全サマリー (225)

GenAI週刊 2026年3月7日号

今週のハイライト

今週のGenerative AI最大のニュースは、モデルの性能でも新サービスの発表でもなく、OpenAIが下した一つの経営判断だった。Pentagonとの軍事提携発表から24時間でChatGPTの解約数は295%急増し、ユーザーたちは「このAIは誰のために作られているか」という問いに、財布と星1つのレビューで答えた。同じ週、AnthropicのCEO Dario Amodeiがリークされた社内メモで競合を「直接的な嘘」と批判し、ClaudeはApp Storeの無料ランキングで総合1位を獲得した。倫理的な選択がブランドの命運を分けた——AIの歴史に刻まれる一週間だった。

その激しい商業的・政治的な騒動の陰で、静かに歴史的な出来事が起きていた。コンピュータサイエンスの父、Donald Knuthが、Claude Opus 4.6との対話を通じて数週間取り組んでいた未解決の数学的問題を証明し、その経緯を論文として公開した。「AIと共著した」と認める世界最高峰の知性——これは、AIが「高度な検索ツール」から「思考のパートナー」へと変容したことを示す、これまでで最も説得力ある証拠かもしれない。

一方、開発現場では二種類の侵食が同時に進んでいる。技術的には、VS Code拡張・GitHub Copilot・Claude Codeを標的にしたサプライチェーン攻撃が現実のものとなり、「自然言語のプロンプト」が新たな攻撃ベクターとして確立された。心理的には、AI導入による「認知負債」の蓄積を訴えるエンジニアたちの声が、世界規模で広がり始めている。生産性が上がったと感じながらも、実は深く考える能力と「コードを作る喜び」が静かに失われているという警告だ。

技術の地政学的な戦線では、中国のQwen3.5-MediumがローカルGPUでClaude Sonnet 4.5相当の性能を達成し、Anthropicは中国系スタートアップ3社による2万4000アカウントを使った組織的な「蒸留攻撃」を告発した。GPT-5.4の登場とOpenAI-Amazon間の500億ドル提携が示すように、AIの競争はすでにモデルの優劣を争う段階から「誰がインフラを押さえるか」という次のフェーズへと移行しつつある。


「倫理かカネか」:OpenAI軍事提携と295%解約の衝撃、Anthropicの「一線」が分けたブランドの命運

OpenAIと米国防総省の合意——3つのレッドラインと機密環境AIの全貌 {#022}

https://openai.com/index/our-agreement-with-the-department-of-war/

2026年2月、OpenAIは米国国防総省(Department of War)と機密環境におけるAI展開に関する正式な合意を締結した。この発表は即座に世界的な議論の引き金となり、AIの軍事利用をめぐる倫理的・政治的対立を一気に表面化させた。

公式発表の内容自体は、一見すると慎重に設計されたものに見える。「3つのレッドライン」として、米国内の大量監視、自律兵器システムの直接制御、社会的信用スコアなどへの高リスクな自動意思決定——これら三つへの技術使用を明示的に禁じている。展開はクラウド限定(エッジデバイスへの搭載不可)とされ、OpenAI側がガードレール(安全スタック)の制御権を保持することも明記された。適格資格を持つエンジニアが現場でサポートし、自律システムへの使用については既存の国防省指令3000.09に基づく厳格な検証が義務付けられているという。

ただし、ここには重要なコンテキストがある。この合意が締結される直前、同じく国防総省と交渉を行っていたAnthropicは、契約を拒否していた。Anthropicが求めたのはほぼ同じ内容——大量監視への利用禁止と自律型兵器への転用禁止——だったが、国防総省はこれを受け入れなかった。つまり、OpenAIが締結した「3つのレッドライン付きの合意」は、競合が突きつけた倫理的条件を同省が呑まなかった後に、OpenAI側が「クラウド限定」という条件で折り合った結果でもある。

OpenAI側は「他社の過去の合意よりも強力な保護策を持つ」と主張する。しかし、現代の戦場ネットワーク構造においてクラウド上のAIが実質的な意思決定に関与しないことが可能かどうかは、技術的にも法的にも未解決の問いだ。「合法的な目的への使用をすべて認める」という文言が契約に含まれているとも報じられており、「レッドライン」の実効性には疑問符がつく。

いずれにせよ、この発表の後に起きたことが、市場のリアルな評決を示している。


この決断が波紋を呼んだ直後、24時間後、数字が語った。

ChatGPT、国防省提携発表後にアンインストール数が295%急増 {#148}

https://techcrunch.com/2026/03/02/chatgpt-uninstalls-surged-by-295-after-dod-deal/

市場分析会社Sensor Towerのデータが明らかにしたのは、OpenAIの軍事提携発表から24時間以内に米国でのChatGPTモバイルアプリのアンインストール数が前日比295%増加したという事実だ。同時に、ChatGPTへの1つ星レビューも775%急増した。「賛成・反対」という抽象的な議論ではなく、数百万のユーザーが実際に行動で応えた。

一方で恩恵を受けたのがAnthropicだった。軍事利用を拒否したことで注目を集めたClaudeのダウンロード数が急増し、2026年3月2日の時点でAnthropicのClaudeがChatGPTを抜き去り、米国App Storeの無料アプリランキングで初の1位を獲得した。この数字の変動は、AIツール市場において「誰のためのAIか」という価値観の軸が、性能や価格と並ぶ実質的な競争要因になったことを示している。


ユーザーの反応は数字だけではなかった。

「Cancel ChatGPT」運動が拡大:解約の連鎖とAnthropicの対照的な姿勢 {#021}

https://www.windowscentral.com/artificial-intelligence/cancel-chatgpt-movement-goes-mainstream-after-openai-closes-deal-with-u-s-department-of-war-as-anthropic-refuses-to-surveil-american-citizens

Redditを震源地として「#CancelChatGPT」運動が急速に広がり、有料プランの解約が相次いだ。コミュニティで特に懸念されたのは、愛国者法(PATRIOT Act)に基づく政府の監視活動へChatGPTが加担する可能性だ。サム・アルトマンCEOは「契約はすべて法の枠内で行われる」と主張したが、「合法であること」と「倫理的であること」は同義ではないとする声が多数を占めた。

対照的に、軍との契約交渉で「大量監視への利用禁止」を条件として提示し、国防総省に拒絶されたAnthropicへの支持が急上昇した。倫理的な立場を「コスト」としてではなく「差別化要因」として捉えるユーザー層の存在が、今回の動向で初めて可視化されたと言える。


一方、Anthropicの側には複雑な内情があった。

Anthropicとペンタゴンの「殺傷ロボット」論争——交渉決裂の舞台裏 {#072}

https://www.theatlantic.com/technology/2026/03/inside-anthropics-killer-robot-dispute-with-the-pentagon/686200/

The Atlanticが詳細に報じた交渉の舞台裏は、この対立の本質が「倫理的理想主義」と「現実的な防衛ニーズ」の単純な対立ではないことを示している。国防総省がAnthropicに求めたのは、AIモデルの使用制限(倫理ガイドライン)の撤廃だった。主な争点は二点——米国人の一括データ監視への利用、そして完全自律型致死兵器へのAI搭載だ。

Anthropic側は、現在のAIの信頼性が戦場での誤射を防げるレベルに達していないと主張。国防総省が提案した妥協案——「クラウド内での利用に限定し、兵器そのものには搭載しない」——についても、現代の戦場ネットワーク構造ではクラウド上のAIが実質的な殺傷判断に関与せざるを得ない「不十分な抜け穴」として拒否した。その結果、ヘグセス国防長官はAnthropicとの全取引を停止し、同社を「サプライチェーンの脅威」と指名した。皮肉なことに、AnthropicがNOと言った条件をOpenAIが呑む形で、その後のPentagon契約が締結されている。


そして、Anthropicの内部からも声が上がった。

AnthropicのCEO Dario Amodei、OpenAIの軍事契約の説明を「直接的な嘘」と批判 {#164}

https://techcrunch.com/2026/03/04/anthropic-ceo-dario-amodei-calls-openais-messaging-around-military-deal-straight-up-lies-report-says/

リークされた社内メモで、Dario AmodeiはOpenAIのサム・アルトマンCEOの公式説明を「安全性シアター(Safety Theater)」かつ「直接的な嘘」と痛烈に批判した。Anthropicが求め国防総省に拒絶された条件——大量監視禁止・自律型兵器転用禁止——を、OpenAIが「あらゆる合法的な目的」での利用を認める形で締結したことへの、直接的な怒りだ。「安全性シアター」という言葉は、実効性のないポーズだけの安全対策を指す辛辣な表現だ。

この批判が社内メモとして書かれリークされたこと自体が、今回の騒動がAI業界内部でどれほどの分断を生んでいるかを示している。AmodeiのOpenAIへの批判は、競合との差別化戦略という側面もあるかもしれないが、それを差し引いても「何が本当の安全対策か」という問いは重い。


その結果が市場に表れた。

ペンタゴン論争を経て、ClaudeがApp Storeで1位を獲得 {#024}

https://techcrunch.com/2026/03/01/anthropics-claude-rises-to-no-2-in-the-app-store-following-pentagon-dispute/

Anthropicによると、軍事提携拒否のニュースが広まった週、同社は毎日新規登録者数の過去最高を更新した。1月以降で無料ユーザーは60%増加、有料購読者は2倍以上に達したという。ChatGPTを抜いてApp Storeで1位になったことは、その数字の象徴的な頂点だ。

特筆すべきは、この成長がマーケティング施策でも機能改善でも価格変更でもなく、「倫理的な立場を明確にしたこと」によって生まれた点だ。AI企業の政府との距離感と倫理的姿勢が、消費者の選択を実際に変える力を持つ——この事実は、今後のAI業界の競争戦略に大きな示唆を与えている。


Knuth降参:Claude Opus 4.6が数学の未解決問題を解き、AI×人間の科学的協働が幕を開ける

クロードのサイクル——Claude Opus 4.6による未解決グラフ理論問題の解決 {#131}

https://cs.stanford.edu/~knuth/papers/claude-cycles.pdf

コンピュータサイエンスの泰斗、Donald Knuth(スタンフォード大学)が2026年2月28日に発表したこの論文は、ある意味でAI史に残る一次資料だ。副題もなく、ただ「Claude's Cycles」とだけ名付けられたこの文書は、Knuth自身が数週間取り組んでいた未解決の数学的問題をClaude Opus 4.6が解決した経緯を、研究者としての視点で記録したものだ。

問題の内容は高度だ。Knuthが『The Art of Computer Programming』の新巻のために研究していた問題——m³個の頂点を持つ特定の有向グラフのアークを、3本のm³-サイクルに分解する——というグラフ理論の課題だ。この種の問題は、存在証明だけでなく、一般的な構成法(どんなmに対しても機能するアルゴリズム)の発見が求められる。Knuthはこれを数週間かけて取り組んでいたが、解法を見つけられなかった。

セッションを実施したのはFilip Stappersという研究者で、注目すべきはそのコーチング手法だ。Claudeに探索を進めさせるだけでなく、「各探索の後に進捗状況をplan.mdというファイルに記録せよ」という指示を継続的に与えた。この「状態の外部化」が、31回にわたる試行の一貫性を保つ鍵だったと考えられる。Claudeはファイバー座標の再定式化、DFS(深さ優先探索)、シミュレーテッドアニーリング、2D/3Dのサーペンタインパターンなど多様な戦略を試みながら、最終的に奇数mすべてに対する完全な構成法を発見した。

Knuthはこの結果を受け取り、厳密な数学的証明を行った上で「Claude-like分解」として体系化した。奇数m向けに760通りの有効な解が存在することを示し、論文として公開している。偶数mに対する完全解は依然として未解決だが、それもまた研究の継続を意味する。

この出来事が持つ意味は、「AIがまた何かのベンチマークで高得点を取った」という話とは根本的に異なる。世界で最も厳しい目を持つコンピュータ科学者の一人が、「自分では解けなかった問題をAIが解いた」と認め、その過程を検証し、論文として記録した。Knuthはこの経緯について「生成AIへの意見を改めなければならない」と述べたと報じられている。AIが発見し、人間が証明するという新しい科学的協働の形が、最も権威ある場から公認された週だった。

また、この事例が示すもう一つの重要な知見は「コーチングの質が結果を左右する」という点だ。plan.mdへの記録指示というシンプルな工夫が、Claudeの探索の一貫性と深度を大きく変えたと示唆されている。「AIを使いこなす能力」が問われている時代において、これは多くのエンジニアが参照すべきケーススタディだ。


この論文が意味するものを、技術的な文脈でさらに解説する。

コンピュータ科学の神様が「AIに負けた」日——Donald Knuth『Claude's Cycles』を読み解く {#137}

https://qiita.com/nogataka/items/ecbaedb3d7ffc29c9fb2

論文そのものはStanfordのPDFとして公開されているが、その背景と意義を日本語で整理したこのQiita記事は読む価値がある。著者が特に強調しているのは、Claudeが「単なる計算」ではなく「自ら戦略を切り替え、群論の概念を持ち出す」という研究者的プロセスを経て解を発見した点だ。

長年AIに対して慎重な評価を保ってきたKnuthがこの経験の後に示した態度の変化と、「AIが発見し人間が証明する」という新しい協働モデルの可能性について、読者にとってわかりやすい視点で解説されている。Knuth論文の一次資料を読む前の導入としても、読んだ後の整理としても機能する記事だ。


AIサプライチェーン攻撃の現実化:VS Code・Copilot・Claude Codeを狙う「自然言語兵器」

Aqua Trivy VS Code拡張機能に不正AIエージェント実行コードが混入——新型攻撃の実例 {#005}

https://socket.dev/blog/unauthorized-ai-agent-execution-code-published-to-openvsx-in-aqua-trivy-vs-code-extension

セキュリティ企業Socketの研究チームが発見したのは、普段使いのVS Code拡張機能経由でAIエージェントを武器として使う新型攻撃だ。OpenVSXレジストリで配布されたAqua Trivy拡張機能(バージョン1.8.12および1.8.13)に、悪意のあるコードが注入されていた。

この攻撃の最大の特徴は「自然言語が武器になった」という点だ。従来の悪意あるコードは、シェルスクリプトや実行可能バイナリとして注入されていた。しかし今回の攻撃コードは、ローカルにインストールされたClaude・Gemini・GitHub Copilot CLIなどのAIエージェントを検出し、「フォレンジック調査員としてシステムを調査せよ」という自然言語のプロンプトを送り込む形で動作する。AIエージェントを「ユーザーの許可をスキップするYOLOモードで」起動し、認証トークン・クラウド認証情報・財務データなどを収集させる仕組みだ。バージョン1.8.13では、収集した情報を被害者のGitHubアカウントを使って外部リポジトリにアップロードするよう指示していた。

今回は攻撃プロンプトの不備や対象ツールが未インストールの環境が多かったため大規模な被害は確認されていないが、「AIが普及した開発環境はAIそのものを武器として使われる」という現実が証明された。


これは孤立した事件ではなかった。

GitHub Copilot CLIに間接プロンプトインジェクション経由のマルウェア実行脆弱性 {#010}

https://www.promptarmor.com/resources/github-copilot-cli-downloads-and-executes-malware

PromptArmorが公開した脆弱性は、GitHub Copilot CLIの安全確認機構そのものを逆用するものだ。Copilot CLIは通常、`curl`や`sh`などの危険なコマンドが含まれる場合にはユーザーの承認を求める「Human-in-the-loop」設計になっている。しかし、Copilotが「安全(読み取り専用)」として自動承認するリストに含まれる`env`コマンドの引数として悪意のあるコマンドを記述することで、承認フローを迂回できることが判明した。

攻撃経路は「間接プロンプトインジェクション」だ。攻撃者がクローン先リポジトリのREADMEに悪意のある指示を埋め込んでおくと、ユーザーがそのリポジトリをCopilot CLIで探索している間に、バックグラウンドでマルウェアがダウンロード・実行される。GitHubはこの報告を事実と認めながらも、現時点では「既知の問題であり重大なリスクではない」としてバグバウンティの対象外とした。開発者向けの主要ツールにこうした姿勢が取られていることは、それ自体が問題提起となっている。


さらに深刻な事例が続く。

Claude Codeに設定ファイル経由のRCE・APIキー窃取脆弱性——Check Pointが報告 {#081}

https://www.itmedia.co.jp/enterprise/articles/2602/28/news013.html

Check Point Software Technologiesの研究が明らかにしたのは、AnthropicのAI開発ツール「Claude Code」にも同種の脆弱性が存在したという事実だ。悪意あるリポジトリの設定ファイルを読み込むだけで攻撃が成立する可能性があり、具体的には3つのリスクが指摘された。「Hooks」機能を悪用した自動シェルコマンド実行、MCP連携時の承認プロセス回避(CVE-2025-59536)、そして認証ヘッダの転送によるAPIキー窃取(CVE-2026-21852)だ。いずれも現在は修正済みだが、「AI開発ツールの設定ファイルが新たなサプライチェーン攻撃の経路になる」という構造的なリスクは解消されていない。


では、どう防ぐか。

CLAUDE.mdの防御は本当に効くのか?——10種の攻撃手法で検証した結果 {#053}

https://qiita.com/kenimo49/items/3273fd4406bf0aa03acf

CLAUDE.mdにセキュリティ防御策を記述する実効性を実験した、実践的なレポートだ。Claude 3 Haikuを対象に、ロールプレイ・多段攻撃・デバッグモード詐称など10種類の攻撃パターンを各3回、計60回テストした結果、防御なしではブロック率66.7%だったのが、防御ありでは100%に向上した。

特にロールプレイ攻撃は、防御なしでは100%突破されたが、特定の禁止パターンをCLAUDE.mdに定義することで完全に阻止できた。LLMが確率的に動作する以上、完璧な防御は理論的には保証できないが、数行のセキュリティセクションを追加するだけで耐性が大幅に向上する。最低コストで最大の効果を得られる対策として、今すぐ試す価値がある。


認知負債の蓄積:AIが「作る喜び」を奪い、エンジニアの深部を侵食する代償

AIによる生産性向上は本物か——増えた残業と「納品プレッシャー」の正体 {#003}

https://rosipov.com/blog/are-ai-productivity-gains-fueled-by-delivery-pressure/

「AIツールを導入したらPR数が27%増えた」という報告がある一方で、同じ調査で時間外のコミットも20%増加しているという事実がある。この数字を起点に、著者はAIがもたらす「生産性向上」の実態に疑問を呈する。

問題の本質は、AIが得意とする「素早いプロトタイピング」にある。AIが数分で動くプロトタイプを生み出すと、それを見たマネジメント層や非エンジニアは「本番実装も同じスピードで可能だ」という誤解を持ちやすい。AIの出力は一見洗練されているが、ドメイン知識のない者にはその「見かけの完成度」と「実際の正しさ」の乖離が判断できない。結果として現場に過剰な納品プレッシャーがかかり、エンジニアは「より速く作るための強制」としてAIを使わざるを得なくなる。著者の主張は明快だ——評価軸をアウトプットの数ではなくアウトカム(成果)に移すべきだ、と。


その疑問に答えるキーワードがある。

AIコーディングの見えないコスト——「認知負債」の定義とその不可逆性 {#017}

https://tomwojcik.com/posts/2026-02-15/finding-the-right-amount-of-ai/

著者が提示する「認知負債(Cognitive Debt)」という概念は、この議論に欠けていたフレームを与えてくれる。自分でコードを書かずAIの出力をレビューするだけでは、コードへの深い理解力とデバッグ能力が萎縮していく。そして、その能力が落ちると「AIの誤りを正す」ことすらできなくなる——これが「レビューのパラドックス」だ。

さらに深刻なのがシニアエンジニアの育成パイプラインへの影響だ。ジュニアがAIを使ってシニア並みの成果を出せるようになった一方で、失敗と試行錯誤を通じて直感を養う「熟練への道」がバイパスされている。将来のシニアエンジニアが育たなくなるリスクだ。著者は「AIを拒絶するのではなく、依存しすぎない閾値を自分で設定すること」を提案する。学習を維持するためのAI活用パターン——説明を求める、概念的な質問をする——を意識的に選ぶことが、長期的なキャリアを守る鍵だという。


現場でも同じことが起きている。

AIによってコード作成は容易になったが、エンジニアリングはより困難になった {#032}

https://www.ivanturkovic.com/2026/02/25/ai-made-writing-code-easier-engineering-harder/

タイトルがすべてを言い表している。AIアシスタントの登場でコードを書く物理的な手間は激減したが、ソフトウェアエンジニアという職務はかつてないほど複雑になった。著者は5つの「第2次効果」を挙げる。生産性の期待値が無言のうちに引き上げられる「ベースラインの移動」、「作る人」から「レビューする人」になることへのアイデンティティ危機、コード生成の加速で製品企画・アーキテクチャ・デプロイまで担う「役割の肥大化」、AIが生成したコードは文脈を欠くため自分で書くよりもレビューコストが高い「監視のパラドックス」、そして初学者が学ぶべき単純なタスクをAIが奪う「ジュニア育成機会の消失」だ。リーダーに求められているのは、ベロシティ以外の指標で成功を定義し直す勇気だ。


最終的には、キャリアへの影響として現れる。

AIがジュニア開発者を「無能」にする?——真のエンジニアとして成長する5つの戦略 {#033}

https://beabetterdev.com/2026/03/01/ai-is-making-junior-devs-useless/

タイトルはやや挑発的だが、元Amazonシニアエンジニアによる内容は実質的だ。AIによる「浅い有能さ(Shallow Competence)」——コードの意味を理解せずに生成・納品できてしまう状態——の問題を正面から扱っている。ベテランの真の価値は速く書けることではなく、過去の失敗から得た「何をしてはいけないか」というパターン認識にあると著者は説く。

提案される5つの戦略は実践的だ。デザインパターンなどの基礎を徹底する、公開されている障害報告(ポストモーテム)を読む、AIに頼る前に自力でデバッグする「意図的な苦労」を積む、コミットした全行について「なぜこの手法か」を説明できるようにする、そして答えを求めるのではなくトレードオフの解説をAIに求める——これらは「AIを家庭教師として使う」姿勢だ。開発者の価値はコードを書く能力ではなく、生成されたコードの良し悪しを判断する能力にある。この結論は、認知負債という概念と深くつながっている。


Qwen3.5の衝撃:ローカルGPUでSonnet 4.5超え、蒸留攻撃告発、米国AI覇権への挑戦

アリババがQwen3.5-Mediumを公開——ローカル環境でSonnet 4.5相当の性能を実現 {#023}

https://venturebeat.com/technology/alibabas-new-open-source-qwen3-5-medium-models-offer-sonnet-4-5-performance

アリババのQwenチームが公開したQwen3.5-Medium(27B、35B、122B)の中で、特に注目されるのはQwen3.5-35B-A3Bだ。Mixture-of-Experts(MoE)とGated Delta Networksを組み合わせたハイブリッドアーキテクチャにより、推論時に活性化するパラメータを30億に抑えつつ、ベンチマークでClaude Sonnet 4.5やGPT-5-miniを上回る性能を示している。

さらに重要なのが動作環境だ。4ビット量子化技術により、32GB VRAMを搭載した一般向けのコンシューマGPUで100万トークンのコンテキストウィンドウが扱えるという。デフォルトで「Thinking Mode」を搭載し、複雑な論理推論を内部で処理できる。クラウドAPIに依存せず、セキュアなオンプレミス環境で高度なAI機能を持つモデルを自前で運用できる時代が、現実のものとなりつつある。


では実際に使えるのか。

ローカルLLMで安心して仕事できる——RTX 3090でのQwen3.5-27B採用レポート {#087}

https://zenn.dev/rna4219/articles/b945d175cde87c

RTX 3090(VRAM 24GB)環境で5ビット量子化したQwen3.5-27Bの実用レポートだ。Artificial Analysis Intelligence Indexのベンチマークでo3-proを上回るスコアを記録しただけでなく、TypeScript/Canvasによるゲーム作成テスト(PongやTetrisの1ショット生成)でも実用的な成果を示している。長文タスクの完遂能力とプロンプトへの柔軟な対応において、旧世代の大型モデルを凌駕するという評価だ。

電気代ベースのコスト試算も含まれており、クラウドモデルとの現実的な比較が可能だ。「ローカルLLM常用」が単なる理想論ではなく、実際のワークフローに組み込める水準に達したことを、一次体験から示している。


しかしその裏側では。

Anthropicが中国AI3社による2万4000アカウントの蒸留攻撃を告発 {#068}

https://smhn.info/202603-anthropic-deepseek-moonshot-minimax-distillation

AnthropicはDeepSeek、Moonshot AI、MiniMaxの3社が約2万4000の不正アカウントを使い、Claudeに対して1600万回以上のやり取りを行い、モデルの知能を無断で抽出する「蒸留(distillation)攻撃」を行ったと公表した。特にMiniMaxは新モデル公開の24時間以内にトラフィックを切り替えるなど、組織的な動きだったと指摘している。DeepSeekについては、推論能力の抽出に加え、検閲回避のための代替回答パターンを学習させる意図も見られたという。

Anthropicはこの事態を「米国のAI優位性への脅威」と位置づけ、技術的対策と輸出規制などの政策的対応の両輪が必要だと訴えている。なお、これはAnthropicの公式主張であり、指摘された各社からの反論は現時点で公開されていない点は留意したい。


これが示すものは。

米国AI覇権に終止符?——中国AI台頭が日本企業に突きつける3つの問い {#122}

https://www.itmedia.co.jp/aiplus/articles/2603/03/news031.html

2025年のDeepSeek R1による衝撃から1年、2026年2月に中国AI企業3社(Alibaba、ByteDance、DeepSeek)が相次いで新モデルを投入し、米国製AIとの性能差がないことを実証した。AlibabaのQwen3.5はMoEアーキテクチャの活用で前世代比19倍の速度とGemini 3 Proの18分の1のコストを実現。ByteDanceは動画生成モデルSeedance 2.0を、DeepSeekは次世代フラッグシップV4の基盤設計を公開した。

これらは米国の輸出規制という制約下で磨かれた「少ない計算資源で賢いモデルを作る」というアーキテクチャ革新の成果であり、巨大な計算資源が競争力に直結するという従来の常識を覆している。日本企業にとっても、AI活用の前提条件が根本から変わる可能性がある転換点だ。


コンテキスト爆発への処方箋:Context Mode・LSP・Agent Teamsで変わるClaude Code開発体験

コンテキスト消費を98%削減するMCPサーバー「Context Mode」 {#020}

https://mksg.lu/blog/context-mode

Claude CodeなどのAIエージェントがMCPツールを使用する際、PlaywrightのスナップショットやGitHubのIssueリストといった膨大な生データがコンテキストウィンドウをあっという間に埋め尽くす問題がある。Context Modeは、エージェントとMCPツールの間に位置するプロキシ型のMCPサーバーで、ツールの出力をサンドボックス内で処理・要約し、必要最小限のデータだけをAIに返す設計だ。

ベンチマークでは315KBの生データが5.4KBまで圧縮され、通常30分で限界に達するセッションが3時間継続可能になると報告されている——コンテキスト消費の98%削減という数字はここから来る。10種類の言語ランタイムに対応したサンドボックス実行環境、SQLite FTS5とBM25を活用した全文検索可能なローカル知識ベース、URLからのコンテンツ抽出・索引化機能も備える。CloudflareがツールDefinitionの圧縮(入力側)に注目したのに対し、このツールはツールの出力側の圧縮に特化している点が新しい。オープンソースで公開されており、今日から試せる。


さらに根本的な最適化として。

Claude Codeを劇的に高速化する隠れた設定「LSP有効化」の2分ガイド {#038}

https://karanbansal.in/blog/claude-code-lsp/

Claude Codeのデフォルト設定ではコードの検索にGrepが使われているが、非公開フラグ`ENABLE_LSP_TOOL`を有効化することでLSP(Language Server Protocol)が利用可能になる。シンボル定義への移動、参照の検索、型情報の取得が数秒からミリ秒単位(約50ms)に短縮され、精度は事実上100%になる。

さらに大きなメリットは「セルフコレクト」だ。Claudeがコードを編集した直後にLSPがエラーを検知し、自律的に修正を回すことができる。開発の反復回数が大幅に減る。セットアップはsettings.jsonでの環境変数設定、各言語の言語サーバーバイナリのインストール、CLAUDE.mdへの優先指示の記述という手順で、記事タイトル通り2分程度で完了する。「AIにテキストではなく構造を理解させる」という発想の転換が、開発体験を大きく改善する。


そして全体設計の観点では。

Claude Code Agent Teamsの衝撃と実際——マルチエージェント協調の次世代設計 {#119}

https://gihyo.jp/article/2026/02/get-started-claude-code-07

Claude Code v2.1.32から搭載された「Agent Teams」は、複数のAIエージェントが共通のタスクリストを参照しながら双方向に通信・協調して開発タスクを完遂する機能だ。従来の単一エージェントがサブエージェントを呼び出す構造とは異なり、エージェント同士が直接メッセージをやり取りするアーキテクチャになっている。

gihyoの記事では、環境変数による有効化から大規模リファクタリングでの活用例、コストを抑えるためのSonnet/Haikuの使い分け、TmuxやiTerm2を使った分割ペインでの管理方法まで実践的に解説されている。現時点では実験的機能でrewind不可などの制限もあるが、「並列化できるタスクをAIエージェントチームに割り振る」という設計思想は、Context ModeやLSPと組み合わせることで大幅な開発効率向上が期待できる。


GPT-5.4・Amazon 500億ドル提携・AIプラットフォーム戦争の新局面

GPT-5.4登場——推論・コーディング・コンピュータ操作を統合した新フラッグシップ {#172}

https://openai.com/index/introducing-gpt-5-4/

OpenAIが発表したGPT-5.4は、GPT-5.3-Codexの卓越したコーディング能力を統合しつつ、GUIを直接操作する「Computer Use(コンピュータ使用)」機能をネイティブに搭載した。ChatGPT上では「Thinking」機能により、モデルが実行前に計画を提示し、ユーザーが途中で軌道修正できる設計になっている。

性能面では、44種の専門職タスクを評価するGDPvalでプロフェッショナルを上回る83.0%の勝率を記録。スプレッドシートやプレゼン資料の作成精度も大幅に向上したという。API面では、膨大なツール定義から必要なものだけを動的に呼び出す「Tool Search」機能と、最大100万トークンのコンテキストウィンドウ(実験的)をサポートし、長期・複雑なエージェントタスクへの対応力を高めた。価格はGPT-5.2より高く設定されているが、トークン効率の向上によりトータルコストは抑えられる設計だ。


同じ週、さらに大きな動きがあった。

OpenAIとAmazon、500億ドルの戦略的パートナーシップを締結 {#121}

https://openai.com/ja-JP/index/amazon-partnership/

AmazonがOpenAIに500億ドルを投資し、AWSがOpenAIのエンタープライズプラットフォーム「Frontier」を独占的に提供する外部クラウドプロバイダーになるという大型提携が発表された。両社はAmazon Bedrockを通じた「Stateful Runtime Environment」を共同開発し、コンテキストとメモリを保持したままAIエージェントを構築・運用できるインフラを整備する。OpenAIはAWSの専用チップTrainium 3/4を約2ギガワット分利用し、計算コストの削減も図る。

GPT-5.4のリリースと500億ドルのインフラ提携を同一週に見ると、OpenAIが狙っているのは単なるモデルの競争ではないことがわかる。「誰がAIエージェントのランタイムを提供するか」という次の争点を先取りし、クラウドインフラと深く統合することでエコシステムを囲い込む戦略だ。今週の軍事提携への批判とブランドダメージを抱えながらも、OpenAIはインフラレベルでの存在感を急速に拡大している。AIの競争はすでに「どのモデルが賢いか」から「誰がAIの基盤を提供するか」という段階に移行しつつある——それが今週の大局観だ。