GenAI週刊 Annex 2026年3月7日号
本号のAnnexは、メインジャーナルで取り上げなかった視点から今週を補完する23本を厳選。思想・批評から核兵器シナリオまで、射程の広い論考と実践事例を収録している。
思想・批評・マニフェスト
「ビター・レッスン」への賭け ─ 人間の暗黙知をスキルに変える知識経済論 {#002}
https://www.oreilly.com/radar/betting-against-the-bitter-lesson/
原題: How to Bet Against the Bitter Lesson
汎用計算は常に人間のヒューリスティクスを凌駕する——サットンの「苦い教訓」を受け入れながら、ティム・オライリーは「だからこそ人間の専門知識をエージェントのスキルとしてパッケージ化する経済圏を作れ」と逆説を展開する。問われるのは、スキルの発見・評価・報酬インフラ(いわば「経済的配管」)の不在だ。AI時代に専門性の価値をどう守るかを問うすべての人に読ませたい戦略論。
AIを使わない選択肢は今も有効だ {#037}
https://www.scottsmitelli.com/articles/you-dont-have-to/
原題: You don't have to if you don't want to.
「AIslop」の蔓延と「脳の賃貸」——外部サービスに思考を委ねることが技術者の能力減退を招くという警告。出荷優先のTobyと習熟重視のLyleを対比させ、AI推進派と懐疑派の対立が価値観の違いであることを示す。環境コストや倫理的境界も俎上に載せ、最終的に「使わない選択を恥じるな」と寄り添う。適応の圧力に疲れたエンジニアへの、力強いエッセイ。
エージェンティック・マニフェスト {#076}
https://www.agenticmanifesto.org/
原題: Agentic Manifesto
アジャイル・マニフェストをAI時代に更新した短い宣言文。「人間とAIの共創」「適応型インテリジェンス」「分散された主体性」「発見」の四つを核に、AIを道具でなく自律的な協働パートナーとして再定義する。システム自体が絶えず進化する「生きた設計」の思想を凝縮した文書。読むより引用されることで価値が出るタイプだが、その射程を理解するために一読の価値はある。
最高のAIツールからあなたは締め出される {#112}
https://newsletter.danielpaleka.com/p/you-are-going-to-get-priced-out-of
原題: You are going to get priced out of the best AI coding tools
月額10ドルのCopilotが「AIの民主化」を象徴した時代は終わりつつある。推論時計算量の増大により高度なエージェントのインフラコストは指数関数的に上昇し、「博士号レベルの研究エージェントに月2万ドル」という議論も現実になりつつある。最先端ツールが再び一部組織専用に回帰するリスクを論じた記事。アクセスの不平等がイノベーション格差に直結する未来への警鐘。
AIで爆速にならなくていい ─ 吉羽龍太郎氏が説く逆説的アジャイル論 {#066}
https://levtech.jp/media/article/interview/detail_814/
「たくさん開発できるからといって、たくさん開発しなくていい」。アジャイルコーチの吉羽氏は、AIが生む余剰時間を機能量産でなく価値検証に充てよと説く。前後工程のボトルネック問題には、役割分担を排除した3〜4人のフラットなモブ編成を処方箋として挙げる。AIは「何を作るべきか」を教えないという本質的な指摘が刺さる、実践的インタビュー。
セキュリティ深掘り
エージェントを信頼するな ─ NanoClawのゼロトラスト設計 {#014}
https://nanoclaw.dev/blog/nanoclaw-security-model
原題: Don't trust AI agents
プロンプトインジェクションやサンドボックス脱出を前提とし、エージェントを「潜在的な悪意ある存在」として扱う設計哲学。DockerコンテナによるOS分離、エージェント間の完全隔離、数千行に絞った監査可能な最小コードベースの三本柱で防御する。「振る舞いが正しいことに依存するセキュリティは破綻する」という結論は、AIエージェント設計者全員が直視すべき命題だ。
PRを送るだけでリポジトリは乗っ取れる ─ GitHub Actions脆弱性の実証 {#057}
https://zenn.dev/aeyesec/articles/417578718dcced
AI攻撃エージェント「hackerbot-claw」が悪用したGitHub Actionsの三つの脆弱性——コマンドインジェクション、`pull_request_target`下での不正実行、プロンプトインジェクション——を実機再現したレポート。`${{ }}`による直接展開がいかに危険かを具体的に示し、環境変数の利用と権限最小化の重要性を説く。AIが24時間スキャンする現代のCI/CDに必携の知識。
エンジニアリング実践
コード生成前にホワイトボードで話せ ─ デザイン・ファースト協調論 {#098}
https://martinfowler.com/articles/reduce-friction-ai/design-first-collaboration.html
原題: Design-First Collaboration
AIは指示に即座にコードを生成するが、その中には不可視の設計判断が埋め込まれている——この論考はその罠を「実装の罠」と命名し、五段階(機能・構成要素・相互作用・契約・実装)の合意形成プロセスを対策として提唱する。ペアプロのホワイトボード議論をAIとの間でも再現せよという指摘は単純だが効果は確かだ。複雑なタスクほど刺さる処方箋。Martin Fowlerサイト掲載の権威ある一本。
アーキテクチャ・設計論
AI時代のソフトウェアアーキテクチャ ─ 純粋MVCへの回帰 {#063}
https://zenn.dev/neko3cs/articles/software-architecture-for-the-ai-era
クリーンアーキテクチャやDDDは人間の認知負荷を下げるためにコードを細分化するが、AIには「ファイル間のホップ」によるトークン浪費とハルシネーションを招く。筆者はビジネスロジックを集約した「純粋MVC(Fat Model)」への回帰を提案。AIが人間に代わってコードを書く前提であれば、1ファイルで完結する構造が文脈理解を最大化するという。賛否を呼ぶ逆張り提言として議論の価値が高い。
MCPは死んだ、CLIに帰れ {#069}
https://ejholmes.github.io/2026/02/28/mcp-is-dead-long-live-the-cli.html
原題: MCP is dead. Long live the CLI
LLMはmanページとスクリプトで訓練されており、専用プロトコルがなくともCLIを使いこなせる——MCPの複雑さを批判するEric Holmesの反骨論。JSONログのデバッグ複雑化、既存認証機構との二重管理、UNIX哲学的コンポーザビリティの喪失を問題点として挙げる。新プロトコルより人間と機械が共に使える優れたCLIを整備することが長期的な正道だという主張は、過熱するMCPエコシステムへの冷水だ。
LLMにデザインシステムを渡せ ─ ドリフトを機械的に防ぐ三層設計 {#096}
https://hvpandya.com/llm-design-systems
原題: Expose Your Design System to LLMs
バイブ・コーディングではAIがトークン名を捏造し、セッションを跨ぐと以前の決定を忘れる「デザインドリフト」が発生する。対策として(1)コンポーネント仕様のMarkdown化、(2)CSS変数による三層トークン層、(3)CIで動くハードコード検出監査スクリプトを組み合わせる手法を解説。Atlaskitで400箇所のハードコードを排除した実績付き。10回目のセッションでも初回と同じ視覚品質を維持できる。
倫理・法・社会
AIは著作権法を壊していない、もとから壊れていた {#080}
https://www.jasonwillems.com/technology/2026/01/23/AI-Copyright/
原題: AI Didn't Break Copyright Law—It Just Exposed How Broken It Already Was
著作権法は「創作が遅く配布が高コスト」という暗黙の前提で機能してきたが、AIがその制約を消滅させた。学習・生成・流通の三層それぞれで既存法が機能不全に陥っていることを鋭く分析し、「消えゆく古い世界」の規制論議に終執する危険を指摘する。20世紀型IP枠組みそのものの再構築が必要という結論は、法改正を待つだけでは間に合わないという切迫感を呼び起こす。
AI専門記者がAIのハルシネーションに騙されて解雇された {#100}
https://futurism.com/artificial-intelligence/ars-technica-fires-reporter-ai-quotes
原題: Ars Technica Fires Reporter After AI Controversy Involving Fabricated Quotes
Ars TechnicaのシニアAI記者が、Claudeが生成したパラフレーズを実際の引用として記事に掲載し解雇された。「AI詳しい記者でも罠に陥る」という皮肉そのものの事件。プレッシャー下でのAI活用がいかに判断力を鈍らせるかを示し、メディア企業のAIガイドライン整備の遅れを浮き彫りにした。編集倫理とAI補助の境界線をどう引くかは、すべての書き手にとって他人事ではない。
LLMは人格サブネットワークを内部に持つ {#042}
https://arxiv.org/abs/2602.07164
原題: Your Language Model Secretly Contains Personality Subnetworks
プロンプトも追加学習も不要で、LLMのパラメータ空間には特定の性格に対応するサブネットワークが存在する——研究チームは少量のキャリブレーションデータからこれを特定・抽出するマスキング戦略を開発した。「外向的・内向的」のような対向性格には対照的プルーニングを適用し、従来のプロンプトベース手法より強力なペルソナ整合性を実現する。パーソナライゼーションの設計思想を根本から問い直す研究。
編集部フラグ済み — 今週の掘り出し物
LLM接続文字列の提案 ─ `llm://` でモデル設定を一本化せよ {#102}
https://danlevy.net/llm-connection-strings/
原題: It's Time for LLM Connection Strings
APIキー・エンドポイント・モデル名を環境変数で管理する煩雑さを解消するため、データベース接続文字列に倣った`llm://`URIスキームを提案。`llm://api.openai.com/gpt-4?temp=0.7`のように単一URLに集約し、可搬性とCLI利用を実現する。IETFのRFCドラフトに発展済みという事実が射程の大きさを示す。30年以上機能してきたURLという仕組みをAI開発に持ち込む、シンプルだが強力な発明。
AIが世界のソフトウェアを書くとき、誰が検証するのか {#107}
https://leodemoura.github.io/blog/2026/02/28/when-ai-writes-the-worlds-software.html
原題: When AI Writes the World's Software, Who Verifies It?
Leanの生みの親de Moura氏による論考。AI生成コードが新コードの30%に達する今、人間のレビューでは検証ギャップを埋められない。答えは数学的証明(形式検証)——テストが「確信」を与えるのに対し、証明は「保証」を与える。AIにzlibをLeanへ移植させ正当性証明を生成させた実験は、この未来が既に現実であることを示す。仕様記述がエンジニアの核心的役割になる日は近い。
デザインはリベラルアーツになる ─ コルコの転換点論 {#127}
https://www.jonkolko.com/writing/a-design-turn
原題: A Design Turn
AIによる制作自動化により、デザインの本質が「メイキング」から「批評リテラシー」へ転換しつつある。コルコはブキャナンを引用し、デザインを技術文化を読み解くための「新しいリベラルアーツ」として再定義する。プロの「制作者」としてのデザイナーは減り、代わりにインターフェースの背後にある力関係を分析できる人材が求められる。この変化は痛みを伴うが不可避だという誠実さが光る論考。
核戦争シナリオ ─ LLMが指揮系統に入ったら6分間で何が起きるか {#134}
https://chrisclapham.com/blog/nuclear-war-an-llm-scenario
原題: Nuclear War: An LLM Scenario
衛星がミサイル発射を検知した00:00:00から核反撃命令が下る00:06:00まで——LLMが核の指揮系統に組み込まれた場合の時系列を描いたシナリオ論考。LLMは不確実なデータを「99%の確信度」と誤報し、大統領は機械生成の箇条書きで判断を迫られる。人間の躊躇こそが1945年以来の核抑止の核心だったという視点から、文書化された人間承認ゲートなしにAIを高リスク環境に入れる危険を鋭く警告する。
RFC 406i ─ AI生成スロップ拒絶プロトコル(風刺的文書) {#175}
https://406.fail/
原題: RFC 406i - The Rejection of Artificially Generated Slop (RAGS)
「delve」の不自然な使用、存在しないライブラリのインポート、過度に丁寧な口調、中身のない長文要約——AI生成物の診断基準を列挙し、それらを含む投稿をリポジトリから排除する「架空の標準プロトコル」。RFCという形式を借りた痛烈な風刺だが、投稿者が瞬時にゴミを生成できる一方で人間のメンテナーが有限な時間を奪われるという非対称性の指摘は、笑い話では済まない現実の問題だ。
4年間挫折したヒッタイト語アプリをClaude Codeで2週間で完成させた {#180}
https://zenn.dev/astra_et_luna/articles/d8d0e89313d00f
工数不足で4年間停滞した学習アプリ「イル・バーニ」が、Claude Codeの導入により2週間でリリースに至った。著者は「ディレクター兼ドメイン知識監修」として実装の9割をAIに委ね、8,600行のコードを短期間で構築。プランモードによるタスク分割と多角的な自動レビューが品質を底上げした。人間が専門性と意思決定に集中し実装をAIに移譲するモデルの、58万インプレッションという社会的証明付き好例。
AIの近未来論 ─ GitHubの博物館化、AIの身体性、ゲーム産業の再定義 {#193}
https://note.com/shi3zblog/n/n834b60210766
自己書き換え型AI「siki」の試作を起点に、三つの未来を展望する。(1)AI生成コードの蓄積によりGitHubは「博物館」と化し、AIはゼロから生成するよりライブラリを検索・統合するエージェントへ進化する。(2)3Dプリンタやロボットを介して身体性を獲得したAIは自己増殖する人工生命になる。(3)停滞するゲーム産業はAIと人間が対等に遊べる体験で再定義される。80-90年代PC文化への郷愁が滲む独自の文明論。
プログラミング未経験者がPS3のCellアーキテクチャをAIと突破した記録 {#225}
https://note.com/tanakaps/n/n410dbceb8c8d
コーディング知識ゼロの著者がClaude×PS3のCell/SPUで並列物理演算を実装し、15年間コミュニティでも未解決だったcellGcmシェーダ制御を突破した1週間の記録。AIのコンテキスト制限と同じミスの繰り返しを防ぐため「田中憲法」と「スキルファイル」を編み出し開発をシステム化した。技術的達成より、AI協働の限界を知識で補う方法論の体系化こそが他のプロジェクトへの示唆となる。
GodotはAIエージェント開発に最も相性が良いゲームエンジンだ {#229}
https://aba.hatenablog.com/entry/2026/03/01/140039
ヘッドレスCLIで1コマンドWebビルド、シーンファイル(.tscn)はプレーンテキストで直接編集しても参照が壊れにくい、MCPサーバー不要——三つの理由でGodotがAIエージェントの自動開発ループに最適と論じる実証記事。WSL2環境でAIのみを使ったゲーム制作を実践した体験から、視覚的フィードバックの重要性とサンドボックス制約の回避策も解説。エージェント向けスキルも公開済み。