OpenAI、次世代モデル「Spud」の事前学習完了を発表 ── 数週間以内のリリースを示唆

概要 OpenAIのSam Altman CEOは、社内メモにおいて次世代フラグシップモデルのコードネーム「Spud」の事前学習(プリトレーニング)が完了したことを明らかにした。The Informationの報道によると、Altman氏は従業員に対し「数週間以内に非常に強力なモデルが利用可能になる」と伝え、「このモデルは経済全体を本当に加速させることができる」と自信を示した。さらに「物事は多くの人が予想していたよりも速く進んでいる」とも述べており、OpenAI内部での開発の加速を示唆している。 戦略的な位置づけ Spudモデルは、OpenAIが計画しているデスクトップ向け「スーパーアプリ」の基盤となる可能性がある。このスーパーアプリはChatGPT、コーディングエージェントのCodex、ブラウザ機能のAtlasを統合するものとされており、エージェント型AIシステムで先行するAnthropicなどの競合に対抗する狙いがあるとみられる。特にAnthropicのClaude Codeがエンタープライズ領域で大きな牽引力を得ていることが、OpenAIの戦略転換を後押ししている。 Soraの終了とリソース再配分 Spudの開発と並行して、OpenAIは動画生成サービス「Sora」の突然の終了を発表した。Soraのアプリ、API、ChatGPTへの統合計画、さらにはDisneyとの10億ドル規模のパートナーシップもすべて中止された。この決定の背景には、GPUリソースをCodexやエンタープライズ製品、そしてSpudの開発に再配分する狙いがあるとされている。同時に、Fidji Simo氏率いるプロダクト組織は「AGI Deployment」に改名されるなど、組織再編も進行中だ。 今後の展望 Spudの事前学習完了は開発プロセスの重要なマイルストーンであり、今後はポストトレーニング(微調整やRLHFなど)のフェーズを経てリリースに向かうとみられる。Altman氏の「数週間以内」という発言が実現すれば、OpenAIはIPO準備と並行して次世代モデルの投入という大きな一手を打つことになる。アーキテクチャやパラメータ数などの技術的詳細はまだ公開されていないが、同社がどのような性能向上を実現するのか、業界の注目が集まっている。

March 30, 2026

Agile RobotsがGoogle DeepMindと提携、ロボティクス基盤モデルの産業応用が加速

提携の概要 ドイツを拠点とするロボット企業Agile Robotsは、Google DeepMindとの新たな提携を発表した。この提携により、Agile RobotsはGoogle DeepMindが開発するロボティクス基盤モデルを自社のロボットプラットフォームに統合する。同時に、Agile Robotsは実際のロボット運用から得られるデータをGoogle DeepMindに提供し、AI研究の発展に貢献する双方向の協力関係を構築する。 Google DeepMindのロボティクスエコシステム戦略 今回の提携は、Google DeepMindが複数のロボット企業と連携を進めている流れの最新事例となる。Google DeepMindは、さまざまなロボットメーカーとパートナーシップを結ぶことで、自社の基盤モデルを多様なハードウェアプラットフォームや用途で検証・改良できるエコシステムの構築を進めている。ロボット企業側にとっては、最先端のAIモデルを自社製品に取り込むことで製品の知能化を加速できるメリットがある。 物理AIの今後の展望 この動きは、大規模言語モデルや画像生成で注目を集めてきた基盤モデルの技術が、物理世界で動作するロボットにも本格的に適用され始めていることを示している。AI研究機関とハードウェアメーカーの間でデータとモデルを共有するパートナーシップモデルは、ロボティクス分野における基盤モデルの進化を加速させる鍵となりそうだ。産業用ロボットから日常生活を支えるロボットまで、物理AIの応用範囲は今後さらに広がることが期待される。

March 29, 2026

Google Geminiの「Personal Intelligence」が米国で無料化、Gmail・フォト連携やMemory機能も展開

Personal Intelligenceの無料化 Googleは2026年3月27日、AIアシスタント「Gemini」の「Personal Intelligence」機能を米国の全個人ユーザーに無料で提供開始した。この機能は2026年1月に導入された当初、有料の「Google AI Plan」加入者に限定されていたが、今回の「Gemini Drop」アップデートで無料ユーザーにも開放された形となる。 Personal Intelligenceは、Gmail、Googleカレンダー、Googleドライブ、Googleフォト、YouTube、Google検索、Googleマップなど、Googleの主要サービスのユーザーデータにアクセスし、明示的にプロンプトで指示しなくてもパーソナライズされた回答を提供する機能である。たとえば、メールの内容やカレンダーの予定を踏まえた応答が自動的に得られるようになる。 プライバシー管理とユーザーコントロール Personal Intelligenceはオプトイン方式で提供され、初回利用時に有効化の確認プロンプトが表示される。ユーザーはGeminiがアクセスできるアプリを個別に選択でき、特定のプロンプトに対してToolsメニューからPersonal Intelligenceを無効にすることも可能だ。サービスごとのアクセス権限はアカウントのPersonal Intelligence設定ページから管理できる。 UI刷新とMemory機能 同時に、Android版GeminiアプリのUIも刷新された。従来はGeminiの起動時にピル型オーバーレイの周囲にグロウエフェクトが表示されていたが、新デザインではグロウが画面の外周全体に拡張され、青を基調に赤・黄・緑のアクセントが下部に配置されるようになった。これにより、Geminiの画面自動化機能やCircle to Searchとの視覚的な一貫性が確保されている。 また、「Memory」機能(以前は「Past Gemini chats」と呼ばれていた)も展開された。これはGeminiが過去の会話履歴を参照してパーソナライズに活用する機能で、ユーザーが以前伝えた情報を繰り返し説明する必要がなくなる。Personal Intelligenceと組み合わせることで、Googleサービスのデータと過去の対話履歴の両方を活用した、より文脈に即したAIアシスタント体験が実現される。

March 29, 2026

Kubernetes上のLLM推論を革新する「llm-d」がCNCF Sandboxプロジェクトに採択

概要 KubeCon Europe 2026にて、Kubernetes上でLLM推論を最適化する分散推論フレームワーク「llm-d」がCNCF Sandboxプロジェクトとして採択された。llm-dは2025年5月にRed Hat、Google Cloud、IBM Research、CoreWeave、NVIDIAによって立ち上げられたプロジェクトで、AMD、Cisco、Hugging Face、Intel、Lambda、Mistral AI、UCバークレー、シカゴ大学など幅広い企業・研究機関が支援している。KServeのような高レベルのコントロールプレーンとvLLMのような低レベルの推論エンジンの間を橋渡しし、ハードウェアベンダーに依存しない「あらゆるアクセラレータ上でのSoTA推論性能」の実現を目指している。 アーキテクチャと技術的特徴 llm-dの中核となる技術革新は「Disaggregated Serving(分離型サービング)」だ。LLM推論のprefill(入力処理)フェーズとdecode(トークン生成)フェーズを独立したスケーラブルなPodに分離することで、リソース配分とレイテンシ管理をきめ細かく制御できるようにしている。Red HatのAI CTO Brian Stevens氏は「分離によって入力処理とトークン生成を独立してスケールできるようになった」と説明している。 その他の主要な技術的特徴として、Kubernetes Gateway API Inference Extension(GAIE)を活用したプレフィックスキャッシュ対応ルーティング、LeaderWorkerSet(LWS)プリミティブによるマルチノードレプリカとエキスパート並列処理、GPU・TPU・CPU・ストレージを横断した階層的KVキャッシュオフロードが挙げられる。 ベンチマーク結果 マルチテナントSaaSシナリオにおいて、Qwen3-32Bモデルを16基のNVIDIA H100 GPUで実行した場合、llm-dはTime-to-First-Token(TTFT)レイテンシをほぼゼロに維持しながら約12万トークン/秒のスループットを達成し、高負荷時にベースラインのKubernetesサービスを大幅に上回るパフォーマンスを示した。 今後の展望 Red Hatのエンジニアリングディレクター Robert Shaw氏は、今後の優先事項としてマルチテナントモデルサービング、リクエスト優先順位付け、新しいアクセラレータへの対応、Kubernetes上のエージェントシステム向けセキュリティ強化を挙げている。また、CNCFのAI Conformanceプログラムとの連携を通じて、分離型サービング機能のエコシステム間相互運用性の確保と、推論性能測定のためのオープンなベンチマーク標準の策定も計画されている。Mistral AIもLeaderWorkerSet向けのDisaggregatedSetオペレータの開発にコミットしており、コミュニティ主導でのエンタープライズ推論基盤の標準化が進む見通しだ。

March 29, 2026

Anthropic未発表モデル「Claude Mythos」がCMS設定ミスで流出、サイバーセキュリティ能力が既存AIを大幅に凌駕

概要 Anthropicが開発中の未発表AIモデル「Claude Mythos」(コードネーム:Capybara)の存在が、外部CMS(コンテンツ管理システム)の設定ミスによるデータ漏洩で明らかになった。LayerX Securityの上級AIセキュリティ研究者Roy Pazとケンブリッジ大学のサイバーセキュリティ研究者Alexandre Pauwelsがこの漏洩を発見し、Fortuneの記者Beatrice Nolanがこれを報じた。約3,000件の未公開アセットがAnthropicのブログに紐づく形で公開状態になっていたことが判明した。CMSにアップロードされたデジタルアセットは、ユーザーが明示的にプライバシー設定を変更しない限りデフォルトで公開状態となる仕様であり、ヒューマンエラーが原因だった。Fortuneからの通知を受けてAnthropicはデータストアへの公開アクセスを直ちに遮断した。 漏洩したドラフトブログ記事によると、Claude Mythosは「ステップチェンジ(段階的飛躍)」を意味するモデルであり、「これまでに構築した中で最も高性能」とされている。Anthropicの広報担当者もこの開発を認め、「推論、コーディング、サイバーセキュリティにおいて意味のある進歩を遂げた汎用モデルを開発している」と述べた。 モデルの性能と位置づけ Claude Mythosは、既存のOpusモデルの上位に位置する第4の製品ティア「Capybara」として導入される予定だ。Opusモデルよりも大規模かつ高性能で、ソフトウェアコーディング、学術的推論、サイバーセキュリティのテストにおいてClaude Opus 4.6を劇的に上回るスコアを記録している。その分、価格も既存のフラッグシップモデルよりプレミアム設定となる見込みだ。 Anthropicの内部テストでは、プログラミングタスクや複雑な問題解決における高度な推論能力が確認されている。Anthropicの既存モデルClaude Opus 4.6を搭載した「Claude Code Security」では、オープンソースプロジェクトにおいて500件以上の深刻度の高いエクスプロイトを発見しており、開発者のコメントから欠陥を推測する能力も示されている。Claude Mythosはこれらの能力をさらに大幅に上回るとされている。 サイバーセキュリティへの影響と懸念 漏洩した文書の中でも最も注目を集めたのは、Claude Mythosのサイバーセキュリティ能力に関する記述だ。ドラフトには「現在、サイバー能力において他のあらゆるAIモデルをはるかに上回っている」とあり、「防御側の取り組みをはるかに凌駕する形で脆弱性を悪用できるモデルの到来を予告している」と記されていた。Anthropicはハッカーによる大規模サイバー攻撃への悪用を懸念しており、まず防御側の組織に限定してアーリーアクセスを提供する慎重なロールアウトを計画している。 この発表を受け、CrowdStrikeやPalo Alto Networksなどのサイバーセキュリティ関連株が5%以上下落するなど、市場にも影響が波及した。2026年2月にOpenAIがサイバーセキュリティタスクで「高能力」に分類されたGPT-5.3-Codexをリリースし、同時期にAnthropicもOpus 4.6で脆弱性検出能力を示していたが、Claude Mythosはこれらをさらに大きく超える能力を持つとされている。 今後の展開 Claude Mythosは現在、選定された顧客との早期アクセステストが進行中であり、Anthropicは「リリースについては慎重に進める」としている。また、漏洩したデータには英国で予定されている招待制のCEOサミットの情報も含まれており、欧州のビジネスリーダーが未公開のClaude機能を体験する場としてAnthropic CEO Dario Amodeiの出席が予定されている。OpenAIが「Spud」と呼ばれるモデルの事前学習を完了させたタイミングとも重なり、AI業界における性能競争がさらに激化している。

March 28, 2026

GitHub Copilot利用メトリクスがCoding Agentの使用状況を個別追跡可能に

概要 GitHubは2026年3月25日、Copilotの利用状況メトリクスを更新し、Copilot Coding Agent(CCA)のアクティブユーザーを識別・追跡できる機能を追加した。これにより、エンタープライズおよび組織の管理者は、IDE内でのCopilotエージェントモードの利用と、CCAによる自律的なコーディング作業を明確に区別して把握できるようになった。日次および28日間の利用レポートでCCAのアクティブユーザー数を確認でき、チームがIDEの外でどのようにCopilotを活用しているかをデータに基づいて理解できる。 技術的な詳細 CCAの利用状況はAPIレスポンス内のused_copilot_coding_agentフィールドとして提供される(APIバージョン2026-03-10)。従来からあるIDEエージェントモードのused_agentフィールドとは別に管理されるため、2つの異なるエージェント機能の利用状況を個別に分析できる。CCAのアクティビティとしてカウントされるのは、Copilotにissueをアサインした場合と、プルリクエストのコメントで@copilotをタグ付けした場合の2つのアクションだ。 管理者にとっての意義 今回の更新により、組織の管理者はCopilotの導入効果をより詳細に評価できるようになった。IDEでのコード補完やチャットといった従来の利用に加え、CCAによる自律的な計画・コーディングの利用パターンを把握することで、チーム全体のAI活用状況を包括的にモニタリングできる。これは、Copilotへの投資対効果を測定し、組織内での最適な活用方針を策定するうえで重要なデータとなる。

March 28, 2026

Google Cloud、NVIDIA GTC 2026で分数GPU VMやVera Rubin NVL72対応など次世代AIインフラを発表

概要 Google Cloudは2026年3月28日、NVIDIA GTC 2026において、AIクラウドインフラストラクチャの大幅な強化を発表した。今回の発表は、GPUリソースの柔軟な利用を可能にする分数GPU VM、次世代ラックスケールシステムVera Rubin NVL72への対応、そしてNVIDIA DynamoとGoogle Kubernetes Engine(GKE)の統合という3つの柱で構成されている。単なるGPUの提供にとどまらず、AIインフラをクラウドスタック全体の課題として捉え、柔軟な消費モデルと深いソフトウェア統合を重視する姿勢が示された。 分数G4 VM:GPUの柔軟な分割利用 Google Cloudは、NVIDIA RTX PRO 6000 Blackwell Server Edition GPUを搭載した分数G4 VMのプレビューを発表した。NVIDIAの仮想GPU(vGPU)技術を活用し、GPUを1/2、1/4、1/8単位で分割して利用できる新しい構成を提供する。これにより、推論、レンダリング、リモートデスクトップ、ストリーミングなどのワークロードに対して、必要なリソースを過不足なく割り当てることが可能になる。 さらに、Dynamic Workload Schedulerと組み合わせることで、分数スライスのフォールバック優先度を設定でき、スケジューラが自動的に利用可能なGPU構成を見つけることで、リソースの取得可能性が大幅に向上する。AI推論のコスト効率化を求める企業にとって、フルGPUを占有せずに済む選択肢が広がる形だ。 Vera Rubin NVL72ラックスケールシステムへの対応 Google Cloudは、2026年後半にNVIDIA Vera Rubin NVL72ラックスケールシステムを提供する最初のクラウドプロバイダーの一つとなる計画を明らかにした。このシステムはAI Hypercomputerアーキテクチャに統合され、新たにA4 Ultraインスタンスファミリーとして提供される。 A4 Ultraは、1ラックあたり72基のVera Rubin GPUをNVLink 6で接続し、FP8精度で1.4エクサFLOPSの演算性能を実現する。NVLink 6はH100システムで使用されるNVLink 4と比較してリンクあたりの帯域幅が2倍となり、学習時の勾配同期の高速化やModel FLOP Utilization(MFU)の改善が期待される。プレビューは2026年第2四半期にus-central1およびeurope-west4リージョンで開始され、一般提供は2026年後半、さらなるリージョン拡大は2027年を見込む。 なお、Google CloudはNVL72をTPU v5e/v5pインフラと並行して提供する方針であり、CUDA対応のトレーニングワークロードにはNVL72を、JAX最適化された推論にはTPUをという形で、マルチアクセラレータ戦略を維持する。 NVIDIA DynamoとGKE Inference Gatewayの統合 ソフトウェア面では、NVIDIA DynamoとGKE Inference Gatewayの統合が発表された。これにより、アプリケーション層からハードウェアまでをカバーするモジュラーかつオープンソースのコントロールプレーンが提供される。Kubernetesベースの推論デプロイメントにおいて、GPUリソースの管理と推論ワークロードのオーケストレーションがより効率的に行えるようになる。 Google Cloudの今回の発表は、AWS、Microsoft Azure、OCIといった他の主要クラウドプロバイダーもVera Rubinベースのインスタンスを2026年中に展開する中で、柔軟性とソフトウェア統合の深さで差別化を図る戦略を鮮明にしたものと言える。

March 28, 2026

ICML 2026が隠し透かしでAI不正査読を検出、提出論文の約2%にあたる497本を却下

概要 国際機械学習会議(ICML 2026)は、査読プロセスにおいてAIを不正に利用した著者を検出し、提出論文の約2%にあたる497本を却下したことを発表した。ICMLは査読においてLLMの使用を明示的に禁止しており、今回の大量却下は学術会議として前例のない規模の対応となる。この措置は、AI時代における学術的誠実性の維持に向けた具体的な成功事例として、研究コミュニティに大きな波紋を呼んでいる。 検出手法——隠しテキスト透かしによるトラップ 今回用いられた検出手法は、論文中に人間の目には見えない隠しテキストの透かし(ウォーターマーク)を埋め込むというものだ。この隠しテキストにはAIシステムへの指示が含まれており、LLMが論文を読み込んで査読を生成する際に、特定の特徴的なフレーズを出力に含めるよう誘導する仕組みになっている。主催者はこれらの特徴的フレーズが査読コメントに出現するかどうかを確認することで、AIが査読に使用されたケースを特定した。この手法は、AI生成テキストの統計的検出とは異なり、意図的に仕掛けたトラップによる確実性の高い検出方法といえる。 学術出版における不正の広がり 今回の事態は、学術出版全体でAI不正が深刻化している状況の一端を示している。2025年には別のAI関連学会で査読の約5分の1がAI生成と見られることが判明し、また別の学会では数百件の捏造された引用が論文中に発見された。さらに2023年にはある出版社が8,000本の不正論文を撤回するという事態も起きている。AIツールの普及により、偽の学術論文や不正な査読の生成がますます容易になっており、学術界全体での対策が急務となっている。 今後の展望 ICML 2026の透かし検出手法の成功は、他の学術会議や学術誌にも同様の対策が広がる可能性を示唆している。一方で、AIの検出回避技術も進化し続けるため、検出手法とのいたちごっこが続くことも予想される。学術コミュニティにとって、査読の信頼性をいかに維持するかは今後も重要な課題であり続けるだろう。

March 27, 2026