godot-rust v0.5リリース — 型付き辞書・3段階セーフガード・WebAssembly改善など70以上の機能強化

概要 GodotゲームエンジンのRustバインディングである「godot-rust」が2026年3月27日、v0.5を正式にリリースした。v0.4から約6ヶ月ぶりのメジャーアップデートとなり、型システムの強化、パフォーマンス最適化、エンジン統合の改善など70以上の変更が含まれている。Rust edition 2024およびGodot 4.6への対応も行われた。 セーフガードレベルによるパフォーマンス最適化 v0.5では新たに3段階のセーフガードレベルが導入された。「Strict」はデバッグビルドのデフォルトで、開発中のバグ検出を強化する。「Balanced」はリリースビルドのデフォルトで、安全性を保ちつつ高速な動作を実現する。「Disengaged」は安全チェックを完全に省略し、最大限の速度を追求するモードで、特殊な高パフォーマンスシナリオ向けとされている。 さらに、Callable::from_fn()コンストラクタの高速化や、Gd<T>の内部セルからMutexロックを除去する最適化も実施された。スレッディングモデルにより、experimental-threadsを使用しない場合はメインスレッドからのみアクセスするため、安全性を維持したままMutexを不要にできたという。 型付き辞書と型システムの強化 型システム面では、辞書がDictionary<K, V>というジェネリック型パラメータをサポートするようになった。新しい式マクロとしてdict!とidict!が追加され、要素アクセスでも強い型付けが維持される。また、GDScriptにおける暗黙的なアップキャスト問題に対処するため、AnyArrayとAnyDictionaryという共変コレクション型が新設された。これらはすべての要素型に対して安全な操作のみを公開し、Deref変換により&Array<T>を&AnyArrayとして使用できる。 Godot 4.6のnullabilityアノテーションにも対応し、非nullパラメータにはOption<Gd<T>>ではなくGd<T>が使用されるようになった。エンジンおよびカスタムenumがGodotConvertを実装し、#[func]、#[signal]、#[var]、#[export]、コレクション全体で統一的に利用可能となっている。GStringとStringNameは&strとの直接比較がアロケーションなしでサポートされた。 クラス登録APIとエディタ統合の改善 #[func]で#[opt(default = ...)]属性によるオプショナルパラメータのデフォルト値指定が可能になった。エディタ向けには#[export_tool_button]属性が追加され、PhantomVar<Callable>と組み合わせることでインスペクタ上にクリック可能なボタンを配置できる。 プロパティシステムでは、#[var]フィールドのRustゲッター・セッターの自動生成が廃止され、#[var(pub)]によるオプトイン方式に変更された。#[var(rename = ...)]によるプロパティ名のリネームも可能だ。ユーザーシングルトンの登録が#[class(singleton)]属性で可能となり、RustとGDScriptの両方からグローバルにアクセスできる。Godotのオートロードを簡便に取得・キャッシュするget_autoload_by_name()関数も追加された。 WebAssemblyとクロスコンパイルの進展 WebAssembly対応が大きく前進した。Wasm向けのプリビルトアーティファクトが提供されるようになり、従来必要だったapi-customフィーチャー、bindgen、LLVMツールチェーンが不要になった。Webエクスポートは現在CIでテストされており、セットアップを簡略化するCLIツールも計画されている。また、godot-bindingsのプラットフォーム選択がホストOSではなくターゲットOSに基づいて行われるよう修正され、クロスコンパイルが正しく機能するようになった。Rust GDExtensionクレートをrlibとしてコンパイルし依存関係として利用することで、モジュラーなエクステンション構成も可能になっている。 今後の展望 今後はスレッドセーフティの改善やGDExtensionエコシステムの安定化が重点分野とされている。v0.5には破壊的変更も含まれており、旧来のNode::duplicate()やResource::duplicate()メソッドは非推奨となりv0.6で削除予定。移行ガイドが提供されている。

March 30, 2026

Google、Chromeで悪用確認済みのゼロデイ2件を緊急修正 ― SkiaとV8に深刻な脆弱性

概要 Googleは2026年3月、Chrome安定版をバージョン146.0.7680.75/.76へ更新し、実際の攻撃で悪用が確認されていた2件のゼロデイ脆弱性を修正した。いずれもCVSSスコア8.8の高深刻度と評価されており、Googleは「CVE-2026-3909およびCVE-2026-3910のエクスプロイトが野外に存在する」と確認している。修正版はWindows(146.0.7680.75)、macOS(146.0.7680.76)、Linux(146.0.7680.75)向けに提供されている。 脆弱性の技術的詳細 1件目のCVE-2026-3909は、Chromeが描画処理に使用する2DグラフィックライブラリSkiaにおける境界外書き込み(out-of-bounds write)の脆弱性である。細工されたHTMLページを通じて境界外メモリアクセスが可能となり、ブラウザのクラッシュやコード実行につながる恐れがある。 2件目のCVE-2026-3910は、V8 JavaScriptおよびWebAssemblyエンジンにおける不適切な実装(inappropriate implementation)の脆弱性で、細工されたHTMLページを介してサンドボックス内での任意コード実行を許す可能性がある。 両脆弱性ともGoogleが3月10日に発見・報告し、報告からわずか3日後の3月13日に緊急パッチが公開された。Googleはパッチの普及を優先するため、脆弱性の詳細な技術情報やエクスプロイトの手法については「ユーザーの大多数がアップデートを適用するまで制限する」方針をとっており、特にサードパーティライブラリが関与するケースでは慎重な対応を取っている。 2026年のChromeゼロデイ動向と対応状況 今回の修正により、2026年に入ってからGoogleが対処したChromeの悪用済みゼロデイは合計3件となった。2月にはCSSFontFeatureValuesMapにおけるイテレータ無効化に起因するuse-after-freeの脆弱性(CVE-2026-2441、CVSS 8.8)が修正されている。なお、2025年通年ではChromeのゼロデイは8件が修正されており、2026年は3か月で既にその約4割に達するペースとなっている。 米国サイバーセキュリティ・インフラセキュリティ庁(CISA)は3月13日、両脆弱性を既知の悪用済み脆弱性カタログ(KEV)に追加し、連邦文民行政機関(FCEB)に対して3月27日までの修正適用を義務付けた。一般ユーザーもChromeの「ヘルプ > Google Chromeについて」から最新版への更新を速やかに行うことが強く推奨される。

March 30, 2026

Google、リアルタイム音声・映像モデル「Gemini 3.1 Flash Live」を開発者向けに公開 — 90以上の言語に対応し低レイテンシを実現

概要 Googleは2026年3月26日、リアルタイムのマルチモーダル音声・映像モデル「Gemini 3.1 Flash Live」を開発者向けに公開した。Google AI StudioのLive APIを通じてプレビュー利用が可能で、音声・映像・ツール呼び出しを低レイテンシで処理できるのが特徴だ。Googleはこれを同社の「最高品質のオーディオ・音声モデル」と位置付けており、Gemini Liveにとって「過去最大のアップグレード」としている。 このモデルは、リアルタイムの会話型AIエージェント構築を主なターゲットとしており、カスタマーサービス、アクセシビリティツール、インタラクティブなAI体験など、即時応答が求められるアプリケーションでの活用が想定されている。 音声処理と会話能力の向上 Gemini 3.1 Flash Liveは前世代の2.5 Flash Native Audioと比較して、複数の面で大幅な改善を実現している。音声処理においては、ピッチやペースといった音響的なニュアンスの認識が強化され、バックグラウンドノイズのフィルタリング性能が大幅に向上した。交通音やテレビの音声といった環境音から人間の発話をより正確に識別できるようになっている。 会話能力の面では、90以上の言語でのリアルタイムマルチモーダルインタラクションに対応し、「不自然な間」を減らしたより高速なレスポンスを実現した。会話のコンテキストを従来の2倍の長さにわたって追跡できるようになり、回答の長さやトーンを会話の文脈に応じて動的に調整する機能も備えている。 ツール統合とエージェント機能 開発者にとって特に注目すべきは、外部ツールとの統合能力の強化だ。ライブ会話中に外部ツールをトリガーして情報を取得・提供する能力が大幅に改善されており、AIエージェントがリアルタイムの対話の中でAPIを呼び出したり、外部データソースにアクセスしたりすることが容易になった。また、複雑なシステムインストラクションへの準拠性が向上し、予期しない会話の展開においても運用上のガードレールを維持する能力が改善されている。 展開と今後の見通し Gemini 3.1 Flash Liveは現在、Google AI StudioのLive APIを通じてプレビューとして利用可能なほか、AndroidおよびiOS向けのGemini Liveアプリにも順次展開される。さらに、Search Liveが200以上の国と地域に対応言語・地域を拡大してグローバル展開される。リアルタイムAIエージェントの実用化が加速する兆しを見せている。

March 30, 2026

Ingress2Gateway 1.0正式リリース、30以上のアノテーション対応でIngress-NGINXからGateway APIへの移行を本格支援

概要 KubernetesのSIG Networkは2026年3月20日、Ingressリソースから Gateway APIへの移行を支援するツール「Ingress2Gateway」のバージョン1.0を正式リリースした。Ingress-NGINXが2026年3月に廃止されることを受け、既存のIngress設定をGateway APIリソースへ自動変換するための公式ツールとして位置づけられている。以前のバージョンではわずか3つのアノテーションしかサポートしていなかったが、1.0では30以上のIngress-NGINXアノテーションに対応し、CORS設定、バックエンドTLS、正規表現パスマッチング、パスリライト、プロキシボディサイズ、タイムアウト設定、カスタムリクエストヘッダーなど幅広い構成の変換が可能になった。 Gateway APIへの移行が必要な背景 Gateway APIはIngress APIの後継として設計されたKubernetesのネットワーキングインターフェースであり、すでにGA(一般提供)に到達している。従来のIngressがアノテーションベースの拡張に依存していたのに対し、Gateway APIはモジュラーで拡張性の高いAPI設計、KubernetesネイティブのRBACサポート、より明確な抽象化を提供する。Ingress-NGINXの廃止により、Kubernetes上でトラフィック管理を行うすべての組織はGateway APIへの移行を迫られている状況だ。 技術的な特徴と移行プロセス Ingress2Gatewayはコマンドラインツールとして提供され、Go install、Homebrew、GitHubリリースからインストールできる。YAMLマニフェストファイルからの変換のほか、クラスターに接続して単一ネームスペースまたは全ネームスペースのIngressリソースを一括変換する機能を備える。さらに、出力先のGateway API実装としてagentgateway、envoy-gateway、kgatewayなどの実装固有のエミッターを指定可能だ。 1.0リリースの大きな特徴として、コントローラーレベルの統合テストが整備された点が挙げられる。このテストでは実際のIngress-NGINXコントローラーと複数のGateway APIコントローラーを起動し、変換前後のルーティングやリダイレクト、リライトといった実行時の振る舞いが同等であることを検証する。YAML構造の比較ではなくランタイムの動作を検証することで、Ingress-NGINXの予期しないデフォルト値やエッジケースを本番デプロイ前に検出できる仕組みとなっている。 移行における留意点と今後の展望 Ingress2Gatewayはワンショットの置換ツールではなく、反復的な移行プロセスを前提として設計されている。変換時には自動変換できない設定について明確な警告と代替手段の提案が出力されるため、チームはこれを確認しながら段階的に移行を進めることが推奨される。この移行プロセスは既存のアーキテクチャ判断を見直す機会でもあるという設計思想が反映されている。Kubernetes 1.36が2026年4月22日にリリース予定であり、Gateway APIの本格採用がさらに加速する見通しだ。本ツールはGoogle所属のBeka Modebadze氏とMicrosoft所属のSteven Jin氏が中心となって開発された。

March 30, 2026

LiteLLMにサプライチェーン攻撃、Trivy CI/CDの侵害を経由しPyPIパッケージにバックドア埋め込み

事件の概要 2026年3月24日、攻撃グループ「TeamPCP」がAIエージェント向けLLMプロキシライブラリ「LiteLLM」のPyPIパッケージにバックドアを埋め込む攻撃が発覚した。LiteLLMは複数の大規模言語モデルを統一的なインターフェースで切り替えられるライブラリで、月間約9,500万ダウンロードを誇る人気パッケージだ。攻撃者はLiteLLMのCI/CDパイプラインで使用されていたセキュリティスキャナー「Trivy」の侵害を足がかりにして、悪意あるバージョン1.82.7および1.82.8をPyPIに公開した。悪意あるパッケージは10:39 UTCから16:00 UTC(約5時間20分)の間にPyPI上で公開されており、バージョンを固定せずにインストールしたユーザーが影響を受けた可能性がある。FutureSearchの研究者Callum McMahon氏が自身のマシンでペイロードを実行してしまったことで異常に気づき、コミュニティに警告を発したのが発見のきっかけとなった。 攻撃の技術的詳細 攻撃は3段階の巧妙な構成で行われた。バージョン1.82.7ではlitellm/proxy/proxy_server.pyに悪意あるコードが埋め込まれ、モジュールのインポート時に実行される仕組みだった。さらに攻撃をエスカレートさせたバージョン1.82.8では、litellm_init.pthファイルがパッケージのルートに追加され、LiteLLMをインポートしなくてもPython起動時に自動的にマルウェアが実行されるようになっていた。 マルウェアのペイロードは以下の3つのコンポーネントで構成されていた。第1に、SSHキー、クラウドプロバイダー(AWS、GCP、Azure)の認証情報、Kubernetesシークレット、暗号通貨ウォレット、.envファイルなどを標的とする認証情報ハーベスター。第2に、クラスタノードに特権PodをデプロイするKubernetes横展開ツールキット。第3に、50分ごとにcheckmarx[.]zone/rawからコマンドを取得する永続的なsystemdバックドア(sysmon.service)だ。窃取されたデータは暗号化・圧縮されてtpcp.tar.gzにまとめられ、models.litellm[.]cloud(LiteLLMとは無関係の不正ドメイン)へHTTPS POSTで送信されていた。 TeamPCPの広範な攻撃キャンペーン 今回の攻撃は孤立した事件ではなく、TeamPCPによる大規模なサプライチェーン攻撃キャンペーンの一環だ。時系列を追うと、3月1日に最初のサプライチェーン攻撃が公表され、3月19日にAqua SecurityのTrivyセキュリティスキャナーが侵害、3月23日にはCheckMarxのVS Code拡張機能やGitHub Actionsが侵害された。TeamPCPはGitHub Actions、Docker Hub、npm、Open VSX、PyPIの5つのエコシステムにまたがって攻撃を展開しており、侵害した各環境の認証情報を次の標的への踏み台にするという連鎖的な手法を用いている。npmパッケージにPythonバックドアや自己伝播型ワームを埋め込んだ事例や、イランに位置するターゲットに対してKubernetesノードやローカルマシンのワイパーマルウェアを展開した事例も報告されている。 対応と推奨される対策 LiteLLMチームは悪意あるパッケージをPyPIから削除し、認証情報のローテーションを実施するとともに、Google Mandiantにフォレンジック調査を依頼した。v1.78.0からv1.82.6までの全リリースについてGitコミットとの整合性を検証し、これらのバージョンの安全性が確認されている。なお、公式のDockerプロキシイメージは依存関係がバージョン固定されていたため影響を受けなかった。 影響を受けた可能性のあるユーザーに対しては、すべてのシークレット(APIキー、データベースパスワード、SSHキー、トークン)のローテーション、site-packages内のlitellm_init.pthの有無の確認と削除、Kubernetesクラスタにおける不正なPodの確認、models.litellm[.]cloudやcheckmarx[.]zoneへの通信ログの調査、CI/CDパイプラインでのTrivy/KICS使用の監査、そしてLiteLLMをv1.82.6以前にピン留めすることが推奨されている。LLMライブラリはAPIキーや環境変数など機密性の高い設定データにアクセスすることが多いため、今回の攻撃はAI/MLサプライチェーンの脆弱性を浮き彫りにしたといえる。

March 30, 2026

Meta、Reality Labsなど5部門で約700名を削減 ― AI投資に最大1,350億ドルを投じる戦略転換が加速

概要 Metaは2026年3月25日、Reality Labs、採用、営業、Facebook、グローバルオペレーションの5部門にわたり約700名の人員削減を実施した。2025年末時点で約79,000人の従業員を抱える同社にとって全体の1%未満の規模ではあるが、今年に入って2度目のレイオフとなる。1月にはReality Labsだけで約1,000名が削減されており、メタバース関連部門の縮小が顕著に進んでいる。Metaの広報担当者はThe Registerに対し、「Meta全体のチームは目標を達成するために定期的に組織再編や変更を行っている。影響を受ける可能性のある従業員には、可能な限り他の機会を提供している」と述べた。The Registerは、今回の削減がZuckerbergが1月の決算発表で示した「AIを活用してより効果的に機能するためのビジネスの合理化」の一環であると分析している。 AIへの大規模投資とメタバースからの転換 今回のレイオフの背景にあるのは、Metaの生成AI・エージェントAIへの急速な戦略転換だ。同社は2026年の設備投資額を1,150億〜1,350億ドルと見込んでおり、その大部分をAIインフラの構築に充てる。総支出は最大1,690億ドルに達する見通しで、2025年の1,180億ドル(前年比24%増)からさらに大幅に拡大する。独自のAIチップ「MTIA」の開発も2027年までのロードマップが策定されており、推論・学習の両面でAI基盤の内製化を進めている。一方で、VRヘッドセットやARデバイス、メタバースソフトウェアを担当するReality Labsは段階的に縮小されており、同部門は10〜15%の人員削減が計画されていると報じられている。 2022年以降の累計25,000名削減と組織の変容 Metaの大規模レイオフは今回が初めてではない。2022年に11,000名、2023年の「効率化の年」にさらに10,000名、2025年初頭にはパフォーマンス評価に基づく3,600名、同年後半にはSuperintelligence Labsから600名、そして2026年1月のReality Labs約1,000名と、累計で約25,000名が削減されてきた。CEOのMark Zuckerbergは1月28日のFacebook投稿で、2026年は「個人の貢献者を引き上げ、チームをフラット化する」年になると宣言しており、組織構造そのものの変革を進めている。 幹部報酬との対比が議論に 今回のレイオフで特に注目を集めたのは、削減発表のわずか1日前に開示された幹部向けストックオプションプログラムだ。CFOのSusan Li、CTOのAndrew Bosworth、CPOのChristopher Cox、COOのJavier Olivanら上級幹部に対し、2031年までの業績目標に連動した株式報酬が付与され、最も野心的なシナリオではMeta の時価総額9兆ドル達成が条件となる。達成時には一人あたり最大9億2,100万ドル相当の報酬が支払われる可能性があり、700名の削減と同時期の発表であったことから、従業員や外部の専門家から批判の声が上がっている。ビジネス研究者からは、共感的なリーダーシップから冷徹な効率追求への急激な転換が従業員の信頼を損ない、残った社員の士気にも影響を及ぼしかねないとの指摘がなされている。

March 30, 2026

Mistral AIが40億パラメータのオープンウェイトTTSモデル「Voxtral TTS」を公開、ElevenLabsを超える自然さを主張

概要 フランスのAIスタートアップMistral AIがオーディオ生成分野に初めて参入し、テキスト読み上げモデル「Voxtral TTS」をリリースした。40億パラメータを持つこのモデルは、同社の小型言語モデルMinistral 3Bをバックボーンとしたトランスフォーマーベースの自己回帰フローマッチング設計を採用している。人間による評価では、ElevenLabs Flash v2.5を上回る自然さを達成しつつ同等のTime-to-First-Audioを維持していると同社は主張しており、ElevenLabs v3との品質面での同等性も確認されたという。さらに感情制御(エモーションステアリング)機能も備えており、ElevenLabs、Deepgram、OpenAIなどの音声AI企業と直接競合する形となる。 アーキテクチャと技術仕様 Voxtral TTSの内部構造は3つの主要コンポーネントで構成される。34億パラメータのトランスフォーマーデコーダバックボーン、3.9億パラメータのフローマッチング音響トランスフォーマー、そして3億パラメータのニューラルオーディオコーデック(対称型エンコーダ・デコーダ)だ。処理は12.5Hzのフレームレートで行われ、独自開発のコーデックはセマンティックVQ(語彙数8192)とアコースティックFSQ(36次元、21レベル)を使用する。 一般的な入力(10秒の音声サンプル、500文字)に対するモデルレイテンシは70ミリ秒で、リアルタイムファクターは約9.7倍を実現している。ネイティブで最大2分の音声生成をサポートし、API経由ではスマートインターリービングによりさらに長いコンテンツにも対応する。 多言語対応と音声カスタマイズ 対応言語は英語、フランス語、ドイツ語、スペイン語、オランダ語、ポルトガル語、イタリア語、ヒンディー語、アラビア語の9言語。最短3秒のリファレンス音声サンプルからカスタムボイスへの適応が可能で、微妙なアクセント、抑揚、イントネーション、さらには言いよどみまでを再現できるとされる。特筆すべきは、明示的な訓練なしにゼロショットで言語間の音声適応が可能な点だ。例えばフランス語のアクセント特性を持つ英語音声の生成など、クロスリンガルなボイスクローニングが実現できる。 ライセンスと市場への影響 モデルの重みはHugging FaceでCC BY-NC 4.0ライセンスのもと公開されており、複数のリファレンスボイスも同梱される。API利用料は1,000文字あたり0.016ドルに設定されている。Voxtral TTSはMistral AIの音声パイプラインにおける最後のピースでもあり、音声認識のVoxtral、推論を担う大規模言語モデル群と合わせて、音声AIのエンドツーエンドスタックが完成した形だ。オープンウェイトでの公開によって音声合成分野におけるオープンソースの選択肢が大きく広がり、セールスやカスタマーエンゲージメント向けのボイスエージェント構築への活用が期待される。

March 30, 2026

Nvidia DGX Station GB300が注文受付開始、748GBメモリ・20PFLOPSのデスクトップAIスーパーコンピュータ

概要 NvidiaはGTC 2026において、GB300 Grace Blackwell Ultraデスクトップスーパーチップを搭載した新型DGX Stationを正式に発表し、注文受付を開始した。昨年のGB200 Blackwell搭載モデルに続くアップグレードモデルで、デスクトップ筐体ながらデータセンター級のAI演算性能を実現する。72コアのGrace CPUとBlackwell Ultra GPUを900GB/sのNVLink C2Cインターフェースで接続し、最大20ペタフロップスのAI演算性能を提供する。1兆パラメータ規模のモデルの開発・実行にも対応可能で、研究者やデータサイエンティスト向けのオフィス設置型AIワークステーションとして位置づけられている。 スペックと技術的特徴 DGX Station GB300は、合計748GBのオンボードメモリを搭載する。内訳はCPU側が496GBのLPDDR5X(帯域幅396GB/s)、GPU側が252GBのHBM3eメモリ(帯域幅7.1TB/s)となっている。なお、GPU側のHBM3eメモリ容量は当初2025年に発表された仕様(288GB、帯域幅8TB/s)から減少しており、8スタック中7スタックを有効化したB300チップが使用されているとみられる。 新たにNVFP4精度フォーマットに対応し、NVFP4演算性能は前世代Blackwell比で50%向上している。NVFP4はFP8に近い精度を維持しながらメモリフットプリントをFP8比1.8倍、FP16比3.5倍削減できるため、大規模モデルの効率的な推論・学習が可能となる。ネットワーク接続にはConnectX-8 SuperNICを採用し、2つのQSFP112ポートで最大800Gb/sの通信速度をサポートする。PCIe Gen5 x16スロットやRTX PRO Blackwellグラフィックスカードのサポートも備え、2台のDGX Stationを接続してスケールアウトする構成にも対応する。システム全体のTDPは1,600Wとなっている。 価格と販売体制 Nvidia自体は公式価格を公表していないが、MSI XpertStation WS300がCDWで96,995.99ドルで掲載されており、市場価格は約10万〜12.5万ドルの範囲とみられる。前世代のDGX Stationが上位構成で約15万ドルだったことを考えると、性能向上に対して価格は抑えられている。今回Nvidiaはファウンダーズエディションの販売を行わず、CPU・GPU統合済みのマザーボードをパートナーに供給する方式を採用している。Asus、Dell、Gigabyte、MSI、Supermicro、HPの各社から注文が可能で、今後数ヶ月以内に出荷が開始される予定だ。

March 30, 2026

OpenAI、動画生成AI「Sora」を段階的に終了へ――アプリは4月、APIは9月に閉鎖

Soraの終了と段階的な閉鎖スケジュール OpenAIは、2025年10月にリリースした動画生成AIサービス「Sora」を段階的に終了すると発表した。Webアプリおよびモバイルアプリは2026年4月26日に、APIは同年9月24日にそれぞれ閉鎖される。ユーザーはそれぞれの期限までに、Soraライブラリから生成済みの動画や画像をダウンロードする必要がある。期限後のデータは永久に削除される予定で、最終的なエクスポート期間についてはメール通知が行われる可能性があるとされている。 Soraは動画・音声生成モデル「Sora 2」を基盤とし、TikTokに着想を得たAI生成コンテンツのプラットフォームとして設計された。技術的には高い評価を受けたものの、継続的なユーザーエンゲージメントの獲得には至らなかった。リリースからわずか半年足らずでの撤退となる。 戦略転換とDisney提携の消滅 今回の決定の背景には、OpenAIの大きな戦略転換がある。同社は計算リソースをコーディングツールやエンタープライズ向け製品に集中させる方針を打ち出しており、競合のAnthropicと同様の戦略的方向性を取る形となった。ChatGPTを中心とした包括的な「スーパーアプリ」の開発に注力し、消費者向けクリエイティブツールよりもエンタープライズ顧客とコーディング機能を重視する姿勢を鮮明にしている。 一方、Soraの終了発表を受けて、Disneyが計画していた約10億ドル規模のOpenAIへの投資が撤回されたと報じられている。クリエイティブワークフローへの統合を見据えた提携だったとみられるが、Soraの終了によりその前提が崩れた形だ。 研究としての継続 なお、Sora自体は商用サービスとしては終了するものの、ワールドモデルや「物理経済の自動化」に焦点を当てた研究プロジェクトとしては継続されるとのことだ。消費者向けプロダクトとしては失敗に終わったが、動画生成AIの基盤研究としては今後も発展が期待される。

March 30, 2026

OpenAI、次世代モデル「Spud」の事前学習完了を発表 ── 数週間以内のリリースを示唆

概要 OpenAIのSam Altman CEOは、社内メモにおいて次世代フラグシップモデルのコードネーム「Spud」の事前学習(プリトレーニング)が完了したことを明らかにした。The Informationの報道によると、Altman氏は従業員に対し「数週間以内に非常に強力なモデルが利用可能になる」と伝え、「このモデルは経済全体を本当に加速させることができる」と自信を示した。さらに「物事は多くの人が予想していたよりも速く進んでいる」とも述べており、OpenAI内部での開発の加速を示唆している。 戦略的な位置づけ Spudモデルは、OpenAIが計画しているデスクトップ向け「スーパーアプリ」の基盤となる可能性がある。このスーパーアプリはChatGPT、コーディングエージェントのCodex、ブラウザ機能のAtlasを統合するものとされており、エージェント型AIシステムで先行するAnthropicなどの競合に対抗する狙いがあるとみられる。特にAnthropicのClaude Codeがエンタープライズ領域で大きな牽引力を得ていることが、OpenAIの戦略転換を後押ししている。 Soraの終了とリソース再配分 Spudの開発と並行して、OpenAIは動画生成サービス「Sora」の突然の終了を発表した。Soraのアプリ、API、ChatGPTへの統合計画、さらにはDisneyとの10億ドル規模のパートナーシップもすべて中止された。この決定の背景には、GPUリソースをCodexやエンタープライズ製品、そしてSpudの開発に再配分する狙いがあるとされている。同時に、Fidji Simo氏率いるプロダクト組織は「AGI Deployment」に改名されるなど、組織再編も進行中だ。 今後の展望 Spudの事前学習完了は開発プロセスの重要なマイルストーンであり、今後はポストトレーニング(微調整やRLHFなど)のフェーズを経てリリースに向かうとみられる。Altman氏の「数週間以内」という発言が実現すれば、OpenAIはIPO準備と並行して次世代モデルの投入という大きな一手を打つことになる。アーキテクチャやパラメータ数などの技術的詳細はまだ公開されていないが、同社がどのような性能向上を実現するのか、業界の注目が集まっている。

March 30, 2026