MetaのHyperion AIキャンパス向けガス発電所が10基・7.5GWに拡大、当初計画の3倍超

概要 Metaは2026年3月27日、ルイジアナ州北東部 Richland Parish で建設中のHyperion AIデータセンターキャンパスに電力を供給するため、ガス火力発電所の発注数を3基から10基へと3倍以上に拡大すると発表した。地域電力会社Entergyとの間で約110億ドルの契約を締結し、総発電容量は7.5ギガワットに達する。これに加えてバッテリー蓄電を含む再生可能エネルギー設備を最大2.5ギガワット導入する計画も示された。この規模はルイジアナ州全体の送電網容量を30%以上増加させるインパクトを持ち、AIデータセンターの急増する電力需要を改めて浮き彫りにした。 プロジェクトの拡大経緯 Hyperion プロジェクトは2024年12月に100億ドルの投資計画として発表され、当初は2,250エーカーのキャンパスを想定していた。その後2026年初めに追加で1,400エーカーを取得し、敷地面積は計3,650エーカー(フットボール場約2,700面分)まで拡大。Mark Zuckerberg CEO は「マンハッタンのフットプリントの相当部分に匹敵する規模」と表現している。2025年10月にはBlue Owl Capitalとの合弁会社を設立し、総開発費は270億ドル規模へと膨らんでいた。発電所についても2025年秋にルイジアナ公益事業委員会(Louisiana Public Service Commission)が3基を承認していたが、今回の追加7基については改めて委員会の承認を得る必要がある。 費用負担と規制の課題 Metaはこのインフラ整備費用を全額自社で負担し、Entergyの一般消費者には転嫁しないと明言している。データセンター担当VP Rachel Peterson は「Entergyの他の消費者に我々のコストを負担させないことが重要だ」と述べた。この点は、オレゴン州での大規模データセンター展開が原因でPortland General Electricの電気料金が5年間で50%上昇した事例と対比される。同州ではその後、大口顧客にインフラ整備費の独自負担を求める新規制が導入されており、ルイジアナでも同様の懸念が持ち上がる可能性がある。発表を受けてEntergyの株価は7%急騰した。 環境目標との矛盾 Tom’s Hardware などメディアは、MetaがかねてAIの環境コミットメントを掲げながら大規模な化石燃料インフラへの依存を深めていることを批判的に取り上げている。再生可能エネルギー設備の併設計画はあるものの、主力となる10基のガス火力発電所は長期にわたりCO₂を排出し続ける。AIワークロードの電力消費が指数関数的に増大する中、テック大手が環境目標と現実のエネルギー調達の間でどう折り合いをつけるかは、業界全体の課題として注目が集まっている。

March 31, 2026

Mistral AIがパリ近郊データセンター建設へ8億3000万ドルの債務調達——欧州AI自立を加速

概要 フランスのAIスタートアップMistral AIは2026年3月30日、パリ近郊に自社所有のデータセンターを新設するため、8億3000万ドルの資金を債務(デット・ファイナンシング)で調達したことを発表した。同施設は2026年第2四半期中の稼働開始を目指しており、欧州発のAI企業が米国クラウド大手への依存を脱し、独自の計算インフラを確保する動きとして注目を集めている。 エクイティ(株式)ではなく債務による調達を選択したことは、既存株主の持分希薄化を避けながら大規模資本を手当てする戦略的判断とみられる。Mistral AIはこれまでに複数回の資金調達ラウンドを経て評価額を急伸させており、今回の債務調達はその財務基盤の上に立ったものだ。 欧州AI自立への戦略的意義 Mistral AIの自社データセンター建設は、欧州のAIエコシステムにとって象徴的な意味を持つ。現状、多くのAIモデルのトレーニングおよび推論はMicrosoft Azure、Google Cloud、CoreWeaveなどクラウドプロバイダーに依存している。自前のGPUクラスターを含む施設をフランス国内に構えることで、Mistral AIはデータ主権・セキュリティ要件の厳しい欧州企業や政府機関向けに、より確実なコンプライアンスを保証できるようになる。 欧州連合(EU)がAI規制(AI Act)を施行し、データの越境移転に厳しい目を向ける中、地理的に欧州域内で閉じた計算インフラの存在は競争上の優位性となりうる。Mistralが標榜してきた「欧州のAIチャンピオン」としての立場を、インフラ面でも裏打ちする投資といえる。 今後の展望 2026年Q2の稼働を目指すスケジュールは積極的だが、エヌビディア製GPUをはじめとする計算資源の確保が鍵となる。施設が稼働すれば、Mistralは主力モデルのトレーニング・推論コストの内製化を進め、長期的なコスト構造の改善が期待できる。また、欧州の機密性の高いエンタープライズ案件や政府契約の獲得においても、自社インフラの存在はセールスポイントになるだろう。OpenAIやAnthropicなど米国勢との競争が激化する中、Mistral AIはインフラの自立を梃子に欧州市場での地歩を固める戦略を描いている。

March 31, 2026

AmazonがAI健康エージェント「Health AI」を一般公開、2億人超のPrime会員に無料バーチャル診療も提供

概要 Amazonは2026年3月、AI健康エージェント「Health AI」をAmazon.comおよびAmazonアプリ上で一般公開した。Health AIは2026年1月にOne Medicalアプリ内で先行提供されていたが、今回の拡大により米国のすべての顧客がアクセス可能となる。PrimeメンバーやOne Medical会員でなくても利用でき、一般的な健康相談から医療記録に基づくパーソナライズされたアドバイスまで、24時間365日対応する。 対象となる米国Prime会員には、導入特典としてOne Medicalの医師とのダイレクトメッセージによるバーチャル診療が最大5回無料で提供される。対応する症状は風邪・インフルエンザ、アレルギー、逆流性食道炎、結膜炎、尿路感染症など30種類以上で、最大145ドル相当のサービスとなる。Amazon Familyの家族メンバーも同様の特典を受けられる。Prime会員以外は1回29ドルの従量課金か、年間199ドル(Prime会員は99ドル)のOne Medicalメンバーシップで利用可能だ。 マルチエージェントアーキテクチャ Health AIの技術基盤にはAmazon Bedrockが採用されており、タスクに応じて異なる基盤モデルを使い分けるマルチエージェントシステムとして構築されている。Amazon Health ServicesのCTO Prakash Bulusu氏によれば、患者と対話するコアエージェント、特定のワークフローを処理するサブエージェント、会話をリアルタイムで監視する監査エージェント、そしてシステム全体を監視する見張り役のセンチネルエージェントが連携して動作する。臨床的に不確実な場面では人間の医療提供者へのエスカレーションパスが確保されており、デプロイ前には合成データを用いた臨床安全性・緊急対応・コンプライアンスに関する広範な評価が実施された。 具体的な機能としては、州の医療情報交換ネットワークを通じて患者の診断歴・処方薬・病歴にアクセスし、検査結果の解釈、処方箋の更新管理、医療予約の手配、さらにはAmazon.comでの関連製品の提案まで行う。すべてのやり取りはHIPAA準拠の環境で暗号化され、One MedicalやAmazon Pharmacyの保護対象医療情報がAmazonの一般商品マーケティングや広告に使用されることはないとしている。 競争環境と今後の展望 消費者向けAIヘルスケア市場は急速に過熱しており、OpenAIの「ChatGPT Health」、Anthropicの「Claude for Healthcare」、Microsoftの「Copilot Health」などが相次いで登場している。Forresterのアナリスト Arielle Trzcinski氏は「AIを活用したヘルスケア体験の普及は先行者利益の競争であり、ビッグテックが勝っている」と指摘する。Amazonの強みは、2023年に39億ドルで買収したOne Medicalとの統合により、AIによるガイダンスから実際の臨床ケアまでをプラットフォーム内で完結できる点にある。 今後Amazonは、Rush大学、Cleveland Clinic、Montefiore、Hackensack Meridian Healthなどとの提携を通じて、プライマリケアから専門医への紹介までシームレスにつなぐ専門ケア連携の拡充を計画している。栄養、運動、継続的な健康管理に関するAI支援ガイダンスの追加も予定されており、Amazon Health ServiceのCTO Bulusu氏は「初めて、本当にパーソナルな健康エージェントをポケットに入れられるようになった。24時間利用可能で、実際の医療提供者がバックアップしている」と語っている。

March 30, 2026

Dapr Agents v1.0正式リリース、耐障害性とセキュリティを備えたエンタープライズ向けAIエージェント基盤が本番対応へ

概要 2026年3月23日、KubeCon + CloudNativeCon Europe(アムステルダム)にてCloud Native Computing Foundation(CNCF)とDiagridは、Dapr Agents v1.0の一般提供(GA)を発表した。Dapr AgentsはNVIDIAのRoberto Rodriguezを起点に始まったOSSプロジェクトで、約1年間・20回以上のリリースを経て今回の正式版に到達した。PyPIでの月間ダウンロード数は8,000件を超え、日次では1,000件を上回る日も多い。 従来のAIエージェントフレームワークの多くは「ロジック」に特化しており、クラッシュ時の復旧・状態管理・セキュリティといったインフラ面の課題を開発者やOpsチームが個別に解決する必要があった。Dapr Agents v1.0はこの問題を、実績あるDaprのクラウドネイティブAPIをそのまま活用することで解決する。すべてのエージェント実行がDapr Workflowの耐久的ワークフローとして動き、プロセスが停止しても寸分たがわず再開できる設計になっている。 主な技術的特徴 Dapr Agents v1.0の中核は**耐久性実行(Durable Execution)**だ。エージェントへの入力・中間ステップ・ツール呼び出し・判断結果がすべて外部ステートストアに永続化され、Podの再起動やノード障害が発生しても自動でリカバリされる。ステートストアはDaprがサポートする25以上のデータベース(Redis、PostgreSQL、Azure Cosmos DBなど)から選択でき、クラウド・オンプレを問わない。 セキュリティ面ではSPIFFEベースのワークロードアイデンティティを採用し、すべてのエージェント間通信を暗号学的に検証可能な証明書で保護する。従来の静的APIキーや共有クレデンシャルに頼るフレームワークと異なり、細粒度の認可・委譲の追跡・ポリシー施行が標準で利用できる。LLMプロバイダーとの連携はDaprのConversation APIを経由するため、OpenAI・Azure OpenAI・NVIDIA・Hugging Faceなどへの切り替えをコード変更なしで実現できる。 マルチエージェント面では、固定パターンの決定論的オーケストレーションと、エージェントが実行時に他のエージェントを動的に発見・起動する自律オーケストレーションの双方をサポートする。各エージェントはAgent Registryに自動登録され、運用可視性も確保される。さらに**Model Context Protocol(MCP)**との統合により、stdio・SSE・HTTP経由でのツール動的発見と呼び出しにも対応した。オブザーバビリティはOpenTelemetry計装を標準で内蔵し、エージェント・ツール・LLM呼び出しを横断するトレースをW3Cコンテキスト伝播で記録する。 実際の本番事例 KubeCon Europe 2026ではZEISS Vision Careがキーノートを行い、Dapr Agentsを用いた光学パラメータの文書データ抽出ワークフローを紹介する。また、欧州の大手物流企業がオンプレミス環境でDapr Agentsを採用し、倉庫管理業務の自動化・リスク注文の検出・欠品予測・タスク最適化を実現してコスト削減に成功したことも明かされた。 CNCFのCTOであるChris Aniszczyk氏は「Dapr Agents v1.0はクラウドネイティブガードレール—状態管理と安全な通信—を提供し、スケール時の信頼性ある本番システムを可能にする」と述べた。DaprメンテナーのMark Fussell氏は「多くのエージェントフレームワークはロジックだけに注目するが、Dapr Agentsは障害・タイムアウト・クラッシュを乗り越えてエージェントを安定稼働させるインフラを提供する」とコメントしている。 今後の展望 pip install dapr-agents で即座に導入でき、GitHubのクイックスタートやDiagrid UniversityでのハンズオンコンテンツでDapr Agentsを体験できる。Diagrid Catalyst Cloudでは10分以内に最初のエージェントを本番相当のクラウドへデプロイすることも可能だ。v1.0ではDurableAgentなどコアAPIが安定化しており、後方互換性を維持した継続的な進化が約束されている。エンタープライズAIを実験段階から本番稼働へ移行させるための基盤として、エコシステムの拡大が期待される。

March 30, 2026

GitHub Copilot、Gemini 3.1 ProをJetBrains・Xcode・Eclipseに拡大展開し旧モデルを非推奨に

Gemini 3.1 Proの対応IDE拡大 GitHubは2026年3月23日、GitHub Copilotで利用可能なGemini 3.1 Proモデルの対応プラットフォームを大幅に拡大したことを発表した。これまでVisual Studio Code、Visual Studio、GitHub.com、GitHub Mobileで利用可能だったGemini 3.1 Proが、新たにJetBrains IDE、Xcode、Eclipseでもパブリックプレビューとして提供開始された。これにより、主要な開発環境のほぼ全てでGemini 3.1 Proを選択できるようになった。 Gemini 3.1 Proは、Copilot Chatのモデルピッカーからエージェント、質問、編集の各モードで利用できる。対象となるサブスクリプションはCopilot Enterprise、Copilot Business、Copilot Pro、Copilot Pro+の各プランで、組織での利用にはCopilot BusinessおよびEnterpriseの管理者がCopilot設定からGemini 3.1 Proポリシーを有効化する必要がある。 Gemini 3 Proの非推奨化 この対応IDE拡大に続き、3月26日にはGemini 3 Proが全てのCopilotエクスペリエンスから非推奨となったことが発表された。ユーザーは後継となるGemini 3.1 Proへの移行が推奨されており、Chat、インライン編集、エージェントモード、コード補完など全ての機能でGemini 3.1 Proが利用可能となっている。非推奨モデルの削除にユーザー側での操作は不要だが、ワークフローやインテグレーションでモデルを指定している場合はサポート対象のモデルへの更新が求められる。 マルチモデル戦略の進展 今回の動きは、GitHub Copilotが複数のAIモデルを選択肢として提供するマルチモデル戦略をさらに推進していることを示している。ユーザーはタスクや好みに応じてモデルを切り替えられる柔軟性を持ち、GoogleのGeminiシリーズもその選択肢の一つとして主要IDE全体で利用可能となった。Enterprise利用者で懸念がある場合はアカウントマネージャーへの相談が案内されており、フィードバックはGitHub Communityのディスカッションを通じて受け付けている。

March 30, 2026

Google、リアルタイム音声・映像モデル「Gemini 3.1 Flash Live」を開発者向けに公開 — 90以上の言語に対応し低レイテンシを実現

概要 Googleは2026年3月26日、リアルタイムのマルチモーダル音声・映像モデル「Gemini 3.1 Flash Live」を開発者向けに公開した。Google AI StudioのLive APIを通じてプレビュー利用が可能で、音声・映像・ツール呼び出しを低レイテンシで処理できるのが特徴だ。Googleはこれを同社の「最高品質のオーディオ・音声モデル」と位置付けており、Gemini Liveにとって「過去最大のアップグレード」としている。 このモデルは、リアルタイムの会話型AIエージェント構築を主なターゲットとしており、カスタマーサービス、アクセシビリティツール、インタラクティブなAI体験など、即時応答が求められるアプリケーションでの活用が想定されている。 音声処理と会話能力の向上 Gemini 3.1 Flash Liveは前世代の2.5 Flash Native Audioと比較して、複数の面で大幅な改善を実現している。音声処理においては、ピッチやペースといった音響的なニュアンスの認識が強化され、バックグラウンドノイズのフィルタリング性能が大幅に向上した。交通音やテレビの音声といった環境音から人間の発話をより正確に識別できるようになっている。 会話能力の面では、90以上の言語でのリアルタイムマルチモーダルインタラクションに対応し、「不自然な間」を減らしたより高速なレスポンスを実現した。会話のコンテキストを従来の2倍の長さにわたって追跡できるようになり、回答の長さやトーンを会話の文脈に応じて動的に調整する機能も備えている。 ツール統合とエージェント機能 開発者にとって特に注目すべきは、外部ツールとの統合能力の強化だ。ライブ会話中に外部ツールをトリガーして情報を取得・提供する能力が大幅に改善されており、AIエージェントがリアルタイムの対話の中でAPIを呼び出したり、外部データソースにアクセスしたりすることが容易になった。また、複雑なシステムインストラクションへの準拠性が向上し、予期しない会話の展開においても運用上のガードレールを維持する能力が改善されている。 展開と今後の見通し Gemini 3.1 Flash Liveは現在、Google AI StudioのLive APIを通じてプレビューとして利用可能なほか、AndroidおよびiOS向けのGemini Liveアプリにも順次展開される。さらに、Search Liveが200以上の国と地域に対応言語・地域を拡大してグローバル展開される。リアルタイムAIエージェントの実用化が加速する兆しを見せている。

March 30, 2026

LiteLLMにサプライチェーン攻撃、Trivy CI/CDの侵害を経由しPyPIパッケージにバックドア埋め込み

事件の概要 2026年3月24日、攻撃グループ「TeamPCP」がAIエージェント向けLLMプロキシライブラリ「LiteLLM」のPyPIパッケージにバックドアを埋め込む攻撃が発覚した。LiteLLMは複数の大規模言語モデルを統一的なインターフェースで切り替えられるライブラリで、月間約9,500万ダウンロードを誇る人気パッケージだ。攻撃者はLiteLLMのCI/CDパイプラインで使用されていたセキュリティスキャナー「Trivy」の侵害を足がかりにして、悪意あるバージョン1.82.7および1.82.8をPyPIに公開した。悪意あるパッケージは10:39 UTCから16:00 UTC(約5時間20分)の間にPyPI上で公開されており、バージョンを固定せずにインストールしたユーザーが影響を受けた可能性がある。FutureSearchの研究者Callum McMahon氏が自身のマシンでペイロードを実行してしまったことで異常に気づき、コミュニティに警告を発したのが発見のきっかけとなった。 攻撃の技術的詳細 攻撃は3段階の巧妙な構成で行われた。バージョン1.82.7ではlitellm/proxy/proxy_server.pyに悪意あるコードが埋め込まれ、モジュールのインポート時に実行される仕組みだった。さらに攻撃をエスカレートさせたバージョン1.82.8では、litellm_init.pthファイルがパッケージのルートに追加され、LiteLLMをインポートしなくてもPython起動時に自動的にマルウェアが実行されるようになっていた。 マルウェアのペイロードは以下の3つのコンポーネントで構成されていた。第1に、SSHキー、クラウドプロバイダー(AWS、GCP、Azure)の認証情報、Kubernetesシークレット、暗号通貨ウォレット、.envファイルなどを標的とする認証情報ハーベスター。第2に、クラスタノードに特権PodをデプロイするKubernetes横展開ツールキット。第3に、50分ごとにcheckmarx[.]zone/rawからコマンドを取得する永続的なsystemdバックドア(sysmon.service)だ。窃取されたデータは暗号化・圧縮されてtpcp.tar.gzにまとめられ、models.litellm[.]cloud(LiteLLMとは無関係の不正ドメイン)へHTTPS POSTで送信されていた。 TeamPCPの広範な攻撃キャンペーン 今回の攻撃は孤立した事件ではなく、TeamPCPによる大規模なサプライチェーン攻撃キャンペーンの一環だ。時系列を追うと、3月1日に最初のサプライチェーン攻撃が公表され、3月19日にAqua SecurityのTrivyセキュリティスキャナーが侵害、3月23日にはCheckMarxのVS Code拡張機能やGitHub Actionsが侵害された。TeamPCPはGitHub Actions、Docker Hub、npm、Open VSX、PyPIの5つのエコシステムにまたがって攻撃を展開しており、侵害した各環境の認証情報を次の標的への踏み台にするという連鎖的な手法を用いている。npmパッケージにPythonバックドアや自己伝播型ワームを埋め込んだ事例や、イランに位置するターゲットに対してKubernetesノードやローカルマシンのワイパーマルウェアを展開した事例も報告されている。 対応と推奨される対策 LiteLLMチームは悪意あるパッケージをPyPIから削除し、認証情報のローテーションを実施するとともに、Google Mandiantにフォレンジック調査を依頼した。v1.78.0からv1.82.6までの全リリースについてGitコミットとの整合性を検証し、これらのバージョンの安全性が確認されている。なお、公式のDockerプロキシイメージは依存関係がバージョン固定されていたため影響を受けなかった。 影響を受けた可能性のあるユーザーに対しては、すべてのシークレット(APIキー、データベースパスワード、SSHキー、トークン)のローテーション、site-packages内のlitellm_init.pthの有無の確認と削除、Kubernetesクラスタにおける不正なPodの確認、models.litellm[.]cloudやcheckmarx[.]zoneへの通信ログの調査、CI/CDパイプラインでのTrivy/KICS使用の監査、そしてLiteLLMをv1.82.6以前にピン留めすることが推奨されている。LLMライブラリはAPIキーや環境変数など機密性の高い設定データにアクセスすることが多いため、今回の攻撃はAI/MLサプライチェーンの脆弱性を浮き彫りにしたといえる。

March 30, 2026

Mistral AIが40億パラメータのオープンウェイトTTSモデル「Voxtral TTS」を公開、ElevenLabsを超える自然さを主張

概要 フランスのAIスタートアップMistral AIがオーディオ生成分野に初めて参入し、テキスト読み上げモデル「Voxtral TTS」をリリースした。40億パラメータを持つこのモデルは、同社の小型言語モデルMinistral 3Bをバックボーンとしたトランスフォーマーベースの自己回帰フローマッチング設計を採用している。人間による評価では、ElevenLabs Flash v2.5を上回る自然さを達成しつつ同等のTime-to-First-Audioを維持していると同社は主張しており、ElevenLabs v3との品質面での同等性も確認されたという。さらに感情制御(エモーションステアリング)機能も備えており、ElevenLabs、Deepgram、OpenAIなどの音声AI企業と直接競合する形となる。 アーキテクチャと技術仕様 Voxtral TTSの内部構造は3つの主要コンポーネントで構成される。34億パラメータのトランスフォーマーデコーダバックボーン、3.9億パラメータのフローマッチング音響トランスフォーマー、そして3億パラメータのニューラルオーディオコーデック(対称型エンコーダ・デコーダ)だ。処理は12.5Hzのフレームレートで行われ、独自開発のコーデックはセマンティックVQ(語彙数8192)とアコースティックFSQ(36次元、21レベル)を使用する。 一般的な入力(10秒の音声サンプル、500文字)に対するモデルレイテンシは70ミリ秒で、リアルタイムファクターは約9.7倍を実現している。ネイティブで最大2分の音声生成をサポートし、API経由ではスマートインターリービングによりさらに長いコンテンツにも対応する。 多言語対応と音声カスタマイズ 対応言語は英語、フランス語、ドイツ語、スペイン語、オランダ語、ポルトガル語、イタリア語、ヒンディー語、アラビア語の9言語。最短3秒のリファレンス音声サンプルからカスタムボイスへの適応が可能で、微妙なアクセント、抑揚、イントネーション、さらには言いよどみまでを再現できるとされる。特筆すべきは、明示的な訓練なしにゼロショットで言語間の音声適応が可能な点だ。例えばフランス語のアクセント特性を持つ英語音声の生成など、クロスリンガルなボイスクローニングが実現できる。 ライセンスと市場への影響 モデルの重みはHugging FaceでCC BY-NC 4.0ライセンスのもと公開されており、複数のリファレンスボイスも同梱される。API利用料は1,000文字あたり0.016ドルに設定されている。Voxtral TTSはMistral AIの音声パイプラインにおける最後のピースでもあり、音声認識のVoxtral、推論を担う大規模言語モデル群と合わせて、音声AIのエンドツーエンドスタックが完成した形だ。オープンウェイトでの公開によって音声合成分野におけるオープンソースの選択肢が大きく広がり、セールスやカスタマーエンゲージメント向けのボイスエージェント構築への活用が期待される。

March 30, 2026

Nvidia DGX Station GB300が注文受付開始、748GBメモリ・20PFLOPSのデスクトップAIスーパーコンピュータ

概要 NvidiaはGTC 2026において、GB300 Grace Blackwell Ultraデスクトップスーパーチップを搭載した新型DGX Stationを正式に発表し、注文受付を開始した。昨年のGB200 Blackwell搭載モデルに続くアップグレードモデルで、デスクトップ筐体ながらデータセンター級のAI演算性能を実現する。72コアのGrace CPUとBlackwell Ultra GPUを900GB/sのNVLink C2Cインターフェースで接続し、最大20ペタフロップスのAI演算性能を提供する。1兆パラメータ規模のモデルの開発・実行にも対応可能で、研究者やデータサイエンティスト向けのオフィス設置型AIワークステーションとして位置づけられている。 スペックと技術的特徴 DGX Station GB300は、合計748GBのオンボードメモリを搭載する。内訳はCPU側が496GBのLPDDR5X(帯域幅396GB/s)、GPU側が252GBのHBM3eメモリ(帯域幅7.1TB/s)となっている。なお、GPU側のHBM3eメモリ容量は当初2025年に発表された仕様(288GB、帯域幅8TB/s)から減少しており、8スタック中7スタックを有効化したB300チップが使用されているとみられる。 新たにNVFP4精度フォーマットに対応し、NVFP4演算性能は前世代Blackwell比で50%向上している。NVFP4はFP8に近い精度を維持しながらメモリフットプリントをFP8比1.8倍、FP16比3.5倍削減できるため、大規模モデルの効率的な推論・学習が可能となる。ネットワーク接続にはConnectX-8 SuperNICを採用し、2つのQSFP112ポートで最大800Gb/sの通信速度をサポートする。PCIe Gen5 x16スロットやRTX PRO Blackwellグラフィックスカードのサポートも備え、2台のDGX Stationを接続してスケールアウトする構成にも対応する。システム全体のTDPは1,600Wとなっている。 価格と販売体制 Nvidia自体は公式価格を公表していないが、MSI XpertStation WS300がCDWで96,995.99ドルで掲載されており、市場価格は約10万〜12.5万ドルの範囲とみられる。前世代のDGX Stationが上位構成で約15万ドルだったことを考えると、性能向上に対して価格は抑えられている。今回Nvidiaはファウンダーズエディションの販売を行わず、CPU・GPU統合済みのマザーボードをパートナーに供給する方式を採用している。Asus、Dell、Gigabyte、MSI、Supermicro、HPの各社から注文が可能で、今後数ヶ月以内に出荷が開始される予定だ。

March 30, 2026

OpenAI、動画生成AI「Sora」を段階的に終了へ――アプリは4月、APIは9月に閉鎖

Soraの終了と段階的な閉鎖スケジュール OpenAIは、2025年10月にリリースした動画生成AIサービス「Sora」を段階的に終了すると発表した。Webアプリおよびモバイルアプリは2026年4月26日に、APIは同年9月24日にそれぞれ閉鎖される。ユーザーはそれぞれの期限までに、Soraライブラリから生成済みの動画や画像をダウンロードする必要がある。期限後のデータは永久に削除される予定で、最終的なエクスポート期間についてはメール通知が行われる可能性があるとされている。 Soraは動画・音声生成モデル「Sora 2」を基盤とし、TikTokに着想を得たAI生成コンテンツのプラットフォームとして設計された。技術的には高い評価を受けたものの、継続的なユーザーエンゲージメントの獲得には至らなかった。リリースからわずか半年足らずでの撤退となる。 戦略転換とDisney提携の消滅 今回の決定の背景には、OpenAIの大きな戦略転換がある。同社は計算リソースをコーディングツールやエンタープライズ向け製品に集中させる方針を打ち出しており、競合のAnthropicと同様の戦略的方向性を取る形となった。ChatGPTを中心とした包括的な「スーパーアプリ」の開発に注力し、消費者向けクリエイティブツールよりもエンタープライズ顧客とコーディング機能を重視する姿勢を鮮明にしている。 一方、Soraの終了発表を受けて、Disneyが計画していた約10億ドル規模のOpenAIへの投資が撤回されたと報じられている。クリエイティブワークフローへの統合を見据えた提携だったとみられるが、Soraの終了によりその前提が崩れた形だ。 研究としての継続 なお、Sora自体は商用サービスとしては終了するものの、ワールドモデルや「物理経済の自動化」に焦点を当てた研究プロジェクトとしては継続されるとのことだ。消費者向けプロダクトとしては失敗に終わったが、動画生成AIの基盤研究としては今後も発展が期待される。

March 30, 2026