アイレット株式会社 DX開発事業部です!
DX開発事業部ではお客様のDX実現のために、生成AIのキャッチアップに日々取り組んでおります🔥
本記事では日々アップデートされる生成AI周りのニュースを週刊でお届けします🚀


今週は AWS から Amazon Bedrock AgentCore Runtime のシェルコマンド実行機能・AG-UI プロトコル対応、Amazon Bedrock に MiniMax M2.5・GLM 5 の新モデル追加、AWS Security Agent のクォータ管理対応とペネトレーションテストレポート機能追加と、多数のアップデートが発表されました。Google では NVIDIA GTC 2026 にてフラクショナル G4 VM や Vera Rubin 対応など AI インフラ強化、BigQuery Studio の Gemini アシスタントがコンテキスト対応分析パートナーへ進化、国内 120 社の生成 AI 活用事例集も刷新されました。また Personal Intelligence が AI Mode・Gemini アプリ・Chrome 内 Gemini へ拡張され、Google Labs から UI 設計ツール「Stitch」の Vibe Design 機能が登場しました。OpenAI からはコーディング・サブエージェント向けに最適化された小型モデル GPT-5.4 mini と nano が発表されています。アイレットからは Vertex AI(Gemini 2.5 Pro/Flash)を活用した cloudpack カスタマーサポート AI チャットボットの導入事例と、LLM Observability 導入支援サービスの開始が発表されました🔥

AWS

Amazon Bedrock AgentCore Runtime がシェルコマンド実行をサポート

Amazon Bedrock AgentCore Runtime に新しい InvokeAgentRuntimeCommand API が追加されました。実行中の AgentCore Runtime セッション内で直接シェルコマンドを実行できる機能で、コンテナ内にカスタム実行ロジックを構築する必要がなくなります。

HTTP/2 経由でコマンドの出力をリアルタイムにストリーミング取得でき、終了コードの確認も可能です。エージェント呼び出しとの並行実行もサポートしており、複雑なエージェントワークフローの構築がより柔軟になります。

  • HTTP/2 経由でコマンド出力をリアルタイムストリーミング
  • 終了コードの取得によるコマンド実行結果の確認
  • エージェント呼び出しとの並行実行をサポート
  • 14 の AWS リージョンで利用可能

Amazon Bedrock AgentCore Runtime が AG-UI プロトコルに対応

Amazon Bedrock AgentCore Runtime が「Agent-User Interaction(AG-UI)プロトコル」に対応しました。AI エージェントをユーザーフェーシングアプリケーションへ統合するための、オープンでイベントベースの通信プロトコルです。

テキスト・推論ステップ・ツール実行結果をフロントエンドへリアルタイムストリーミングでき、プログレスバーやダッシュボードなど UI の動的更新にも対応しています。SSE(Server-Sent Events)と WebSocket の両方をサポートしており、エージェントのアクションを透過的に可視化することが可能です。

  • テキスト・推論ステップ・ツール結果をリアルタイムでフロントエンドへ配信
  • プログレスバーやダッシュボードなど UI の動的状態同期に対応
  • SSE・WebSocket の双方をサポートした双方向通信
  • 14 の AWS リージョンで利用可能

Amazon Bedrock に MiniMax M2.5 と GLM 5 が追加

Amazon Bedrock に 2 つの新しい大規模言語モデルが追加されました。複雑なエージェント処理や高度な推論が求められるエンタープライズ向け AI アプリケーションに対応したモデルです。

GLM 5 は複雑なシステムエンジニアリングと長期的なエージェント処理に最適化されており、マルチステップ推論・数学・高度なコーディング・ツール拡張ワークフローに対応し、長いコンテキスト処理が可能です。MiniMax M2.5 はエージェント駆動型の最先端モデルとして設計され、強化学習によるトークン効率的な推論で主要競合と同等以上のパフォーマンスを実現します。

  • GLM 5:マルチステップ推論・コーディング・ツール拡張ワークフローに対応
  • MiniMax M2.5:強化学習によりトークン効率的な推論を実現
  • 両モデルとも洗練されたエージェントとエンタープライズアプリケーション向け
  • 選定された AWS リージョンで利用可能

AWS Security Agent が AWS Service Quotas に対応

AWS Security Agent が AWS Service Quotas をサポートするようになりました。ペンテストアクション時間や同時実行中のジョブの上限を一元化されたインターフェースから確認・管理できます。

Service Quotas コンソールから直接クォータ増加をリクエストでき、対象となるリクエストは手動介入なしに自動承認されます。セキュリティチームと開発チームが連携してセキュリティプラクティスを強化し、スケーリングを柔軟に管理できるようになります。

  • ペンテストのアクション時間・同時実行数の上限を一元管理
  • Service Quotas コンソールからクォータ増加リクエストが可能
  • 対象リクエストは自動承認で手動介入不要
  • セキュリティチームと開発チームの連携を強化

AWS Security Agent がカスタマイズ可能なペネトレーションテストレポートを生成

AWS Security Agent に、ペネトレーションテスト結果を PDF レポートとしてダウンロードする機能が追加されました。エグゼクティブサマリーから詳細な脆弱性情報まで含んだレポートをチーム間で共有・レビューできます。

リスクレベル・信頼度・検出ステータス・リスクタイプ・タスク状態などの条件でフィルタリングしてレポートをカスタマイズ可能です。これにより、従来は数週間かかっていたペネトレーションテストのプロセスを数時間に短縮できます。

  • エグゼクティブサマリー・テスト範囲・脆弱性情報を含む PDF レポートを生成
  • リスクレベル・信頼度・検出ステータスなどでフィルタリング可能
  • ペネトレーションテストのプロセスを数週間から数時間に短縮
  • PDF 形式でチーム間での共有・レビューが容易

Google

Google Cloud と NVIDIA が GTC 2026 で AI インフラを拡充

NVIDIA GTC 2026 にて、Google Cloud と NVIDIA がパートナーシップを拡大し、エージェント型 AI ワークロード向けの共同エンジニアリングインフラを多数発表しました(2026年3月17日)。

NVIDIA RTX Pro 6000 Blackwell Server Edition 搭載の G4 VM が好調で、General Motors・ElevenLabs・Otto Group などが採用。新たに フラクショナル G4 VM(プレビュー) として 1/2・1/4・1/8 GPU スライスが利用可能になり、ワークロードに応じたコスト最適化が実現します。また 2026年後半には NVIDIA Vera Rubin NVL72 Platform のサポートも予定されています。

ソフトウェア面では NVIDIA Dynamo と GKE Inference Gateway の統合、Vertex AI Model Garden への NVIDIA Nemotron 3 ファミリー追加、Kaggle での Nemotron モデル最適化コンテスト開催なども発表されました。

  • フラクショナル G4 VM により GPU リソースを 1/2・1/4・1/8 単位で利用可能に
  • 2026年後半に NVIDIA Vera Rubin NVL72 を AI Hypercomputer に統合予定
  • NVIDIA Dynamo × GKE Inference Gateway 統合で MoE 推論を効率化
  • 公共機関向け AI スタートアップ アクセラレータープログラムを開始

Gemini が BigQuery Studio Assistant をコンテキスト対応の分析パートナーへ進化

BigQuery Studio の Gemini 搭載アシスタントが大幅に強化され、単なるコードアシスタントからコンテキスト対応の分析パートナーへと進化しました(2026年3月17日)。

3つの主要機能が追加されています。コンテキスト対応の相互運用性では、アクティブなクエリタブを把握し、コードのコピー&ペーストなしに「このクエリを最適化して」と自然言語で依頼可能に。AI オペレーターや連携クエリを含む高度な SQL も生成できます。インテリジェントなリソース検出では Dataplex Universal Catalog を活用し、複数プロジェクトをまたがってデータセット・テーブル・モデルを自然言語で横断検索できます。ジョブ分析とトラブルシューティングでは、スタックしたクエリの原因特定、スケジュールジョブの失敗原因分析、コストの高いクエリの特定などを会話形式で実行可能です。

  • クエリタブのコンテキストを把握し、コピー&ペースト不要で最適化リクエストが可能
  • Dataplex Universal Catalog による自然言語でのデータセット横断検索
  • ジョブ ID を渡すだけで長時間ジョブの原因や修正方法を自動分析
  • 組織のセキュリティポリシーを尊重し、権限のあるリソースのみ返却

Google Personal Intelligence が AI Mode・Gemini・Chrome へ拡張

Google が「Personal Intelligence」機能を、Search 内の AI Mode・Gemini アプリ・Chrome 内 Gemini へ拡張することを発表しました(2026年3月17日)。個別ニーズに合わせた AI 機能を複数のプラットフォームにわたって利用できるようになります。

複数の Google プラットフォーム間での統合により、検索・チャット・ブラウザを通じてシームレスな AI 体験が実現します。まずアメリカ市場での提供拡大が予定されており、ユーザーエンゲージメントのさらなる強化が見込まれます。

  • Search の AI Mode・Gemini アプリ・Chrome 内 Gemini の 3 プラットフォームへ展開
  • 個別ニーズに合わせたパーソナライズされた AI 体験を提供
  • 複数接点での機能提供でシームレスな AI 体験を実現
  • まずアメリカ市場での利用可能性を拡大予定

最新生成 AI 活用事例 120 社を公開 ── AI エージェントの最前線

Google Cloud が国内 120 社の最新導入事例をまとめた「生成 AI 活用事例集」を 2026年3月版に刷新しました(2026年3月18日)。Gemini 3 シリーズや AI エージェントの普及を背景に、業務自動化・効率化の具体的な成果が多数掲載されています。

3月版の新規追加事例では、イオンリテールが衣料品情報登録プロセスを「Gemini Extract System」で半自動化し工数を 90% 削減(4,500 → 450 人時/年)、テレビ朝日が Gemini を最大 60 並列で実行するファクトチェック AI を開発し一次情報取得を 100 時間 → 30 分に短縮、東京電力エナジーパートナーがマルチ AI エージェントシステムでデータ分析期間を 60% 削減(2.5 か月 → 1 か月)するなど、定量的な成果が示されています。

  • IVRy:Gemini 移行で電話自動応答の文脈認識精度を 85% → 97% に向上
  • 伊藤忠商事:商品画像・仕様書から HS コードを特定する AI エージェントを開発
  • ベネッセ:数学問題の AI 質問機能で高 3 模試レベルの正答率を 81% → 95% に向上
  • LegalOn Technologies:ハイブリッドモデルで商談化率 15.1% 向上を実現

Google Labs が AI 対応 UI 設計ツール「Stitch」を進化

Google Labs が提供する UI 設計ツール「Stitch」が「Vibe Design」という新しいデザイン手法を導入し、AI 対応プラットフォームとして進化しました。デザイン専門知識がないユーザーでも高品質な UI を作成・反復・協力して制作できる環境を提供します。

複数ユーザーがリアルタイムで共同作業できる協働機能も搭載しており、デザインプロセスの民主化を実現します。高忠実度の UI 作成を簡素化することで、開発チーム全体でデザイン能力を拡張できる可能性があります。

  • 「Vibe Design」で専門知識なしに高品質な UI を直感的に作成
  • リアルタイム協業機能でチームのデザイン反復サイクルを加速
  • 高忠実度 UI の作成を簡素化しデザインプロセスを民主化
  • デジタルプロダクト開発全体の効率化を実現

OpenAI

GPT-5.4 mini と nano を発表

OpenAI がコーディングとサブエージェント向けに最適化された小型モデル GPT-5.4 miniGPT-5.4 nano を公開しました(2026年3月17日)。GPT-5.4 の強みを受け継ぎながら、高い処理量に対応する高速・効率的なモデルとして設計されています。

GPT-5.4 mini はコーディング・推論・マルチモーダル理解・ツール利用で GPT-5 mini から大幅に性能が向上し、動作速度は 2 倍以上。SWE-Bench Pro(54.4%)や OSWorld-Verified(72.1%)では GPT-5.4 本体に迫るパフォーマンスを示しています。GPT-5.4 nano は速度とコストを最優先した最小・最低コスト版で、分類・データ抽出・ランキングなどシンプルなサブエージェントタスクに最適です。

  • GPT-5.4 mini:API・Codex・ChatGPT で利用可能。入力 $0.75/1M tokens、出力 $4.50/1M tokens
  • GPT-5.4 nano:API のみ。入力 $0.20/1M tokens、出力 $1.25/1M tokens
  • ChatGPT 無料版・Go ユーザーは「Thinking」メニューから GPT-5.4 mini を利用可能
  • Codex ではサブエージェントとして GPT-5.4 mini に処理を委任し、コストを約 1/3 に削減可能

アイレット

cloudpack カスタマーサポートに生成 AI チャットボットを導入

アイレット株式会社がクラウド導入支援サービス「cloudpack」のカスタマーサポート業務効率化を目的に、生成 AI チャットボットを導入した事例を公開しました。夜間・休日の迅速な問い合わせ対応や、属人的な回答品質の課題を AI で解決した取り組みです。

Vertex AI(Gemini 2.5 Pro/Flash)・Cloud Run・BigQuery などの Google Cloud サービスに加え、Zendesk・Datadog LLM Observability を組み合わせた構成で、過去 5 年分の問い合わせナレッジ・AWS 公式ドキュメント・オウンメディアを統合した RAG(検索拡張生成)を構築。365 日 24 時間の自動応答体制を確立し、一次対応業務で最低 20% の工数削減を見込んでいます。

  • Vertex AI(Gemini 2.5 Pro/Flash)・Cloud Run・BigQuery を活用したサーバーレス構成
  • 過去 5 年分の問い合わせナレッジを統合した RAG を構築
  • Zendesk の「30 秒レスポンス制限」をクリアする最適化を実現
  • 感情分析で顧客の温度感を可視化し、365 日 24 時間の自動応答を確立

アイレット、LLM Observability 導入支援サービスを開始

アイレット株式会社が 2026 年 3 月 19 日、大規模言語モデル(LLM)の動作をリアルタイムで可視化・監視する「LLM Observability 導入支援サービス」を開始しました。生成 AI 活用における回答精度の不安定さとコストの不透明さに対応するサービスです。

RAG フレームワーク「Ragas」と Datadog の「LLM Observability」を連携させ、手作業による評価プロセスを自動化。自社運用で月間約 2.6 人日(年間 31.2 人日)の工数削減を実証しており、トークン数・コスト・レイテンシ・エラー率などを多角的に分析し AI モデルの「ブラックボックス化」を防ぎます。

  • Ragas と Datadog LLM Observability を連携し評価プロセスを自動化
  • 月間約 2.6 人日、年間 31.2 人日の工数削減を自社で実証
  • トークン数・コスト・レイテンシ・エラー率を多角的に監視
  • LLM アプリ観測基盤の構築からコンサルティング・改善活動まで支援

次週はどんなニュースがあるでしょうか。お楽しみに✋

🚀 Powered by Claude Code
この記事はAIによって生成されていますが、DX開発事業部の新卒メンバーによってネタ集め、レビュー、修正が行われています。

クラウドと生成AIでの業務改善のご相談はコチラ👇

生成 AI 導入・活用支援サービス|クラウドの活用ならcloudpack
生成 AI 導入・活用支援サービスでは、PoCの実施検証、開発支援はもちろん、本番導入のための教育支援や導入後の内製化支援までワンストップでサポート。お客様の業務課題解決やDX を促進するため、様々な生成 AI のユースケースから、最適なソリューションをご提案いたします。
AI導入をワンストップで支援。開発・運用・セキュリティを統合する「gaipack」|アイレット株式会社
AI開発から既存システムのAI化、セキュリティ強化まで。アイレットの「gaipack」が企業のAI課題をワンストップで解決し、安心のAI活用基盤を実現します。

一緒に働くメンバーを募集しています!