Amazon Web Services(AWS)は米国時間12月1~5日、年次イベント「re:Invent 2025」をネバダ州ラスベガスで開催している。
3日に行われた基調講演では、エージェンティックAI担当バイスプレジデントであるSwami Sivasubramanian氏が、AIエージェントを概念実証(PoC)から本番環境に対応するために必要な新サービスについて発表した。
AWS エージェンティックAI担当バイスプレジデントのSwami Sivasubramanian氏
Sivasubramanian氏は冒頭、参加者に「初めてプログラムの構築に成功した時のことを思い出してほしい」と語りかけた。自身にとってそれは、学生時代に初めて関数電卓のプログラムを書いた時だったという。学校にある1台のコンピューターを使い、試行錯誤を重ねながら構築した関数電卓のプログラムが正しく動作した時に、「非常に難しい問題を解決し、持っていなかったものを構築する能力を手に入れたことに誇りを感じた」と述べ、「私は“構築する自由”を手に入れたのだ」と語る。
世界中の開発者たちは、AIエージェントの助けを借りて、あの時と同じ“自由な感覚”を経験していると話す。AIエージェントによって、プログラミング言語の構文を覚える必要がなくなり、迅速な構築を可能にした。
そして、ユーザーは自然言語で達成したいことを記述できるようになり、AIエージェントは目標を記述して計画を生成し、実行できるようになった。「構築する自由の民主化は、アイデアからインパクトへの移行速度を大きく加速させている」
同氏はエージェントについて、AIを活用してユーザー定義の入力を洞察し、計画し、適応させ、人間やほかのシステムに代わってタスクを完了する自律型のソフトウェアシステムだと説明する。AIエージェントは、常に学習し、一連の実行可能なステップで、時間の経過とともに効率性を向上させる。
エージェントの定義
AIエージェントは、推論や学習、実行の役割を持つ「MODEL」、エージェントの個性や能力である「CODE」、外部のAPIやデータベースに接続する「TOOLS」で構築されている。
これらのAIコンポーネントを組み合わせることは、労働集約的で脆弱(ぜいじゃく)性をはらんだプロセスだった。開発者は依然として深い知識が必要で、複雑な意思決定ツリーをハードコーディングする必要があった。しかし、モデルが洗練され、真の推論能力を得るにつれて、モデルは自分で推論し、自動的に必要なオーケストレーションを追加するようになった。
同氏は、「AIエージェントの構築方法もシンプルであるべきだ」とし、エージェントが自律的に行動を計画し、ツールを創造的に活用し、予期しない状況にリアルタイムで適応する。開発者は、モデル、コード、ツールというコンポーネントを定義するだけでよくなるのだという。
AWSはこうした背景を踏まえ、大規模言語モデル(LLM)を活用したAIエージェントを容易に構築・実装するためのオープンソースのソフトウェア開発キット(SDK)「STRANDS AGENTS SDK」を開発した。これは、AIエージェントの精度とコードを改善しながら、エージェントシステム全体で数千行のコード削減に寄与しているという。
5月にプレビュー版を提供して以来、新しいモデルプロバイダーのサポートやAPIサポート、マルチエージェントフローなど、より堅固で拡張性の高いエージェント構築に役立つ機能を追加してきた。
今回ここに、「TypeScript」を追加した。プログラム内で定義されたデータ型が許容する範囲外の操作や変換を受けないようにサポートするほか、async/await、モダンなJavaScript/TypeScript パターンをサポートし、開発者は幅広い環境でAIエージェントを構築できる。
また、エッジデバイスのサポートも開始する。自動車やゲームなど、レイテンシーと接続性に厳しい要求があるエッジデバイス上で自律型AIエージェントを実行できるようになった。
Amazon Bedrock
AIエージェントのPoCは多く行われているが、多くが本番環境で利用できるように設計されていない。同氏は、「このギャップを埋め、PoCの段階から抜け出す必要がある」と指摘する。
PoCから本番環境への移行に必要なことは、AIエージェントを大規模かつ迅速にデプロイする能力だという。「Amazon Bedrock AgentCore」は、AIエージェントを安全かつ大規模に構築、展開、運用するためのプラットフォームで、本番環境への移行を支援する。
Amazon Bedrock AgentCoreのタイムライン
同サービスのアップデートは初日の基調講演でも発表があったが、Sivasubramanian氏はさらに「AgentCore Memory episodic functionality」の提供を発表した。
AIエージェントは、会話の即時的な流れを扱う短期記憶と、セッションを超えた洞察を捉える長期記憶があるが、ユーザー行動の背景にあるコンテキストと理由が欠けていた。
AgentCore Memoryは、エピソードの長期記憶に対応し、一つの対話が中断した時にそれを再開したり、過去のやりとりに基づいてカスタマイズされた応答を可能にしたりする。
エージェントの構築が容易になり、導入が進むにつれて効率が重要になる。既製モデルは複雑なプロンプトやマルチステップ推論、予期せぬ状況に対応できるが、常に最も効率的であるとは限らない。コストやレイテンシー、応答の速度、規模、俊敏性などが重要になる。
多くのAIエージェントは、コードの記述や検索結果の分析などの日常的な操作に時間を費やしており、定義済みのワークフローを実行している。そこで、事前に操作が分かっていれば、専用のモデルをカスタマイズでき、長いプロンプトが不要になる。重要なのは、モデルのカスタマイズをどれだけ迅速に開始できるかだ。
手段としては、教師ありファインチューニングやモデル蒸留(Model Distillation)、強化学習がある。強化学習は非常に強力であるが、実装するには難しい場合がある。また、強化学習を使用してモデルをカスタマイズするために多額の費用をかけ、その後ワークロードパターンが変化すると、このプロセスをやり直さなければならなくなる。
この課題を解決するため、Amazon Bedrockで強化学習ファインチューニング(Reinforcement Fine-tuning:RFT)の利用ができるようになった。
RFTは、深い機械学習の専門知識や大規模な教師ありデータを必要とせず、良い結果に報酬を与えることで学習を進める。そのため、データが少ないケースや主観的なタスクに有効で、開発者はベースモデルやデータセット、報酬関数を指定するだけで、自動ワークフローがエンドツーエンドで学習を実行する。
RFTは、ベースモデルと比較して平均66%の精度向上を実現し、より小規模で高速かつコスト効率の高いモデルで優れた結果を獲得できるという。対象となるモデルは「Amazon Nova」から開始し、今後オープンモデルのサポートも開始する。

