このページの本文へ

マイクロソフト、AIモデルをPCで動かせる「Foundry Local」

2025年05月20日 18時15分更新

文● @sumire_kon

  • この記事をはてなブックマークに追加
  • 本文印刷
Foundry Localの概念図

 マイクロソフトは5月19日、デバイス上でAIを直接実行できる「Foundry Local」を発表した。AIモデルのローカル実行や、AIを搭載したクロスプラットフォームアプリの開発などに利用可能。OSはWindowsとmacOSに対応する。

 主な特徴は以下のとおり。

●ONNX Runtimeを活用したモデルの実行

 「ONNXランタイム」はFoundry Localの基盤となる存在で、CPU、NPU、GPUを問わず、最高レベルのパフォーマンスを実現する。

 Windowsでは、AMD、Intel、NVIDIA、Qualcommなど複数のハードウェアベンダーとの連携により、統合および最適化を実施。モデルの実行に使用するチップ(CPU/NPU/GPU)を指定することも可能だ。

 また、Macでは、Apple siliconのGPUアクセラレーションの利用にも対応している。

●エッジ向けAIモデルをアプリ内で利用可能

 DeepSeek R1、Qwen 2.5 Instruct、Phi-4 Reasoning、Mistralなど、エッジ向けに最適化されたAI Foundryモデルをアプリ内で直接使用可能。モデルのダウンロードや読み込みは、Foundry Local Management Serviceが実行時に処理する形だ。

●Foundry CLIとSDKによるシームレスなローカルAIアクセス

 Foundry CLIを利用して、ローカルモデル、ツール、エージェントの管理を簡素化する仕組みも用意。

 また、Foundry Local SDKとAzure Inference SDKを利用して、アプリに直接モデル管理とローカル推論を統合したり、OpenAI互換のチャット補完APIを使用して、アプリケーションとFoundry Localを統合したりすることも可能だ。

 Foundry Localの導入やモデルの実行には、ターミナル上でのコマンド操作が必要。導入方法を含む各種サンプルコードは、同社のウェブサイトで確認できる。

カテゴリートップへ

ピックアップ