マイクロソフトは5月19日、デバイス上でAIを直接実行できる「Foundry Local」を発表した。AIモデルのローカル実行や、AIを搭載したクロスプラットフォームアプリの開発などに利用可能。OSはWindowsとmacOSに対応する。
主な特徴は以下のとおり。
●ONNX Runtimeを活用したモデルの実行
「ONNXランタイム」はFoundry Localの基盤となる存在で、CPU、NPU、GPUを問わず、最高レベルのパフォーマンスを実現する。
Windowsでは、AMD、Intel、NVIDIA、Qualcommなど複数のハードウェアベンダーとの連携により、統合および最適化を実施。モデルの実行に使用するチップ(CPU/NPU/GPU)を指定することも可能だ。
また、Macでは、Apple siliconのGPUアクセラレーションの利用にも対応している。
●エッジ向けAIモデルをアプリ内で利用可能
DeepSeek R1、Qwen 2.5 Instruct、Phi-4 Reasoning、Mistralなど、エッジ向けに最適化されたAI Foundryモデルをアプリ内で直接使用可能。モデルのダウンロードや読み込みは、Foundry Local Management Serviceが実行時に処理する形だ。
●Foundry CLIとSDKによるシームレスなローカルAIアクセス
Foundry CLIを利用して、ローカルモデル、ツール、エージェントの管理を簡素化する仕組みも用意。
また、Foundry Local SDKとAzure Inference SDKを利用して、アプリに直接モデル管理とローカル推論を統合したり、OpenAI互換のチャット補完APIを使用して、アプリケーションとFoundry Localを統合したりすることも可能だ。
Foundry Localの導入やモデルの実行には、ターミナル上でのコマンド操作が必要。導入方法を含む各種サンプルコードは、同社のウェブサイトで確認できる。
