윈도우 AI 파운드리: PC AI 개발의 새로운 지평을 열다
마이크로소프트가 윈도우 코파일럿 런타임을 넘어 윈도우 AI 파운드리라는 새로운 AI 개발 플랫폼을 선보였습니다. 이는 PC 기반 AI 애플리케이션 개발을 획기적으로 간소화하고, 더 많은 사용자가 AI 기술을 활용할 수 있도록 돕는 것을 목표로 합니다. 애저(Azure)의 통합 AI 파운드리와 유사한 플랫폼으로, 개발자들이 자체적인 윈도우 개발 툴체인에 손쉽게 통합할 수 있도록 지원합니다.
윈도우 AI 파운드리의 주요 특징
윈도우 AI 파운드리는 더 이상 코파일럿+ PC에만 국한되지 않고, CPU, GPU, NPU를 활용한 AI 추론을 지원합니다. 핵심 구성 요소인 파운드리 로컬(Foundry Local)은 사용자 하드웨어에 맞춰 최적의 AI 모델을 다운로드하고 실행하는 역할을 합니다. 이는 윈도우와 맥OS에서 프리뷰 단계로 제공되며, 개발자들이 다양한 PC 환경에서 AI 애플리케이션을 구축할 수 있도록 돕습니다.
파운드리 로컬: AI 모델 관리의 핵심
파운드리 로컬은 사용 가능한 모델을 관리하는 CLI 툴을 제공하며, 마이크로소프트 외의 다른 모델 카탈로그도 지원합니다. 이를 통해 개발자들은 윈도우에서 AI 애플리케이션을 더욱 쉽게 구축하고, 더 많은 사용자들이 다양한 PC에서 이를 사용할 수 있도록 할 수 있습니다. 마이크로소프트는 자체 AI 내장 모델과 함께 제공되는 NPU가 장착된 디바이스를 위해 윈도우 앱 SDK에 부가적인 윈도우 AI API를 제공할 예정입니다.
LoRA 튜닝 및 모델 컨텍스트 프로토콜(MCP) 지원
윈도우 AI 파운드리는 내장된 파이 실리카 모델을 위한 LoRA(저순위 적응) 튜닝 알고리즘을 지원합니다. 비주얼 스튜디오 코드의 AI 툴킷을 사용해 튜닝이 가능하며, 윈도우 스토어의 AI 데브 갤러리를 통해 LoRA 어댑터를 신속하게 추가하고 평가할 수 있습니다. 또한, 윈도우는 AI 작업을 애플리케이션과 통합하기 위해 모델 컨텍스트 프로토콜(MCP)을 도입하여 AI 애플리케이션이 PC에 위치하는 애플리케이션을 에이전트로 활용, 지능형 워크플로우 구축을 지원합니다.
파운드리 로컬 사용 경험
엔비디아 GPU가 장착된 x64 PC와 퀄컴 NPU가 장착된 ARM PC에서 파운드리 로컬을 테스트한 결과, 두 디바이스 모두에서 파이 4 미니 모델을 성공적으로 실행할 수 있었습니다. 파운드리 로컬은 PC 하드웨어를 프로파일링하고 최적의 모델 버전을 자동으로 다운로드하며, 개발자들은 이를 통해 로컬 엔드포인트에서 클라우드 엔드포인트와 동일한 REST 호출을 사용할 수 있습니다.
윈도우 ML: 추론을 위한 공통 프레임워크
윈도우 ML은 새로운 윈도우 AI 개발 플랫폼의 핵심 요소로서, 추론을 처리하는 PC에 가장 적합한 런타임 환경을 사용해 ONNX 모델을 호스팅하고 호출하는 표준적인 방법을 제공합니다. 파운드리 로컬 SDK와 CLI를 통해 애플리케이션에 사용할 수 있는 모델 유형을 확인하고 다운로드하며, 윈도우 ML이 모델의 실행을 보장합니다.
에이전틱 웹과 모델 컨텍스트 프로토콜
마이크로소프트는 모델 컨텍스트 프로토콜(MCP) 기반의 새로운 툴을 통해 애플리케이션과 데이터 소스를 AI 애플리케이션에 쉽게 연결할 수 있도록 지원합니다. 이를 통해 복잡한 임베딩 기반 벡터 인덱스를 구축하지 않고도 AI 애플리케이션을 실제 데이터에 연결할 수 있으며, AI 기반 워크플로우에 속하는 애플리케이션이 에이전트 쿼리와 어느 데이터를 공유할지 제어할 수 있도록 돕습니다.
앱 작업: MCP 서버 추가의 새로운 방법
앱 작업은 특정 애플리케이션 기능을 MCP 서버로 래핑하는 새로운 기능입니다. 앱 작업 정의에는 AI 기반 에이전트를 구축하기 위한 의미체계 설명이 포함되며, 개발자들은 이를 통해 AI 에이전트를 위한 애플리케이션 기능을 더욱 쉽게 노출하고 활용할 수 있습니다. 마이크로소프트는 앱 작업을 테스트하기 위한 앱 작업 플레이그라운드를 제공하며, 개발자들은 이를 통해 애플리케이션 응답을 쉽게 확인할 수 있습니다.