Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Importante
- Foundry Local está disponible en versión preliminar. Las versiones preliminares públicas proporcionan acceso anticipado a las características que se encuentran en la implementación activa.
- Las características, los enfoques y los procesos pueden cambiar o tener funcionalidades limitadas, antes de la disponibilidad general (GA).
Esta guía le guía a través de la configuración de Foundry Local para ejecutar modelos de IA en el dispositivo.
Prerrequisitos
El sistema debe cumplir los siguientes requisitos para ejecutar Foundry Local:
- Sistema operativo: Windows 10 (x64), Windows 11 (x64/ARM), Windows Server 2025, macOS.
- Hardware: mínimo 8 GB de RAM y 3 GB de espacio libre en disco. Se recomienda 16 GB de RAM y 15 GB de espacio libre en disco.
- Red: conexión a Internet para descargar el modelo inicial (opcional para uso sin conexión).
- Aceleración (opcional): GPU NVIDIA (2000 series o versiones posteriores), GPU AMD (serie 6.000 o posterior), AMD NPU, Intel iGPU, Intel NPU (32 GB o más de memoria), Qualcomm Gigabit X Elite (8 GB o más de memoria), Qualcomm NPU o Apple silicon.
Nota:
Las nuevas NPU solo se admiten en sistemas que ejecutan Windows 24H2 o posterior. Si usa una NPU de Intel en Windows, instale el controlador NPU de Intel para habilitar la aceleración de NPU en Foundry Local.
Asegúrese de que tiene derechos de administrador para instalar software.
Sugerencia
Si ve un error de conexión de servicio después de la instalación (por ejemplo, "Error de solicitud al servicio local", ejecute foundry service restart.
Inicio rápido
Empiece a trabajar rápidamente con Foundry Local:
Opción 1: Configuración rápida de la CLI
Instale Foundry Local.
-
Windows: abra un terminal y ejecute el siguiente comando:
winget install Microsoft.FoundryLocal -
macOS: abra un terminal y ejecute el siguiente comando:
Como alternativa, puede descargar el instalador desde el repositorio de GitHub local de Foundry.brew tap microsoft/foundrylocal brew install foundrylocal
-
Windows: abra un terminal y ejecute el siguiente comando:
Ejecute el primer modelo. Abra un terminal y ejecute este comando:
foundry model run qwen2.5-0.5bFoundry Local descarga el modelo, que puede tardar unos minutos en función de la velocidad de Internet y, a continuación, ejecutarlo. Una vez iniciado el modelo, interactúe con él mediante la interfaz de línea de comandos (CLI). Por ejemplo, puede preguntar:
Why is the sky blue?
Opción 2: Descargar proyectos de inicio
Para obtener aprendizaje práctico, descargue uno de nuestros proyectos de inicio que muestran escenarios reales:
- Inicio de la aplicación de chat: cree una interfaz de chat local con compatibilidad con varios modelos.
- Ejemplo de resumen: utilidad de línea de comandos que genera resúmenes de archivos de texto o entrada de texto directa.
- Ejemplo de llamada de función: habilitar y usar la llamada de funciones con Phi-4 mini.
Cada proyecto incluye:
- Instrucciones de configuración paso a paso
- Código fuente completo
- Ejemplos de configuración
- procedimientos recomendados
Sugerencia
Estos proyectos de inicio se alinean con escenarios de las guías paso a paso y proporcionan un valor práctico inmediato.
Sugerencia
Reemplace por qwen2.5-0.5b cualquier nombre de modelo del catálogo (ejecute foundry model list para ver los modelos disponibles). Foundry Local descarga la variante que mejor se adapte a la configuración de hardware y software del sistema. Por ejemplo, si tiene una GPU nvidia, Foundry Local descarga la versión cuDA. Si tiene una NPU de Qualcomm, Foundry Local descarga la variante de NPU. Si no tiene NINGUNA GPU o NPU, Foundry Local descarga la versión de CPU.
Al ejecutar foundry model list por primera vez, verá una barra de progreso de descarga mientras Fundición local descarga los componentes de ejecución del hardware.
Ejecución del modelo de código abierto de OpenAI más reciente
Ejecute el último modelo de código abierto de OpenAI, GPT-OSS-20B, con este comando:
foundry model run gpt-oss-20b
Importante
Requisitos para ejecutar GPT-OSS-20B:
- GPU nvidia con 16 GB de VRAM o más.
- Foundry Local versión 0.6.87 o posterior. Las versiones anteriores no admiten el modelo. Comprueba tu versión con:
foundry --version
Exploración de comandos
La CLI de Foundry organiza los comandos en estas categorías principales:
- Modelo: comandos para administrar y ejecutar modelos.
- Servicio: comandos para administrar el servicio Foundry Local.
- Caché: comandos para administrar la caché del modelo local (modelos descargados en el disco local).
Ver todos los comandos:
foundry --help
Ver comandos de modelo :
foundry model --help
Ver comandos de servicio :
foundry service --help
Ver comandos de caché :
foundry cache --help
Sugerencia
Para más información sobre todos los comandos de la CLI, consulte Referencia de la CLI local de Foundry.
Actualizar Foundry Local
Ejecute el comando del sistema operativo para actualizar Foundry Local.
- Windows: en un terminal, ejecute:
winget upgrade --id Microsoft.FoundryLocal - macOS: en un terminal, ejecute:
brew upgrade foundrylocal
Desinstalación local de Foundry
Para desinstalar Foundry Local, ejecute el comando para el sistema operativo:
-
Windows: abra un terminal y ejecute:
winget uninstall Microsoft.FoundryLocal -
macOS: abra un terminal y ejecute:
brew rm foundrylocal brew untap microsoft/foundrylocal brew cleanup --scrub
Solución de problemas
Problemas de conexión de servicio
Si ve este error al ejecutar foundry model list o un comando similar:
>foundry model list
🟢 Service is Started on http://127.0.0.1:0/, PID 11192!
Exception: Request to local service failed. Uri:http://127.0.0.1:0/foundry/list
The requested address is not valid in its context. (127.0.0.1:0)
Please check service status with 'foundry service status'.
Ejecute este comando para reiniciar el servicio:
foundry service restart
Este comando corrige los casos en los que el servicio se ejecuta, pero no es accesible debido a un problema de enlace de puerto.
