Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Nota:
Este documento hace referencia al portal de Microsoft Foundry (clásico).
🔄 Cambie a la documentación de Microsoft Foundry (nueva) si usa el nuevo portal.
Nota:
Este documento hace referencia al portal de Microsoft Foundry (nuevo).
En este artículo se muestra una selección de Modelos de Microsoft Foundry de asociados y comunidad junto con sus funcionalidades, tipos de implementación y regiones de disponibilidad, excepto los modelos en desuso y heredados. La mayoría de los Azure AI Foundry Models provienen de los asociados y la comunidad. Las organizaciones de terceros de confianza, los asociados, los laboratorios de investigación y los colaboradores de la comunidad proporcionan estos modelos.
En función del tipo de proyecto que use en Microsoft Foundry, verá una selección diferente de modelos. Para obtener más información sobre los atributos de Foundry Models de los socios y la comunidad, consulte Explorar Foundry Models.
Nota:
Para obtener una lista de los modelos vendidos directamente por Azure, consulte Foundry Models vendido directamente por Azure.
Para obtener una lista de los modelos de Azure OpenAI compatibles con el servicio Foundry Agent, consulte Modelos compatibles con el servicio del agente.
Anthropic
El producto insignia de Anthropic es Claude, un modelo de inteligencia artificial de frontera de confianza para empresas líderes y millones de usuarios en todo el mundo para tareas complejas, como codificación, agentes, análisis financiero, investigación y tareas de oficina. Claude ofrece un rendimiento excepcional al tiempo que mantiene altos estándares de seguridad.
Para trabajar con modelos de Claude en Foundry, consulte Implementación y uso de modelos de Claude en Microsoft Foundry.
Los modelos de Claude también se admiten para su uso en el Foundry Agent Service.
Importante
Para usar modelos de Claude en Microsoft Foundry, necesita una suscripción de Azure de pago con una cuenta de facturación en un país o región donde Anthropic ofrece los modelos para su compra. Los siguientes tipos de suscripción de pago están actualmente restringidos: Proveedores de soluciones en la nube (CSP), cuentas patrocinadas con créditos de Azure, cuentas empresariales en Singapur y Corea del Sur y cuentas de Microsoft.
Para obtener una lista de errores comunes relacionados con la suscripción, consulte Mensajes y soluciones de error comunes.
| Modelo | Tipo | Capabilities | Tipo de proyecto |
|---|---|---|---|
|
claude-haiku-4-5 (Versión preliminar) |
Messages |
-
Entrada: texto e imagen - Salida: texto (64 000 tokens máximos) - Ventana de contexto: 200 000 - Idiomas: en, fr, ar, zh, ja, ko, es, hi - Llamada a herramientas: Sí (búsqueda de archivos y ejecución de código) - Formatos de respuesta: Texto, JSON |
Foundry, basado en hub |
|
claude-opus-4-1 (Versión preliminar) |
Messages |
-
Entrada: texto, imagen y código - Salida: texto (32 000 tokens máximos) - Ventana de contexto: 200 000 - Idiomas: en, fr, ar, zh, ja, ko, es, hi - Llamada a herramientas: Sí (búsqueda de archivos y ejecución de código) - Formatos de respuesta: Texto, JSON |
Foundry, basado en hub |
|
claude-sonnet-4-5 (Versión preliminar) |
Messages |
-
Entrada: texto, imagen y código - Salida: texto (máximo 64 000 tokens) - Ventana de contexto: 200 000 - Idiomas: en, fr, ar, zh, ja, ko, es, hi - Llamada a herramientas: Sí (búsqueda de archivos y ejecución de código) - Formatos de respuesta: Texto, JSON |
Foundry, basado en hub |
|
claude-opus-4-5 (Versión preliminar) |
Messages |
-
Entrada: texto e imagen, y código - Salida: texto (64 000 tokens máximos) - Ventana de contexto: 200 000 - Idiomas: en, fr, ar, zh, ja, ko, es, hi - Llamada a herramientas: Sí (búsqueda de archivos y ejecución de código) - Formatos de respuesta: Texto, JSON |
Foundry, basado en hub |
| Modelo | Tipo | Capabilities |
|---|---|---|
claude-haiku-4-5 (Versión preliminar) |
Messages |
-
Entrada: texto e imagen - Salida: texto (64 000 tokens máximos) - Ventana de contexto: 200 000 - Idiomas: en, fr, ar, zh, ja, ko, es, hi - Llamada a herramientas: Sí (búsqueda de archivos y ejecución de código) - Formatos de respuesta: Texto, JSON |
claude-opus-4-1 (Versión preliminar) |
Messages |
-
Entrada: texto, imagen y código - Salida: texto (32 000 tokens máximos) - Ventana de contexto: 200 000 - Idiomas: en, fr, ar, zh, ja, ko, es, hi - Llamada a herramientas: Sí (búsqueda de archivos y ejecución de código) - Formatos de respuesta: Texto, JSON |
claude-sonnet-4-5 (Versión preliminar) |
Messages |
-
Entrada: texto, imagen y código - Salida: texto (máximo 64 000 tokens) - Ventana de contexto: 200 000 - Idiomas: en, fr, ar, zh, ja, ko, es, hi - Llamada a herramientas: Sí (búsqueda de archivos y ejecución de código) - Formatos de respuesta: Texto, JSON |
claude-opus-4-5 (Versión preliminar) |
Messages |
-
Entrada: texto e imagen, y código - Salida: texto (64 000 tokens máximos) - Ventana de contexto: 200 000 - Idiomas: en, fr, ar, zh, ja, ko, es, hi - Llamada a herramientas: Sí (búsqueda de archivos y ejecución de código) - Formatos de respuesta: Texto, JSON |
Consulte la colección de modelos antrópicos en el portal de Foundry.
Cohere
La familia de modelos de Cohere incluye varios modelos optimizados para distintos casos de uso, como finalizaciones de chat e incrustaciones. Los modelos de Cohere están optimizados para diversos casos de uso que incluyen el razonamiento, el resumen y la respuesta a preguntas.
| Modelo | Tipo | Capabilities | Tipo de proyecto |
|---|---|---|---|
| Cohere-command-r-plus-08-2024 | chat-completion |
-
Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Idiomas: en, fr, es, it, de, pt-br, ja, ko, zh-cn y ar - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Foundry, basado en hub |
| Cohere-command-r-08-2024 | chat-completion |
-
Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Idiomas: en, fr, es, it, de, pt-br, ja, ko, zh-cn y ar - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Foundry, basado en hub |
| Cohere-embed-v3-english | embeddings |
-
Entrada: texto e imágenes (512 tokens) - Salida: Vector (1024 dimensiones) - Idiomas: en |
Foundry, basado en hub |
| Cohere-embed-v3-multilingual | embeddings |
-
Entrada: Texto (512 tokens) - Salida: Vector (1024 dimensiones) - Idiomas: en, fr, es, it, de, pt-br, ja, ko, zh-cn y ar |
Foundry, basado en hub |
| Modelo | Tipo | Capabilities |
|---|---|---|
Cohere-command-r-plus-08-2024 |
chat-completion |
-
Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Idiomas: en, fr, es, it, de, pt-br, ja, ko, zh-cn y ar - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Cohere-command-r-08-2024 |
chat-completion |
-
Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Idiomas: en, fr, es, it, de, pt-br, ja, ko, zh-cn y ar - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Cohere-embed-v3-english |
embeddings |
-
Entrada: texto e imágenes (512 tokens) - Salida: Vector (1024 dimensiones) - Idiomas: en |
Cohere-embed-v3-multilingual |
embeddings |
-
Entrada: Texto (512 tokens) - Salida: Vector (1024 dimensiones) - Idiomas: en, fr, es, it, de, pt-br, ja, ko, zh-cn y ar |
Reclasificación de Cohere
| Modelo | Tipo | Capabilities | Referencia de API | Tipo de proyecto |
|---|---|---|---|---|
| Cohere-rerank-v3.5 | rerank text classification |
-
Entrada: texto - Salida: texto - Idiomas: Inglés, chino, francés, alemán, indonesio, italiano, portugués, ruso, español, árabe, neerlandés, hindi, japonés, vietnamita |
API v2/rerank de Cohere | Basado en concentrador |
Para obtener más información sobre los precios de los modelos de rerank de Cohere, consulte Precios de los modelos de rerank de Cohere.
Consulte la colección de modelos de Cohere en el portal de Foundry.
Core42
Core42 incorpora modelos de lenguaje grandes bilingües autorregresivos para árabe e inglés, que ofrecen capacidades de vanguardia en árabe.
| Modelo | Tipo | Capabilities | Tipo de proyecto |
|---|---|---|---|
| jais-30b-chat | chat-completion |
-
Entrada: Texto (8192 tokens) - Salida: (4096 tokens) - Idiomas: en y ar - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Foundry, basado en hub |
| Modelo | Tipo | Capabilities |
|---|---|---|
jais-30b-chat |
chat-completion |
-
Entrada: Texto (8192 tokens) - Salida: (4096 tokens) - Idiomas: en y ar - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Consulte esta colección de modelos en el portal de Foundry.
Meta
Los modelos y herramientas de Meta Llama son una colección de modelos de razonamiento de imágenes y texto de IA generativa previamente entrenados y optimizados. El intervalo de modelos de Meta escalados para incluir:
- Pequeños modelos de lenguaje (SLM) como Base 1B y 3B y modelos de instrucción para la inferencia perimetral y en el dispositivo
- Modelos de lenguaje grande de tamaño medio (LLM) como Base 7B, 8B y 70B y modelos de instrucción
- Modelos de alto rendimiento como Meta Llama 3.1-405B Instruct para casos de uso de generación y destilación de datos sintéticos.
| Modelo | Tipo | Capabilities | Tipo de proyecto |
|---|---|---|---|
| Llama-3.2-11B-Vision-Instruct | chat-completion |
-
Entrada: Texto e imagen (128 000 tokens) - Salida: (8192 tokens) - Idiomas: en - Llamada a herramientas: No - Formatos de respuesta: Texto |
Foundry, basado en hub |
| Llama-3.2-90B-Vision-Instruct | chat-completion |
-
Entrada: Texto e imagen (128 000 tokens) - Salida: (8192 tokens) - Idiomas: en - Llamada a herramientas: No - Formatos de respuesta: Texto |
Foundry, basado en hub |
| Meta-Llama-3.1-405B-Instruct | chat-completion |
-
Entrada: Texto (131 072 tokens) - Salida: (8192 tokens) - Idiomas: en, de, fr, it, pt, hi, es y th - Llamada a herramientas: No - Formatos de respuesta: Texto |
Foundry, basado en hub |
| Meta-Llama-3.1-8B-Instruct | chat-completion |
-
Entrada: Texto (131 072 tokens) - Salida: (8192 tokens) - Idiomas: en, de, fr, it, pt, hi, es y th - Llamada a herramientas: No - Formatos de respuesta: Texto |
Foundry, basado en hub |
| Llama-4-Scout-17B-16E-Instruct | chat-completion |
-
Entrada: Texto e imagen (128 000 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Foundry, basado en hub |
| Modelo | Tipo | Capabilities |
|---|---|---|
Llama-3.2-11B-Vision-Instruct |
chat-completion |
-
Entrada: Texto e imagen (128 000 tokens) - Salida: (8192 tokens) - Idiomas: en - Llamada a herramientas: No - Formatos de respuesta: Texto |
Llama-3.2-90B-Vision-Instruct |
chat-completion |
-
Entrada: Texto e imagen (128 000 tokens) - Salida: (8192 tokens) - Idiomas: en - Llamada a herramientas: No - Formatos de respuesta: Texto |
Meta-Llama-3.1-405B-Instruct |
chat-completion |
-
Entrada: Texto (131 072 tokens) - Salida: (8192 tokens) - Idiomas: en, de, fr, it, pt, hi, es y th - Llamada a herramientas: No - Formatos de respuesta: Texto |
Meta-Llama-3.1-8B-Instruct |
chat-completion |
-
Entrada: Texto (131 072 tokens) - Salida: (8192 tokens) - Idiomas: en, de, fr, it, pt, hi, es y th - Llamada a herramientas: No - Formatos de respuesta: Texto |
Llama-4-Scout-17B-16E-Instruct |
chat-completion |
-
Entrada: Texto e imagen (128 000 tokens) - Salida: Texto (8192 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto |
Consulte esta colección de modelos en el portal de Foundry. También puede encontrar varios modelos Meta disponibles como modelos vendidos directamente por Azure.
Microsoft
Los modelos de Microsoft incluyen varios grupos de modelos, como los modelos MAI, los modelos Phi, los modelos de inteligencia artificial sanitaria, etc.
| Modelo | Tipo | Capabilities | Tipo de proyecto |
|---|---|---|---|
| Phi-4-mini-instruct | chat-completion |
-
Entrada: Texto (131 072 tokens) - Salida: (4096 tokens) - Idiomas: ar, zh, cs, da, nl, en, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr y uk - Llamada a herramientas: No - Formatos de respuesta: Texto |
Foundry, basado en hub |
| Phi-4-multimodal-instruct | chat-completion |
-
Entrada: texto, imágenes y audio (131 072 tokens) - Salida: (4096 tokens) - Idiomas: ar, zh, cs, da, nl, en, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr y uk - Llamada a herramientas: No - Formatos de respuesta: Texto |
Foundry, basado en hub |
| Phi-4 | chat-completion |
-
Entrada: Texto (16384 tokens) - Salida: (16 384 tokens) - Languages: en, ar, bn, cs, da, de, el, es, fa, fi, fr, gu, ha, he, hi, hu, id, it, ja, jv, kn, ko, ml, mr, nl, no, or, pa, pl, ps, pt, ro, ru, sv, sw, ta, te, th, tl, tr, uk, ur, vi, yo, y zh - Llamada a herramientas: No - Formatos de respuesta: Texto |
Foundry, basado en hub |
| Phi-4-reasoning | finalización del chat con contenido de razonamiento |
-
Entrada: Texto (32768 tokens) - Salida: texto (32 768 tokens) - Idiomas: en - Llamada a herramientas: No - Formatos de respuesta: Texto |
Foundry, basado en hub |
| Phi-4-mini-reasoning | finalización del chat con contenido de razonamiento |
-
Entrada: Texto (128000 tokens) - Salida: texto (128 000 tokens) - Idiomas: en - Llamada a herramientas: No - Formatos de respuesta: Texto |
Foundry, basado en hub |
| Modelo | Tipo | Capabilities |
|---|---|---|
Phi-4-mini-instruct |
chat-completion |
-
Entrada: Texto (131 072 tokens) - Salida: (4096 tokens) - Idiomas: ar, zh, cs, da, nl, en, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr y uk - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-4-multimodal-instruct |
chat-completion |
-
Entrada: texto, imágenes y audio (131 072 tokens) - Salida: (4096 tokens) - Idiomas: ar, zh, cs, da, nl, en, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr y uk - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-4 |
chat-completion |
-
Entrada: Texto (16384 tokens) - Salida: (16 384 tokens) - Languages: en, ar, bn, cs, da, de, el, es, fa, fi, fr, gu, ha, he, hi, hu, id, it, ja, jv, kn, ko, ml, mr, nl, no, or, pa, pl, ps, pt, ro, ru, sv, sw, ta, te, th, tl, tr, uk, ur, vi, yo, y zh - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-4-reasoning |
finalización del chat con contenido de razonamiento |
-
Entrada: Texto (32768 tokens) - Salida: texto (32 768 tokens) - Idiomas: en - Llamada a herramientas: No - Formatos de respuesta: Texto |
Phi-4-mini-reasoning |
finalización del chat con contenido de razonamiento |
-
Entrada: Texto (128000 tokens) - Salida: texto (128 000 tokens) - Idiomas: en - Llamada a herramientas: No - Formatos de respuesta: Texto |
Consulte la colección de modelos de Microsoft en el portal de Foundry. Los modelos de Microsoft también están disponibles como modelos vendidos directamente por Azure.
Mistral IA
Mistral AI ofrece dos categorías de modelos: modelos premium como Mistral Large 2411 y Ministrol 3B, y modelos abiertos como Mistral Nemo.
| Modelo | Tipo | Capabilities | Tipo de proyecto |
|---|---|---|---|
| Codestral-2501 | chat-completion |
-
Entrada: Texto (262144 tokens) - Salida: texto (4.096 tokens) - Idiomas: en - Llamada a herramientas: No - Formatos de respuesta: Texto |
Foundry, basado en hub |
| Ministral-3B | chat-completion |
-
Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Idiomas: fr, de, es, it y en - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Foundry, basado en hub |
| Mistral-Nemo | chat-completion |
-
Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Idiomas: en, fr, de, es, it, zh, ja, ko, pt, nl y pl - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Foundry, basado en hub |
| Mistral-small-2503 | chat-completion |
-
Entrada: Texto (32768 tokens) - Salida: texto (4.096 tokens) - Idiomas: fr, de, es, it y en - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Foundry, basado en hub |
| Mistral-medium-2505 | chat-completion |
-
Entrada: texto (128 000 tokens), imagen - Salida: texto (128 000 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto, JSON |
Foundry, basado en hub |
| Mistral-Large-2411 | chat-completion |
-
Entrada: Texto (128000 tokens) - Salida: texto (4.096 tokens) - Idiomas: en, fr, de, es, it, zh, ja, ko, pt, nl y pl - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Foundry, basado en hub |
| Mistral-OCR-2503 | imagen a texto |
-
Entrada: imágenes o páginas PDF (1000 páginas, archivo PDF máximo de 50 MB) - Salida: texto - Llamada a herramientas: No - Formatos de respuesta: Text, JSON, Markdown |
Basado en concentrador |
| mistralai-Mistral-7B-Instruct-v01 | chat-completion |
-
Entrada: texto - Salida: texto - Idiomas: en - Formatos de respuesta: Texto |
Basado en concentrador |
| mistralai-Mistral-7B-Instruct-v0-2 | chat-completion |
-
Entrada: texto - Salida: texto - Idiomas: en - Formatos de respuesta: Texto |
Basado en concentrador |
| mistralai-Mixtral-8x7B-Instruct-v01 | chat-completion |
-
Entrada: texto - Salida: texto - Idiomas: en - Formatos de respuesta: Texto |
Basado en concentrador |
| mistralai-Mixtral-8x22B-Instruct-v0-1 | chat-completion |
-
Entrada: texto (64 000 tokens) - Salida: texto (4.096 tokens) - Idiomas: fr, it, de, es, en - Formatos de respuesta: Texto |
Basado en concentrador |
| Modelo | Tipo | Capabilities |
|---|---|---|
Codestral-2501 |
chat-completion |
-
Entrada: Texto (262144 tokens) - Salida: texto (4.096 tokens) - Idiomas: en - Llamada a herramientas: No - Formatos de respuesta: Texto |
Ministral-3B |
chat-completion |
-
Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Idiomas: fr, de, es, it y en - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Mistral-Nemo |
chat-completion |
-
Entrada: Texto (131 072 tokens) - Salida: texto (4.096 tokens) - Idiomas: en, fr, de, es, it, zh, ja, ko, pt, nl y pl - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Mistral-small-2503 |
chat-completion |
-
Entrada: Texto (32768 tokens) - Salida: texto (4.096 tokens) - Idiomas: fr, de, es, it y en - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Mistral-medium-2505 |
chat-completion |
-
Entrada: texto (128 000 tokens), imagen - Salida: texto (128 000 tokens) - Llamada a herramientas: No - Formatos de respuesta: Texto, JSON |
Mistral-Large-2411 |
chat-completion |
-
Entrada: Texto (128000 tokens) - Salida: texto (4.096 tokens) - Idiomas: en, fr, de, es, it, zh, ja, ko, pt, nl y pl - Activación de herramientas: Sí - Formatos de respuesta: Texto, JSON |
Consulte esta colección de modelos en el portal de Foundry. Los modelos de Mistral también están disponibles como modelos vendidos directamente por Azure.
Nixtla
TimeGEN-1 de Nixtla es un modelo de previsión preentrenada generativa y detección de anomalías para los datos de series temporales. TimeGEN-1 genera previsiones precisas para nuevas series temporales sin entrenamiento, usando solo valores históricos y covariantes exógenos como entradas.
Para realizar la inferencia, TimeGEN-1 requiere que use la API de inferencia personalizada de Nixtla.
| Modelo | Tipo | Capabilities | API de inferencia | Tipo de proyecto |
|---|---|---|---|---|
| TimeGEN-1 | Forecasting |
-
Entrada: Datos de serie temporal como JSON o dataframes (con compatibilidad con la entrada multivariante) - Salida: Datos de serie temporal como JSON - Llamada a herramientas: No - Formatos de respuesta: JSON |
Cliente de pronóstico para interactuar con la API de Nixtla | Basado en concentrador |
Para obtener más información sobre los precios de los modelos de Nixtla, consulte Nixtla.
Datos NTT
tsuzumi es un transformador optimizado para lenguaje autorregresivo. Las versiones optimizadas usan el ajuste fino supervisado (SFT). tsuzumi controla tanto el japonés como el inglés con alta eficiencia.
| Modelo | Tipo | Capabilities | Tipo de proyecto |
|---|---|---|---|
| tsuzumi-7b | chat-completion |
-
Entrada: Texto (8192 tokens) - Salida: Texto (8192 tokens) - Idiomas: en y jp - Llamada a herramientas: No - Formatos de respuesta: Texto |
Basado en concentrador |
Stability AI
La colección Stability AI de modelos de generación de imágenes incluye Stable Image Core, Stable Image Ultra y Stable Diffusion 3.5 Large. Stable Diffusion 3.5 Large acepta la entrada de imagen y texto.
| Modelo | Tipo | Capabilities | Tipo de proyecto |
|---|---|---|---|
| Stable Diffusion 3.5 Grande | Generación de imágenes |
-
Entrada: texto e imagen (1000 tokens y 1 imagen) - Salida: Una imagen - Llamada a herramientas: No - Formatos de respuesta: Imagen (PNG y JPG) |
Foundry, basado en hub |
| Núcleo de imagen estable | Generación de imágenes |
-
Entrada: texto (1,000 tokens) - Salida: Una imagen - Llamada a herramientas: No - Formatos de respuesta: Imagen (PNG y JPG) |
Foundry, basado en hub |
| Imagen estable Ultra | Generación de imágenes |
-
Entrada: texto (1,000 tokens) - Salida: Una imagen - Llamada a herramientas: No - Formatos de respuesta: Imagen (PNG y JPG) |
Foundry, basado en hub |
| Modelo | Tipo | Capabilities |
|---|---|---|
Stable Diffusion 3.5 Large |
Generación de imágenes |
-
Entrada: texto e imagen (1000 tokens y 1 imagen) - Salida: Una imagen - Llamada a herramientas: No - Formatos de respuesta: Imagen (PNG y JPG) |
Stable Image Core |
Generación de imágenes |
-
Entrada: texto (1,000 tokens) - Salida: Una imagen - Llamada a herramientas: No - Formatos de respuesta: Imagen (PNG y JPG) |
Stable Image Ultra |
Generación de imágenes |
-
Entrada: texto (1,000 tokens) - Salida: Una imagen - Llamada a herramientas: No - Formatos de respuesta: Imagen (PNG y JPG) |
Consulte esta colección de modelos en el portal de Foundry.
Modelos abiertos y personalizados
El catálogo de modelos ofrece una mayor selección de modelos de una gama más amplia de proveedores. Para estos modelos, no puede usar la opción para la implementación estándar en recursos de Microsoft Foundry, donde se proporcionan modelos como API. En su lugar, para implementar estos modelos, es posible que tenga que hospedarlos en la infraestructura, crear un centro de inteligencia artificial y proporcionar la cuota de proceso subyacente para hospedar los modelos.
Además, estos modelos pueden estar protegidos por ip o acceso abierto. En ambos casos, tiene que desplegarlos en las ofertas de computación administradas en Foundry. Para empezar, consulte Cómo hacerlo: Implementación en la computación administrada.