Después de ajustar un modelo, podría querer probar su calidad a través de la API de Completaciones de Chat o el servicio Evaluaciones.
Una implementación de nivel de desarrollador le permite implementar el nuevo modelo sin la tarifa de hospedaje por hora en la que incurren las implementaciones estándar o globales. Los únicos cargos que se generan son por cada token. Consulte la página de precios para obtener los precios más actualizados.
Importante
El nivel de desarrollador no ofrece ningún Acuerdo de Nivel de Servicio de disponibilidad y ninguna garantía de residencia de datos. Si necesita un Acuerdo de Nivel de Servicio o una residencia de datos, elija un tipo de implementación alternativo para probar el modelo.
Las implementaciones de nivel de desarrollador tienen una duración fija de 24 horas. Obtenga más información sobre el ciclo de vida de la implementación.
Implementación del modelo optimizado
Para implementar el candidato del modelo, seleccione el modelo optimizado para implementar y, a continuación, seleccione Implementar.
Se abre el cuadro de diálogo Implementar modelo. En el cuadro de diálogo, escriba el nombre de la implementación y, a continuación, seleccione Desarrollador en la lista desplegable Tipo de implementación. Seleccione Crear para iniciar la implementación del modelo personalizado.
Puede supervisar el progreso de la nueva implementación en el panel Implementaciones del portal de Microsoft Foundry.
import json
import os
import requests
token = os.getenv("<TOKEN>")
subscription = "<YOUR_SUBSCRIPTION_ID>"
resource_group = "<YOUR_RESOURCE_GROUP_NAME>"
resource_name = "<YOUR_AZURE_OPENAI_RESOURCE_NAME>"
model_deployment_name = "gpt41-mini-candidate-01" # custom deployment name that you will use to reference the model when making inference calls.
deploy_params = {'api-version': "2025-07-01-preview"}
deploy_headers = {'Authorization': 'Bearer {}'.format(token), 'Content-Type': 'application/json'}
deploy_data = {
"sku": {"name": "developertier", "capacity": 50},
"properties": {
"model": {
"format": "OpenAI",
"name": <"fine_tuned_model">, #retrieve this value from the previous call, it will look like gpt41-mini-candidate-01.ft-b044a9d3cf9c4228b5d393567f693b83
"version": "1"
}
}
}
deploy_data = json.dumps(deploy_data)
request_url = f'https://management.azure.com/subscriptions/{subscription}/resourceGroups/{resource_group}/providers/Microsoft.CognitiveServices/accounts/{resource_name}/deployments/{model_deployment_name}'
print('Creating a new deployment...')
r = requests.put(request_url, params=deploy_params, headers=deploy_headers, data=deploy_data)
print(r)
print(r.reason)
print(r.json())
| variable |
Definición |
| token |
Hay varias maneras de generar un token de autorización. El método más sencillo para las pruebas iniciales es iniciar Cloud Shell desde Azure Portal. A continuación, ejecute az account get-access-token. Puede usar este token como token de autorización temporal para las pruebas de API. Se recomienda su almacenamiento en una nueva variable de entorno. |
| suscripción |
Identificador de suscripción para el recurso de Azure OpenAI asociado. |
| grupo_de_recursos |
Nombre del grupo de recursos para el recurso de Azure OpenAI. |
| nombre_del_recurso |
El nombre del recurso de Azure OpenAI. |
| nombre_de_despliegue_del_modelo |
Nombre personalizado para la nueva implementación de modelos ajustados. Este es el nombre al que se hará referencia en el código al efectuar llamadas de finalización de chat. |
| modelo afinado |
Recupere este valor del trabajo de ajuste de resultados en el paso anterior. Tendrá el siguiente aspecto: gpt41-mini-candidate-01.ft-b044a9d3cf9c4228b5d393567f693b83. Tendrá que agregar ese valor al archivo JSON deploy_data. Como alternativa, también puede implementar un punto de control, pasando el id. del punto de control que aparecerá en el formato ftchkpt-e559c011ecc04fc68eaa339d8227d02d |
En el ejemplo siguiente se muestra cómo usar la API REST para crear una implementación de modelos para el modelo personalizado. La API de REST genera un nombre para la implementación del modelo personalizado.
curl -X POST "https://management.azure.com/subscriptions/<SUBSCRIPTION>/resourceGroups/<RESOURCE_GROUP>/providers/Microsoft.CognitiveServices/accounts/<RESOURCE_NAME>/deployments/<MODEL_DEPLOYMENT_NAME>?api-version=2025-07-01-preview" \
-H "Authorization: Bearer <TOKEN>" \
-H "Content-Type: application/json" \
-d '{
"sku": {"name": "developertier", "capacity": 50},
"properties": {
"model": {
"format": "OpenAI",
"name": "<FINE_TUNED_MODEL>",
"version": "1"
}
}
}'
| variable |
Definición |
| token |
Hay varias maneras de generar un token de autorización. El método más sencillo para las pruebas iniciales es iniciar Cloud Shell desde Azure Portal. A continuación, ejecute az account get-access-token. Puede usar este token como token de autorización temporal para las pruebas de API. Se recomienda su almacenamiento en una nueva variable de entorno. |
| suscripción |
Identificador de suscripción para el recurso de Azure OpenAI asociado. |
| grupo_de_recursos |
Nombre del grupo de recursos para el recurso de Azure OpenAI. |
| nombre_del_recurso |
El nombre del recurso de Azure OpenAI. |
| nombre_de_despliegue_del_modelo |
Nombre personalizado para la nueva implementación de modelos ajustados. Este es el nombre al que se hará referencia en el código al efectuar llamadas de finalización de chat. |
| modelo afinado |
Recupere este valor del trabajo de ajuste de resultados en el paso anterior. Tendrá el siguiente aspecto: gpt-4.1-mini-2025-04-14.ft-b044a9d3cf9c4228b5d393567f693b83. Tendrá que agregar ese valor al archivo JSON deploy_data. Como alternativa, también puede implementar un punto de control, pasando el id. del punto de control que aparecerá en el formato ftchkpt-e559c011ecc04fc68eaa339d8227d02d |
Implementación de un modelo con la CLI de Azure
En el siguiente ejemplo se muestra cómo usar la CLI de Azure para implementar el modelo personalizado. Con la CLI de Azure, debe especificar un nombre para la implementación del modelo personalizado. Para obtener más información sobre cómo usar la CLI de Azure para implementar modelos personalizados, consulte az cognitiveservices account deployment.
Para ejecutar este comando de la CLI de Azure en una ventana de la consola, debe reemplazar los siguientes <marcadores de posición> por los valores correspondientes para el modelo personalizado:
| Marcador de posición |
Importancia |
|
<YOUR_AZURE_SUBSCRIPTION> |
Nombre o id. de la suscripción de Azure. |
|
<YOUR_RESOURCE_GROUP> |
El nombre del grupo de recursos de Azure. |
|
<YOUR_RESOURCE_NAME> |
El nombre del recurso de Azure OpenAI. |
|
<YOUR_DEPLOYMENT_NAME> |
El nombre que quiere usar para la implementación del modelo. |
|
<YOUR_FINE_TUNED_MODEL_ID> |
El nombre del modelo personalizado. |
az cognitiveservices account deployment create
--resource-group <YOUR_RESOURCE_GROUP>
--name <YOUR_RESOURCE_NAME>
--deployment-name <YOUR_DEPLOYMENT_NAME>
--model-name <YOUR_FINE_TUNED_MODEL_ID>
--model-version "1"
--model-format OpenAI
--sku-capacity "50"
--sku-name "Developer"
Uso del modelo optimizado implementado
Cuando su modelo personalizado se implemente, puede usarlo como cualquier otro modelo implementado. Puede usar el área de juegos en el portal de Foundry para experimentar con la nueva implementación. Puede seguir usando los mismos parámetros con el modelo personalizado, como temperature y max_tokens, como puede hacer con otros modelos implementados.
También puede usar el servicio Evaluations para crear y ejecutar evaluaciones del modelo en el candidato del modelo implementado, así como otras versiones del modelo.
import os
from openai import OpenAI
client = OpenAI(
base_url = "https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/",
api_key=os.getenv("AZURE_OPENAI_API_KEY"),
)
response = client.chat.completions.create(
model="gpt41-mini-candidate-01", # model = "Custom deployment name you chose for your fine-tuning model"
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Does Azure OpenAI support customer managed keys?"},
{"role": "assistant", "content": "Yes, customer managed keys are supported by Azure OpenAI."},
{"role": "user", "content": "Do other Foundry Tools support this too?"}
]
)
print(response.choices[0].message.content)
curl $AZURE_OPENAI_ENDPOINT/openai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "api-key: $AZURE_OPENAI_API_KEY" \
-d '"model": "YOUR_MODEL_DEPLOYMENT_NAME", {"messages":[{"role": "system", "content": "You are a helpful assistant."},{"role": "user", "content": "Does Azure OpenAI support customer managed keys?"},{"role": "assistant", "content": "Yes, customer managed keys are supported by Azure OpenAI."},{"role": "user", "content": "Do other Foundry Tools support this too?"}]}'
Limpieza de la implementación
Las implementaciones de los desarrolladores se eliminarán automáticamente independientemente de la actividad. Cada implementación tiene una duración fija de 24 horas después de la cual está sujeta a eliminación. La eliminación de una implementación no elimina ni afecta al modelo personalizado subyacente y el modelo personalizado se puede volver a implementar en cualquier momento.
Para eliminar una implementación manualmente, puede usar el portal de Foundry o usar la CLI de Azure.
Para usar Deployments - Delete REST API envía un HTTP DELETE al recurso de implementación. Al igual que con la creación de implementaciones, debe incluir los parámetros siguientes:
- Identificador de suscripción de Azure
- Nombre del grupo de recursos de Azure
- El nombre del recurso de Azure OpenAI
- Nombre de la implementación que se va a eliminar
A continuación se muestra el ejemplo de la API REST para eliminar una implementación:
curl -X DELETE "https://management.azure.com/subscriptions/<SUBSCRIPTION>/resourceGroups/<RESOURCE_GROUP>/providers/Microsoft.CognitiveServices/accounts/<RESOURCE_NAME>/deployments/<MODEL_DEPLOYMENT_NAME>?api-version=2025-07-01-preview" \
-H "Authorization: Bearer <TOKEN>"
Pasos siguientes