Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Sugerencia
Hay disponible un inicio rápido alternativo del proyecto de Foundry: Inicio rápido: Comience con Microsoft Foundry (proyectos de Foundry).
En este inicio rápido se configura el entorno local para proyectos basados en sitios centrales, se implementa un modelo y se crea un script de chat con seguimiento o evaluable sencillo.
Prerrequisitos
- Suscripción de Azure.
- Proyecto de concentrador existente (o cree uno). Si no es así, considere la posibilidad de usar un inicio rápido del proyecto Foundry.
Configure tu entorno de desarrollo
- Instale los requisitos previos (Python, cli de Azure, inicio de sesión).
- Instale los paquetes:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10
Los distintos tipos de proyecto necesitan versiones específicas de azure-ai-projects. Mantenga cada proyecto en su propio entorno aislado para evitar conflictos.
Implementar un modelo
- Portal: inicie sesión y abra el proyecto hub.
- Catálogo de modelos: seleccione gpt-4o-mini.
- Use este modelo > para aceptar el nombre de implementación predeterminado > implementar.
- Tras tener éxito: abra en el área de juegos para comprobarlo.
Compilación de la aplicación de chat
Cree chat.py con código de ejemplo:
from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential
project_connection_string = "<your-connection-string-goes-here>"
project = AIProjectClient.from_connection_string(
conn_str=project_connection_string, credential=DefaultAzureCredential()
)
chat = project.inference.get_chat_completions_client()
response = chat.complete(
model="gpt-4o-mini",
messages=[
{
"role": "system",
"content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
},
{"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
],
)
print(response.choices[0].message.content)
Inserte la cadena de conexión del proyecto desde la página Resumen del proyecto (copie y sustituya el marcador de posición en el código).
Ejecutar:
python chat.py
Agregar plantillas de aviso
Agregue get_chat_response mediante la plantilla mustache (consulte chat-template.py ejemplo) y, a continuación, invoque con mensajes de usuario o contexto.
Vuelva a ejecutar para ver la respuesta plantilla.
Limpieza de recursos
Elimine la implementación o el proyecto cuando haya terminado para evitar cargos.
Paso siguiente
Contenido relacionado
Inicio rápido: Introducción a Foundry (proyectos de Foundry).