Compartir a través de


Inicio rápido: Comenzar con Microsoft Foundry (proyectos de Hub)

Sugerencia

Hay disponible un inicio rápido alternativo del proyecto de Foundry: Inicio rápido: Comience con Microsoft Foundry (proyectos de Foundry).

En este inicio rápido se configura el entorno local para proyectos basados en sitios centrales, se implementa un modelo y se crea un script de chat con seguimiento o evaluable sencillo.

Prerrequisitos

  • Suscripción de Azure.
  • Proyecto de concentrador existente (o cree uno). Si no es así, considere la posibilidad de usar un inicio rápido del proyecto Foundry.

Configure tu entorno de desarrollo

  1. Instale los requisitos previos (Python, cli de Azure, inicio de sesión).
  2. Instale los paquetes:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10

Los distintos tipos de proyecto necesitan versiones específicas de azure-ai-projects. Mantenga cada proyecto en su propio entorno aislado para evitar conflictos.

Implementar un modelo

  1. Portal: inicie sesión y abra el proyecto hub.
  2. Catálogo de modelos: seleccione gpt-4o-mini.
  3. Use este modelo > para aceptar el nombre de implementación predeterminado > implementar.
  4. Tras tener éxito: abra en el área de juegos para comprobarlo.

Compilación de la aplicación de chat

Cree chat.py con código de ejemplo:

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

Inserte la cadena de conexión del proyecto desde la página Resumen del proyecto (copie y sustituya el marcador de posición en el código).

Ejecutar:

python chat.py

Agregar plantillas de aviso

Agregue get_chat_response mediante la plantilla mustache (consulte chat-template.py ejemplo) y, a continuación, invoque con mensajes de usuario o contexto.

Vuelva a ejecutar para ver la respuesta plantilla.

Limpieza de recursos

Elimine la implementación o el proyecto cuando haya terminado para evitar cargos.

Paso siguiente

Inicio rápido: Introducción a Foundry (proyectos de Foundry).