InferenceConfig Clase
Constructor
InferenceConfig(entry_script, runtime=None, conda_file=None, extra_docker_file_steps=None, source_directory=None, enable_gpu=None, description=None, base_image=None, base_image_registry=None, cuda_version=None, environment=None)
Parámetros
| Nombre | Description |
|---|---|
|
entry_script
Requerido
|
Ruta de acceso a un archivo local que contiene el código que se va a ejecutar para la imagen. |
|
runtime
|
Tiempo de ejecución que se va a usar para la imagen. Los entornos de ejecución admitidos actuales son "spark-py" y "python". Valor predeterminado: None
|
|
conda_file
|
Ruta de acceso a un archivo local que contiene una definición de entorno de Conda que se va a usar para la imagen. Valor predeterminado: None
|
|
extra_docker_file_steps
|
Ruta de acceso a un archivo local que contiene pasos adicionales de Docker que se van a ejecutar al configurar la imagen. Valor predeterminado: None
|
|
source_directory
|
Ruta de acceso a la carpeta que contiene todos los archivos para crear la imagen. Valor predeterminado: None
|
|
enable_gpu
|
Indica si se debe habilitar la compatibilidad con GPU en la imagen. La imagen de GPU debe usarse en servicios de Microsoft Azure, como Azure Container Instances, Proceso de Azure Machine Learning, Azure Virtual Machines y Azure Kubernetes Service. El valor predeterminado es False. Valor predeterminado: None
|
|
description
|
Descripción para proporcionar esta imagen. Valor predeterminado: None
|
|
base_image
|
Imagen personalizada que se va a usar como imagen base. Si no se da ninguna imagen base, la imagen base se usará en función del parámetro en tiempo de ejecución determinado. Valor predeterminado: None
|
|
base_image_registry
|
Registro de imágenes que contiene la imagen base. Valor predeterminado: None
|
|
cuda_version
|
Versión de CUDA que se va a instalar para imágenes que necesitan compatibilidad con GPU. La imagen de GPU debe usarse en servicios de Microsoft Azure, como Azure Container Instances, Proceso de Azure Machine Learning, Azure Virtual Machines y Azure Kubernetes Service. Las versiones admitidas son 9.0, 9.1 y 10.0.
Si Valor predeterminado: None
|
|
environment
|
Objeto de entorno que se va a usar para la implementación. No es necesario registrar el entorno. Proporcione este parámetro o los demás parámetros, pero no ambos. Los parámetros individuales NO servirán como invalidación para el objeto de entorno. Las excepciones incluyen Valor predeterminado: None
|
|
entry_script
Requerido
|
Ruta de acceso a un archivo local que contiene el código que se va a ejecutar para la imagen. |
|
runtime
Requerido
|
Tiempo de ejecución que se va a usar para la imagen. Los entornos de ejecución admitidos actuales son "spark-py" y "python". |
|
conda_file
Requerido
|
Ruta de acceso a un archivo local que contiene una definición de entorno de Conda que se va a usar para la imagen. |
|
extra_docker_file_steps
Requerido
|
Ruta de acceso a un archivo local que contiene pasos adicionales de Docker que se van a ejecutar al configurar la imagen. |
|
source_directory
Requerido
|
Ruta de acceso a la carpeta que contiene todos los archivos para crear la imagen. |
|
enable_gpu
Requerido
|
Indica si se debe habilitar la compatibilidad con GPU en la imagen. La imagen de GPU debe usarse en servicios de Microsoft Azure, como Azure Container Instances, Proceso de Azure Machine Learning, Azure Virtual Machines y Azure Kubernetes Service. El valor predeterminado es False. |
|
description
Requerido
|
Descripción para proporcionar esta imagen. |
|
base_image
Requerido
|
Imagen personalizada que se va a usar como imagen base. Si no se da ninguna imagen base, la imagen base se usará en función del parámetro en tiempo de ejecución determinado. |
|
base_image_registry
Requerido
|
Registro de imágenes que contiene la imagen base. |
|
cuda_version
Requerido
|
Versión de CUDA que se va a instalar para imágenes que necesitan compatibilidad con GPU. La imagen de GPU debe usarse en servicios de Microsoft Azure, como Azure Container Instances, Proceso de Azure Machine Learning, Azure Virtual Machines y Azure Kubernetes Service. Las versiones admitidas son 9.0, 9.1 y 10.0.
Si |
|
environment
Requerido
|
Objeto de entorno que se va a usar para la implementación. No es necesario registrar el entorno. Proporcione este parámetro o los demás parámetros, pero no ambos. Los parámetros individuales NO servirán como invalidación para el objeto de entorno. Las excepciones incluyen |
Comentarios
En el ejemplo siguiente se muestra cómo crear un objeto InferenceConfig y usarlo para implementar un modelo.
from azureml.core.model import InferenceConfig
from azureml.core.webservice import AciWebservice
service_name = 'my-custom-env-service'
inference_config = InferenceConfig(entry_script='score.py', environment=environment)
aci_config = AciWebservice.deploy_configuration(cpu_cores=1, memory_gb=1)
service = Model.deploy(workspace=ws,
name=service_name,
models=[model],
inference_config=inference_config,
deployment_config=aci_config,
overwrite=True)
service.wait_for_deployment(show_output=True)
Variables
| Nombre | Description |
|---|---|
|
entry_script
|
Ruta de acceso a un archivo local que contiene el código que se va a ejecutar para la imagen. |
|
runtime
|
Tiempo de ejecución que se va a usar para la imagen. Los entornos de ejecución admitidos actuales son "spark-py" y "python". |
|
conda_file
|
Ruta de acceso a un archivo local que contiene una definición de entorno de Conda que se va a usar para la imagen. |
|
extra_docker_file_steps
|
Ruta de acceso a un archivo local que contiene pasos adicionales de Docker que se ejecutarán al configurar la imagen. |
|
source_directory
|
Ruta de acceso a la carpeta que contiene todos los archivos para crear la imagen. |
|
enable_gpu
|
Indica si se debe habilitar la compatibilidad con GPU en la imagen. La imagen de GPU debe usarse en servicios de Microsoft Azure, como Azure Container Instances, Proceso de Azure Machine Learning, Azure Virtual Machines y Azure Kubernetes Service. |
|
azureml.core.model.InferenceConfig.description
|
Descripción para proporcionar esta imagen. |
|
base_image
|
Imagen personalizada que se va a usar como imagen base. Si no se da ninguna imagen base, la imagen base se usará en función del parámetro en tiempo de ejecución determinado. |
|
base_image_registry
|
Registro de imágenes que contiene la imagen base. |
|
cuda_version
|
Versión de CUDA que se va a instalar para imágenes que necesitan compatibilidad con GPU. La imagen de GPU debe usarse en servicios de Microsoft Azure, como Azure Container Instances, Proceso de Azure Machine Learning, Azure Virtual Machines y Azure Kubernetes Service. Las versiones admitidas son 9.0, 9.1 y 10.0.
Si |
|
azureml.core.model.InferenceConfig.environment
|
Objeto de entorno que se va a usar para la implementación. No es necesario registrar el entorno. Proporcione este parámetro o los demás parámetros, pero no ambos. Los parámetros individuales NO servirán como invalidación para el objeto de entorno. Las excepciones incluyen |
Métodos
| build_create_payload |
Compile la carga de creación de la imagen contenedora. |
| build_profile_payload |
Compile la carga de generación de perfiles para el paquete modelo. |
| validate_configuration |
Compruebe que los valores de configuración especificados son válidos. Genera un si se produce un WebserviceException error en la validación. |
| validation_script_content |
Compruebe que la sintaxis del script de puntuación es válida con ast.parse. Genera un si se produce un UserErrorException error en la validación. |
build_create_payload
Compile la carga de creación de la imagen contenedora.
build_create_payload(workspace, name, model_ids)
Parámetros
| Nombre | Description |
|---|---|
|
workspace
Requerido
|
Objeto de área de trabajo en el que se va a crear la imagen. |
|
name
Requerido
|
Nombre de la imagen. |
|
model_ids
Requerido
|
Lista de identificadores de modelo que se van a empaquetar en la imagen. |
Devoluciones
| Tipo | Description |
|---|---|
|
Carga de creación de imágenes de contenedor. |
Excepciones
| Tipo | Description |
|---|---|
build_profile_payload
Compile la carga de generación de perfiles para el paquete modelo.
build_profile_payload(profile_name, input_data=None, workspace=None, models=None, dataset_id=None, container_resource_requirements=None, description=None)
Parámetros
| Nombre | Description |
|---|---|
|
profile_name
Requerido
|
Nombre de la ejecución de generación de perfiles. |
|
input_data
|
Datos de entrada para la generación de perfiles. Valor predeterminado: None
|
|
workspace
|
Objeto Workspace en el que se va a generar perfiles del modelo. Valor predeterminado: None
|
|
models
|
Lista de objetos de modelo. Puede ser una lista vacía. Valor predeterminado: None
|
|
dataset_id
|
Identificador asociado al conjunto de datos que contiene datos de entrada para la ejecución de generación de perfiles. Valor predeterminado: None
|
|
container_resource_requirements
|
requisitos de recursos de contenedor para la instancia más grande en la que se va a implementar el modelo Valor predeterminado: None
|
|
description
|
Descripción que se va a asociar a la ejecución de generación de perfiles. Valor predeterminado: None
|
Devoluciones
| Tipo | Description |
|---|---|
|
Carga del perfil de modelo |
Excepciones
| Tipo | Description |
|---|---|
validate_configuration
Compruebe que los valores de configuración especificados son válidos.
Genera un si se produce un WebserviceException error en la validación.
validate_configuration()
Excepciones
| Tipo | Description |
|---|---|
validation_script_content
Compruebe que la sintaxis del script de puntuación es válida con ast.parse.
Genera un si se produce un UserErrorException error en la validación.
validation_script_content()
Excepciones
| Tipo | Description |
|---|---|