Compartir a través de


InferenceConfig Clase

Representa los valores de configuración de un entorno personalizado que se usa para la implementación.

La configuración de inferencia es un parámetro de entrada para Model las acciones relacionadas con la implementación:

Inicialice el objeto config.

Constructor

InferenceConfig(entry_script, runtime=None, conda_file=None, extra_docker_file_steps=None, source_directory=None, enable_gpu=None, description=None, base_image=None, base_image_registry=None, cuda_version=None, environment=None)

Parámetros

Nombre Description
entry_script
Requerido
str

Ruta de acceso a un archivo local que contiene el código que se va a ejecutar para la imagen.

runtime
str

Tiempo de ejecución que se va a usar para la imagen. Los entornos de ejecución admitidos actuales son "spark-py" y "python".

Valor predeterminado: None
conda_file
str

Ruta de acceso a un archivo local que contiene una definición de entorno de Conda que se va a usar para la imagen.

Valor predeterminado: None
extra_docker_file_steps
str

Ruta de acceso a un archivo local que contiene pasos adicionales de Docker que se van a ejecutar al configurar la imagen.

Valor predeterminado: None
source_directory
str

Ruta de acceso a la carpeta que contiene todos los archivos para crear la imagen.

Valor predeterminado: None
enable_gpu

Indica si se debe habilitar la compatibilidad con GPU en la imagen. La imagen de GPU debe usarse en servicios de Microsoft Azure, como Azure Container Instances, Proceso de Azure Machine Learning, Azure Virtual Machines y Azure Kubernetes Service. El valor predeterminado es False.

Valor predeterminado: None
description
str

Descripción para proporcionar esta imagen.

Valor predeterminado: None
base_image
str

Imagen personalizada que se va a usar como imagen base. Si no se da ninguna imagen base, la imagen base se usará en función del parámetro en tiempo de ejecución determinado.

Valor predeterminado: None
base_image_registry

Registro de imágenes que contiene la imagen base.

Valor predeterminado: None
cuda_version
str

Versión de CUDA que se va a instalar para imágenes que necesitan compatibilidad con GPU. La imagen de GPU debe usarse en servicios de Microsoft Azure, como Azure Container Instances, Proceso de Azure Machine Learning, Azure Virtual Machines y Azure Kubernetes Service. Las versiones admitidas son 9.0, 9.1 y 10.0. Si enable_gpu se establece, este valor predeterminado es "9.1".

Valor predeterminado: None
environment

Objeto de entorno que se va a usar para la implementación. No es necesario registrar el entorno.

Proporcione este parámetro o los demás parámetros, pero no ambos. Los parámetros individuales NO servirán como invalidación para el objeto de entorno. Las excepciones incluyen entry_script, source_directoryy description.

Valor predeterminado: None
entry_script
Requerido
str

Ruta de acceso a un archivo local que contiene el código que se va a ejecutar para la imagen.

runtime
Requerido
str

Tiempo de ejecución que se va a usar para la imagen. Los entornos de ejecución admitidos actuales son "spark-py" y "python".

conda_file
Requerido
str

Ruta de acceso a un archivo local que contiene una definición de entorno de Conda que se va a usar para la imagen.

extra_docker_file_steps
Requerido
str

Ruta de acceso a un archivo local que contiene pasos adicionales de Docker que se van a ejecutar al configurar la imagen.

source_directory
Requerido
str

Ruta de acceso a la carpeta que contiene todos los archivos para crear la imagen.

enable_gpu
Requerido

Indica si se debe habilitar la compatibilidad con GPU en la imagen. La imagen de GPU debe usarse en servicios de Microsoft Azure, como Azure Container Instances, Proceso de Azure Machine Learning, Azure Virtual Machines y Azure Kubernetes Service. El valor predeterminado es False.

description
Requerido
str

Descripción para proporcionar esta imagen.

base_image
Requerido
str

Imagen personalizada que se va a usar como imagen base. Si no se da ninguna imagen base, la imagen base se usará en función del parámetro en tiempo de ejecución determinado.

base_image_registry
Requerido

Registro de imágenes que contiene la imagen base.

cuda_version
Requerido
str

Versión de CUDA que se va a instalar para imágenes que necesitan compatibilidad con GPU. La imagen de GPU debe usarse en servicios de Microsoft Azure, como Azure Container Instances, Proceso de Azure Machine Learning, Azure Virtual Machines y Azure Kubernetes Service. Las versiones admitidas son 9.0, 9.1 y 10.0. Si enable_gpu se establece, este valor predeterminado es "9.1".

environment
Requerido

Objeto de entorno que se va a usar para la implementación. No es necesario registrar el entorno.

Proporcione este parámetro o los demás parámetros, pero no ambos. Los parámetros individuales NO servirán como invalidación para el objeto de entorno. Las excepciones incluyen entry_script, source_directoryy description.

Comentarios

En el ejemplo siguiente se muestra cómo crear un objeto InferenceConfig y usarlo para implementar un modelo.


   from azureml.core.model import InferenceConfig
   from azureml.core.webservice import AciWebservice


   service_name = 'my-custom-env-service'

   inference_config = InferenceConfig(entry_script='score.py', environment=environment)
   aci_config = AciWebservice.deploy_configuration(cpu_cores=1, memory_gb=1)

   service = Model.deploy(workspace=ws,
                          name=service_name,
                          models=[model],
                          inference_config=inference_config,
                          deployment_config=aci_config,
                          overwrite=True)
   service.wait_for_deployment(show_output=True)

Variables

Nombre Description
entry_script
str

Ruta de acceso a un archivo local que contiene el código que se va a ejecutar para la imagen.

runtime
str

Tiempo de ejecución que se va a usar para la imagen. Los entornos de ejecución admitidos actuales son "spark-py" y "python".

conda_file
str

Ruta de acceso a un archivo local que contiene una definición de entorno de Conda que se va a usar para la imagen.

extra_docker_file_steps
str

Ruta de acceso a un archivo local que contiene pasos adicionales de Docker que se ejecutarán al configurar la imagen.

source_directory
str

Ruta de acceso a la carpeta que contiene todos los archivos para crear la imagen.

enable_gpu

Indica si se debe habilitar la compatibilidad con GPU en la imagen. La imagen de GPU debe usarse en servicios de Microsoft Azure, como Azure Container Instances, Proceso de Azure Machine Learning, Azure Virtual Machines y Azure Kubernetes Service.

azureml.core.model.InferenceConfig.description

Descripción para proporcionar esta imagen.

base_image
str

Imagen personalizada que se va a usar como imagen base. Si no se da ninguna imagen base, la imagen base se usará en función del parámetro en tiempo de ejecución determinado.

base_image_registry

Registro de imágenes que contiene la imagen base.

cuda_version
str

Versión de CUDA que se va a instalar para imágenes que necesitan compatibilidad con GPU. La imagen de GPU debe usarse en servicios de Microsoft Azure, como Azure Container Instances, Proceso de Azure Machine Learning, Azure Virtual Machines y Azure Kubernetes Service. Las versiones admitidas son 9.0, 9.1 y 10.0. Si enable_gpu se establece, este valor predeterminado es "9.1".

azureml.core.model.InferenceConfig.environment

Objeto de entorno que se va a usar para la implementación. No es necesario registrar el entorno.

Proporcione este parámetro o los demás parámetros, pero no ambos. Los parámetros individuales NO servirán como invalidación para el objeto de entorno. Las excepciones incluyen entry_script, source_directoryy description.

Métodos

build_create_payload

Compile la carga de creación de la imagen contenedora.

build_profile_payload

Compile la carga de generación de perfiles para el paquete modelo.

validate_configuration

Compruebe que los valores de configuración especificados son válidos.

Genera un si se produce un WebserviceException error en la validación.

validation_script_content

Compruebe que la sintaxis del script de puntuación es válida con ast.parse.

Genera un si se produce un UserErrorException error en la validación.

build_create_payload

Compile la carga de creación de la imagen contenedora.

build_create_payload(workspace, name, model_ids)

Parámetros

Nombre Description
workspace
Requerido

Objeto de área de trabajo en el que se va a crear la imagen.

name
Requerido
str

Nombre de la imagen.

model_ids
Requerido

Lista de identificadores de modelo que se van a empaquetar en la imagen.

Devoluciones

Tipo Description

Carga de creación de imágenes de contenedor.

Excepciones

Tipo Description

build_profile_payload

Compile la carga de generación de perfiles para el paquete modelo.

build_profile_payload(profile_name, input_data=None, workspace=None, models=None, dataset_id=None, container_resource_requirements=None, description=None)

Parámetros

Nombre Description
profile_name
Requerido
str

Nombre de la ejecución de generación de perfiles.

input_data
str

Datos de entrada para la generación de perfiles.

Valor predeterminado: None
workspace

Objeto Workspace en el que se va a generar perfiles del modelo.

Valor predeterminado: None
models

Lista de objetos de modelo. Puede ser una lista vacía.

Valor predeterminado: None
dataset_id
str

Identificador asociado al conjunto de datos que contiene datos de entrada para la ejecución de generación de perfiles.

Valor predeterminado: None
container_resource_requirements

requisitos de recursos de contenedor para la instancia más grande en la que se va a implementar el modelo

Valor predeterminado: None
description
str

Descripción que se va a asociar a la ejecución de generación de perfiles.

Valor predeterminado: None

Devoluciones

Tipo Description

Carga del perfil de modelo

Excepciones

Tipo Description

validate_configuration

Compruebe que los valores de configuración especificados son válidos.

Genera un si se produce un WebserviceException error en la validación.

validate_configuration()

Excepciones

Tipo Description

validation_script_content

Compruebe que la sintaxis del script de puntuación es válida con ast.parse.

Genera un si se produce un UserErrorException error en la validación.

validation_script_content()

Excepciones

Tipo Description