Schedule Clase
Define una programación en la que se va a enviar una canalización.
Una vez publicada una canalización, se puede usar una programación para enviar la canalización a un intervalo especificado o cuando se detectan cambios en una ubicación de Blob Storage.
Inicializar programación.
Constructor
Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)
Parámetros
| Nombre | Description |
|---|---|
|
workspace
Requerido
|
El objeto de área de trabajo al que pertenece esta programación. |
|
id
Requerido
|
Identificador de la programación. |
|
name
Requerido
|
Nombre de la programación. |
|
description
Requerido
|
Descripción de la programación. |
|
pipeline_id
Requerido
|
Identificador de la canalización que enviará la programación. |
|
status
Requerido
|
El estado de la programación, ya sea "Activo" o "Deshabilitado". |
|
recurrence
Requerido
|
Periodicidad de programación para la canalización. |
|
datastore_name
Requerido
|
Nombre del almacén de datos que se va a supervisar para blobs modificados o agregados. Nota: 1) No se admiten los almacenes de datos de red virtual. 2) El tipo de autenticación del almacén de datos debe establecerse en "Clave de cuenta". |
|
polling_interval
Requerido
|
La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados. |
|
data_path_parameter_name
Requerido
|
El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado. |
|
continue_on_step_failure
Requerido
|
Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, esto invalidará la configuración de continue_on_step_failure para la canalización. |
|
path_on_datastore
Requerido
|
Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: el path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que supervisará será contenedor/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. No se supervisan las adiciones o modificaciones realizadas en una subcarpeta del path_on_datastore. Solo se admite para las programaciones del almacén de datos. |
|
_schedule_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Proveedor de programación. Valor predeterminado: None
|
|
workspace
Requerido
|
El objeto de área de trabajo al que pertenece esta programación. |
|
id
Requerido
|
Identificador de la programación. |
|
name
Requerido
|
Nombre de la programación. |
|
description
Requerido
|
Descripción de la programación. |
|
pipeline_id
Requerido
|
Identificador de la canalización que enviará la programación. |
|
status
Requerido
|
El estado de la programación, ya sea "Activo" o "Deshabilitado". |
|
recurrence
Requerido
|
Periodicidad de programación de la canalización. |
|
datastore_name
Requerido
|
Nombre del almacén de datos que se va a supervisar para blobs modificados o agregados. Nota: No se admiten los almacenes de datos de red virtual. |
|
polling_interval
Requerido
|
La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados. |
|
data_path_parameter_name
Requerido
|
El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado. |
|
continue_on_step_failure
Requerido
|
Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, esto invalidará la configuración de continue_on_step_failure para la canalización. |
|
path_on_datastore
Requerido
|
Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: el path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que supervisará será contenedor/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. No se supervisan las adiciones o modificaciones realizadas en una subcarpeta del path_on_datastore. Solo se admite para las programaciones del almacén de datos. |
|
_schedule_provider
Requerido
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Proveedor de programación. |
|
pipeline_endpoint_id
|
El identificador del punto de conexión de canalización que enviará la programación. Valor predeterminado: None
|
Comentarios
Se admiten dos tipos de programaciones. La primera usa la periodicidad de la hora para enviar una canalización según una programación determinada. El segundo supervisa los AzureBlobDatastore blobs agregados o modificados y envía una canalización cuando se detectan cambios.
Para crear una programación que enviará una canalización según una programación periódica, use al ScheduleRecurrence crear la programación.
Se usa ScheduleRecurrence al crear una programación para una canalización de la siguiente manera:
from azureml.pipeline.core import Schedule, ScheduleRecurrence
recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=recurrence)
Esta programación enviará el proporcionado PublishedPipeline cada 12 horas. La canalización enviada se creará en el experimento con el nombre "helloworld".
Para crear una programación que desencadenará PipelineRuns en modificaciones en una ubicación de Blob Storage, especifique un almacén de datos y la información de datos relacionada al crear la programación.
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
experiment_name="helloworld", datastore=datastore,
polling_interval=5, path_on_datastore="file/path")
Tenga en cuenta que los parámetros polling_interval y path_on_datastore son opcionales. El polling_interval especifica la frecuencia con la que sondear las modificaciones en el almacén de datos y, de forma predeterminada, es de 5 minutos. path_on_datastore se puede usar para especificar qué carpeta del almacén de datos se va a supervisar para ver los cambios. Si no, se supervisa el contenedor de almacén de datos. Nota: No se detectan adiciones o modificaciones de blobs en subcarpetas del path_on_datastore o el contenedor de almacén de datos (si no se especifica ningún path_on_datastore).
Además, si la canalización se construyó para usar DataPathPipelineParameter para describir una entrada de paso, use el parámetro data_path_parameter_name al crear una programación desencadenada por el almacén de datos para establecer la entrada en el archivo modificado cuando schedule envía una pipelineRun.
En el ejemplo siguiente, cuando Schedule desencadena PipelineRun, el valor de PipelineParameter "input_data" se establecerá como el archivo que se modificó o agregó:
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", datastore=datastore,
data_path_parameter_name="input_data")
Para obtener más información sobre las programaciones, vea: https://aka.ms/pl-schedule.
Métodos
| create |
Cree una programación para una canalización. Especifique la periodicidad de una programación basada en el tiempo o especifique un almacén de datos, (opcional) polling_interval y (opcional) data_path_parameter_name para crear una programación que supervisará la ubicación del almacén de datos para realizar modificaciones o adiciones. |
| create_for_pipeline_endpoint |
Cree una programación para un punto de conexión de canalización. Especifique la periodicidad de una programación basada en el tiempo o especifique un almacén de datos, (opcional) polling_interval y (opcional) data_path_parameter_name para crear una programación que supervisará la ubicación del almacén de datos para realizar modificaciones o adiciones. |
| disable |
Establezca la programación en "Disabled" (Deshabilitado) y no esté disponible para ejecutarse. |
| enable |
Establezca la programación en "Activo" y esté disponible para ejecutarse. |
| get |
Obtenga la programación con el identificador especificado. |
| get_all |
Obtenga todas las programaciones del área de trabajo actual. EN DESUSO: este método está en desuso en favor del list método . |
| get_last_pipeline_run |
Capture la última ejecución de canalización enviada por la programación. Devuelve None si no se han enviado ejecuciones. |
| get_pipeline_runs |
Capture las ejecuciones de canalización que se generaron a partir de la programación. |
| get_schedules_for_pipeline_endpoint_id |
Obtenga todas las programaciones para el identificador de punto de conexión de canalización determinado. |
| get_schedules_for_pipeline_id |
Obtenga todas las programaciones para el identificador de canalización determinado. |
| list |
Obtenga todas las programaciones del área de trabajo actual. |
| load_yaml |
Cargue y lea el archivo YAML para obtener parámetros de programación. El archivo YAML es una manera más de pasar parámetros schedule para crear la programación. |
| update |
Actualice la programación. |
create
Cree una programación para una canalización.
Especifique la periodicidad de una programación basada en el tiempo o especifique un almacén de datos, (opcional) polling_interval y (opcional) data_path_parameter_name para crear una programación que supervisará la ubicación del almacén de datos para realizar modificaciones o adiciones.
static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parámetros
| Nombre | Description |
|---|---|
|
workspace
Requerido
|
El objeto de área de trabajo al que pertenece esta programación. |
|
name
Requerido
|
Nombre de la programación. |
|
pipeline_id
Requerido
|
Identificador de la canalización que enviará la programación. |
|
experiment_name
Requerido
|
El nombre del experimento en el que se enviará la programación se ejecutará. |
|
recurrence
|
Periodicidad de programación de la canalización. Valor predeterminado: None
|
|
description
|
Descripción de la programación. Valor predeterminado: None
|
|
pipeline_parameters
|
Diccionario de parámetros para asignar nuevos valores {nombre del parámetro, valor del parámetro} Valor predeterminado: None
|
|
wait_for_provisioning
|
Indica si se va a esperar a que se complete el aprovisionamiento de la programación. Valor predeterminado: False
|
|
wait_timeout
|
El número de segundos que se va a esperar antes de que se agote el tiempo de espera. Valor predeterminado: 3600
|
|
datastore
|
Almacén de datos que se va a supervisar para blobs modificados o agregados. Nota: No se admiten los almacenes de datos de red virtual. No se puede usar con una periodicidad. Valor predeterminado: None
|
|
polling_interval
|
La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados. El valor predeterminado es 5 minutos. Solo se admite para las programaciones del almacén de datos. Valor predeterminado: 5
|
|
data_path_parameter_name
|
El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado. Solo se admite para las programaciones del almacén de datos. Valor predeterminado: None
|
|
continue_on_step_failure
|
Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, esto invalidará la configuración de continue_on_step_failure para la canalización. Valor predeterminado: None
|
|
path_on_datastore
|
Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: el path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que supervisará será contenedor/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. No se supervisan las adiciones o modificaciones realizadas en una subcarpeta del path_on_datastore. Solo se admite para las programaciones del almacén de datos. Valor predeterminado: None
|
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Proveedor de flujo de trabajo. Valor predeterminado: None
|
|
_service_endpoint
|
Punto de conexión de servicio. Valor predeterminado: None
|
Devoluciones
| Tipo | Description |
|---|---|
|
La programación creada. |
create_for_pipeline_endpoint
Cree una programación para un punto de conexión de canalización.
Especifique la periodicidad de una programación basada en el tiempo o especifique un almacén de datos, (opcional) polling_interval y (opcional) data_path_parameter_name para crear una programación que supervisará la ubicación del almacén de datos para realizar modificaciones o adiciones.
static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parámetros
| Nombre | Description |
|---|---|
|
workspace
Requerido
|
El objeto de área de trabajo al que pertenece esta programación. |
|
name
Requerido
|
Nombre de la programación. |
|
pipeline_endpoint_id
Requerido
|
El identificador del punto de conexión de canalización que enviará la programación. |
|
experiment_name
Requerido
|
El nombre del experimento en el que se enviará la programación se ejecutará. |
|
recurrence
|
Periodicidad de programación de la canalización. Valor predeterminado: None
|
|
description
|
Descripción de la programación. Valor predeterminado: None
|
|
pipeline_parameters
|
Diccionario de parámetros para asignar nuevos valores {nombre del parámetro, valor del parámetro} Valor predeterminado: None
|
|
wait_for_provisioning
|
Indica si se va a esperar a que se complete el aprovisionamiento de la programación. Valor predeterminado: False
|
|
wait_timeout
|
El número de segundos que se va a esperar antes de que se agote el tiempo de espera. Valor predeterminado: 3600
|
|
datastore
|
Almacén de datos que se va a supervisar para blobs modificados o agregados. Nota: No se admiten los almacenes de datos de red virtual. No se puede usar con una periodicidad. Valor predeterminado: None
|
|
polling_interval
|
La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados. El valor predeterminado es 5 minutos. Solo se admite para las programaciones del almacén de datos. Valor predeterminado: 5
|
|
data_path_parameter_name
|
El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado. Solo se admite para las programaciones del almacén de datos. Valor predeterminado: None
|
|
continue_on_step_failure
|
Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, esto invalidará la configuración de continue_on_step_failure para la canalización. Valor predeterminado: None
|
|
path_on_datastore
|
Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: el path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que supervisará será contenedor/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. No se supervisan las adiciones o modificaciones realizadas en una subcarpeta del path_on_datastore. Solo se admite para las programaciones del almacén de datos. Valor predeterminado: None
|
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Proveedor de flujo de trabajo. Valor predeterminado: None
|
|
_service_endpoint
|
Punto de conexión de servicio. Valor predeterminado: None
|
Devoluciones
| Tipo | Description |
|---|---|
|
La programación creada. |
disable
Establezca la programación en "Disabled" (Deshabilitado) y no esté disponible para ejecutarse.
disable(wait_for_provisioning=False, wait_timeout=3600)
Parámetros
| Nombre | Description |
|---|---|
|
wait_for_provisioning
|
Indica si se va a esperar a que se complete el aprovisionamiento de la programación. Valor predeterminado: False
|
|
wait_timeout
|
Número de segundos que se deben esperar antes de que se agote el tiempo de espera. Valor predeterminado: 3600
|
enable
Establezca la programación en "Activo" y esté disponible para ejecutarse.
enable(wait_for_provisioning=False, wait_timeout=3600)
Parámetros
| Nombre | Description |
|---|---|
|
wait_for_provisioning
|
Indica si se va a esperar a que se complete el aprovisionamiento de la programación. Valor predeterminado: False
|
|
wait_timeout
|
Número de segundos que se deben esperar antes de que se agote el tiempo de espera. Valor predeterminado: 3600
|
get
Obtenga la programación con el identificador especificado.
static get(workspace, id, _workflow_provider=None, _service_endpoint=None)
Parámetros
| Nombre | Description |
|---|---|
|
workspace
Requerido
|
Área de trabajo en la que se creó la programación. |
|
id
Requerido
|
Identificador de la programación. |
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Proveedor de flujo de trabajo. Valor predeterminado: None
|
|
_service_endpoint
|
Punto de conexión de servicio. Valor predeterminado: None
|
Devoluciones
| Tipo | Description |
|---|---|
|
Objeto de programación |
get_all
Obtenga todas las programaciones del área de trabajo actual.
EN DESUSO: este método está en desuso en favor del list método .
static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parámetros
| Nombre | Description |
|---|---|
|
workspace
Requerido
|
Área de trabajo. |
|
active_only
|
Si es true, solo devuelve programaciones que están activas actualmente. Solo se aplica si no se proporciona ningún identificador de canalización. Valor predeterminado: True
|
|
pipeline_id
|
Si se proporciona, solo devuelve programaciones para la canalización con el identificador especificado. Valor predeterminado: None
|
|
pipeline_endpoint_id
|
Si se proporciona, solo devuelve programaciones para el punto de conexión de canalización con el identificador especificado. Valor predeterminado: None
|
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Proveedor de flujo de trabajo. Valor predeterminado: None
|
|
_service_endpoint
|
Punto de conexión de servicio. Valor predeterminado: None
|
Devoluciones
| Tipo | Description |
|---|---|
|
Lista de Schedule. |
get_last_pipeline_run
Capture la última ejecución de canalización enviada por la programación. Devuelve None si no se han enviado ejecuciones.
get_last_pipeline_run()
Devoluciones
| Tipo | Description |
|---|---|
|
Última ejecución de canalización. |
get_pipeline_runs
Capture las ejecuciones de canalización que se generaron a partir de la programación.
get_pipeline_runs()
Devoluciones
| Tipo | Description |
|---|---|
|
Lista de PipelineRun. |
get_schedules_for_pipeline_endpoint_id
Obtenga todas las programaciones para el identificador de punto de conexión de canalización determinado.
static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)
Parámetros
| Nombre | Description |
|---|---|
|
workspace
Requerido
|
Área de trabajo. |
|
pipeline_endpoint_id
Requerido
|
Identificador del punto de conexión de canalización. |
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Proveedor de flujo de trabajo. Valor predeterminado: None
|
|
_service_endpoint
|
Punto de conexión de servicio. Valor predeterminado: None
|
Devoluciones
| Tipo | Description |
|---|---|
|
Lista de Schedule. |
get_schedules_for_pipeline_id
Obtenga todas las programaciones para el identificador de canalización determinado.
static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)
Parámetros
| Nombre | Description |
|---|---|
|
workspace
Requerido
|
Área de trabajo. |
|
pipeline_id
Requerido
|
Identificador de canalización. |
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Proveedor de flujo de trabajo. Valor predeterminado: None
|
|
_service_endpoint
|
Punto de conexión de servicio. Valor predeterminado: None
|
Devoluciones
| Tipo | Description |
|---|---|
|
Lista de Schedule. |
list
Obtenga todas las programaciones del área de trabajo actual.
static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parámetros
| Nombre | Description |
|---|---|
|
workspace
Requerido
|
Área de trabajo. |
|
active_only
|
Si es true, solo devuelve programaciones que están activas actualmente. Solo se aplica si no se proporciona ningún identificador de canalización. Valor predeterminado: True
|
|
pipeline_id
|
Si se proporciona, solo devuelve programaciones para la canalización con el identificador especificado. Valor predeterminado: None
|
|
pipeline_endpoint_id
|
Si se proporciona, solo devuelve programaciones para el punto de conexión de canalización con el identificador especificado. Valor predeterminado: None
|
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Proveedor de flujo de trabajo. Valor predeterminado: None
|
|
_service_endpoint
|
Punto de conexión de servicio. Valor predeterminado: None
|
Devoluciones
| Tipo | Description |
|---|---|
|
Lista de Schedule. |
load_yaml
Cargue y lea el archivo YAML para obtener parámetros de programación.
El archivo YAML es una manera más de pasar parámetros schedule para crear la programación.
static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)
Parámetros
| Nombre | Description |
|---|---|
|
workspace
Requerido
|
Área de trabajo. |
|
filename
Requerido
|
Nombre de archivo YAML con ubicación. |
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Proveedor de flujo de trabajo. Valor predeterminado: None
|
|
_service_endpoint
|
Punto de conexión de servicio. Valor predeterminado: None
|
Devoluciones
| Tipo | Description |
|---|---|
|
Diccionario de Schedule parámetros y valores. |
Comentarios
Se admiten dos tipos de YAML para Programaciones. La primera lee y carga información de periodicidad para la programación de creación para desencadenar la canalización. El segundo lee y carga la información del almacén de datos para programar la creación para desencadenar la canalización.
Ejemplo para crear una programación que enviará una canalización de forma periódica, como se indica a continuación:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_recurrence.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
description=schedule_info.get("description"))
Archivo YAML de ejemplo test_schedule_with_recurrence.yaml:
Schedule:
description: "Test create with recurrence"
recurrence:
frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
interval: 1 # how often fires
start_time: 2019-06-07T10:50:00
time_zone: UTC
hours:
- 1
minutes:
- 0
time_of_day: null
week_days:
- Friday
pipeline_parameters: {'a':1}
wait_for_provisioning: True
wait_timeout: 3600
datastore_name: ~
polling_interval: ~
data_path_parameter_name: ~
continue_on_step_failure: None
path_on_datastore: ~
Ejemplo para crear una programación que enviará una canalización en un almacén de datos, como se indica a continuación:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_datastore.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
polling_interval=schedule_info.get("polling_interval"),
data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
path_on_datastore=schedule_info.get("path_on_datastore"))
update
Actualice la programación.
update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)
Parámetros
| Nombre | Description |
|---|---|
|
name
|
Nuevo nombre de schedule. Valor predeterminado: None
|
|
recurrence
|
Nueva periodicidad de programación de la canalización. Valor predeterminado: None
|
|
description
|
Nueva descripción de la programación. Valor predeterminado: None
|
|
pipeline_parameters
|
Diccionario de parámetros para asignar nuevos valores {nombre del parámetro, valor del parámetro}. Valor predeterminado: None
|
|
status
|
El nuevo estado de la programación: "Activo" o "Deshabilitado". Valor predeterminado: None
|
|
wait_for_provisioning
|
Indica si se va a esperar a que se complete el aprovisionamiento de la programación. Valor predeterminado: False
|
|
wait_timeout
|
El número de segundos que se va a esperar antes de que se agote el tiempo de espera. Valor predeterminado: 3600
|
|
datastore
|
Almacén de datos que se va a supervisar para blobs modificados o agregados. Nota: No se admiten los almacenes de datos de red virtual. Valor predeterminado: None
|
|
polling_interval
|
La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados. El valor predeterminado es 5 minutos. Valor predeterminado: None
|
|
data_path_parameter_name
|
El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado. Valor predeterminado: None
|
|
continue_on_step_failure
|
Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, esto invalidará la configuración de continue_on_step_failure para la canalización. Valor predeterminado: None
|
|
path_on_datastore
|
Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: el path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que supervisará será contenedor/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. No se supervisan las adiciones o modificaciones realizadas en una subcarpeta del path_on_datastore. Solo se admite para las programaciones del almacén de datos. Valor predeterminado: None
|
Atributos
continue_on_step_failure
Obtenga el valor de la continue_on_step_failure configuración.
Devoluciones
| Tipo | Description |
|---|---|
|
Valor de la |
data_path_parameter_name
Obtenga el nombre del parámetro de canalización de ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificada.
Devoluciones
| Tipo | Description |
|---|---|
|
Nombre del parámetro de ruta de acceso de datos. |
datastore_name
Obtenga el nombre del almacén de datos usado para la programación.
Devoluciones
| Tipo | Description |
|---|---|
|
Nombre del almacén de datos. |
description
Obtenga la descripción de la programación.
Devoluciones
| Tipo | Description |
|---|---|
|
Descripción de la programación. |
id
name
path_on_datastore
Obtenga la ruta de acceso en el almacén de datos que supervisa la programación.
Devoluciones
| Tipo | Description |
|---|---|
|
Ruta de acceso en el almacén de datos. |
pipeline_endpoint_id
Obtenga el identificador del punto de conexión de canalización que envía la programación.
Devoluciones
| Tipo | Description |
|---|---|
|
Identificador. |
pipeline_id
Obtenga el identificador de la canalización que envía la programación.
Devoluciones
| Tipo | Description |
|---|---|
|
Identificador. |
polling_interval
Obtenga cuánto tiempo, en minutos, entre el sondeo de blobs modificados o agregados.
Devoluciones
| Tipo | Description |
|---|---|
|
Intervalo de sondeo. |
recurrence
Obtiene la periodicidad de la programación.
Devoluciones
| Tipo | Description |
|---|---|
|
Periodicidad de la programación. |