La risorsa BatchPredictionJob
consente di eseguire una richiesta di previsione asincrona. Richiedi previsioni batch direttamente dalla risorsa model
. Non è necessario eseguire il deployment del modello in un endpoint
. Per i tipi di dati che supportano le previsioni batch e online, puoi utilizzare le previsioni batch.
Questo è utile quando non hai bisogno di una risposta immediata e vuoi elaborare
i dati accumulati utilizzando un'unica richiesta.
Per eseguire una previsione batch, specifica un'origine di input e una posizione di output in cui Vertex AI possa archiviare i risultati delle previsioni. Gli input e gli output
dipendono dal tipo di model
con cui stai lavorando. Ad esempio, le previsioni batch per il tipo di modello di immagine AutoML richiedono un file JSON Lines di input e il nome di un bucket Cloud Storage per archiviare l'output.
Per ulteriori informazioni sulla previsione batch, consulta
Ottenere previsioni batch.
Puoi utilizzare il componente ModelBatchPredictOp
per accedere a questa risorsa tramite Vertex AI Pipelines.
Riferimento API
- Per informazioni di riferimento sui componenti, consulta la documentazione di riferimento dell'SDK dei componenti della pipeline di Google Cloud per i componenti delle previsioni batch.
- Per informazioni di riferimento sull'API Vertex AI, consulta la pagina della risorsa
BatchPredictionJob
.
Tutorial
Cronologia delle versioni e note di rilascio
Per saperne di più sulla cronologia delle versioni e sulle modifiche all'SDK dei componenti della pipeline di Google Cloud, consulta le note di rilascio dell'SDK per i componenti della pipeline di Google Cloud.
Contatti dell'assistenza tecnica
In caso di domande, scrivi all'indirizzo kubeflow-pipelines-components@google.com.