Cargas multiparte de la API de XML

En esta página, se analizan las cargas multiparte de la API de XML en Cloud Storage. Este método sube archivos en partes y, luego, los ensambla en un solo objeto mediante una solicitud final. Las cargas multiparte de la API de XML son compatibles con las cargas multipartes de Amazon S3.

Descripción general

Una carga multiparte de la API de XML te permite subir datos en varias partes y, luego, ensamblarlos en un objeto final. Este comportamiento tiene varias ventajas, en especial para archivos grandes:

  • Puedes subir partes de forma simultánea, lo que reduce el tiempo que lleva subir los datos en su totalidad.

  • Si una de las operaciones de carga falla, solo debes volver a subir una parte del objeto general, en lugar de reiniciarlo desde el principio.

  • Dado que el tamaño total del archivo no se especifica con anticipación, puedes usar las cargas multiparte de la API de XML para cargas de transmisión o a fin de comprimir datos sobre la marcha durante la carga.

Una carga multiparte de la API de XML tiene tres pasos necesarios:

  1. Inicia la carga con una solicitud POST, que incluye especificar cualquier metadato que tenga el objeto completado. La respuesta muestra un UploadId que usarás en todas las solicitudes posteriores asociadas a la carga.

  2. Sube los datos con una o más solicitudes PUT.

  3. Completa la carga con una solicitud POST. Esta solicitud reemplaza cualquier objeto existente en el bucket con el mismo nombre.

No hay límite para el tiempo que una carga multiparte y sus partes subidas pueden permanecer sin terminar o estar inactivas en un bucket.

Consideraciones

Las siguientes limitaciones se aplican al uso de las cargas multiparte de la API de XML:

  • Existen límites para el tamaño mínimo que puede ser una parte, el tamaño máximo que puede tener una parte y la cantidad de partes que se usan para ensamblar la carga completa.
  • Las condiciones previas no son compatibles con las solicitudes.
  • Los hashes de MD5 no existen para los objetos subidos que se usan con este método.
  • Este método de carga no es compatible con Google Cloud Console o Google Cloud CLI.

Ten en cuenta lo siguiente cuando trabajes con cargas multiparte de la API de XML:

Cómo las bibliotecas cliente usan las cargas multiparte de la API de XML

En esta sección, se proporciona información sobre cómo realizar cargas multiparte de la API de XML con bibliotecas cliente que lo admiten.

Bibliotecas cliente

Java

Si deseas obtener más información, consulta la documentación de referencia de la API de Cloud Storage Java.

Para autenticarte en Cloud Storage, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.

La biblioteca cliente de Java no es compatible con las cargas multiparte de la API de XML. En su lugar, usa cargas compuestas en paralelo.

Node.js

Si deseas obtener más información, consulta la documentación de referencia de la API de Cloud Storage Node.js.

Para autenticarte en Cloud Storage, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.

Puedes realizar cargas multiparte de la API de XML con el método uploadFileInChunks. Por ejemplo:

/**
 * TODO(developer): Uncomment the following lines before running the sample.
 */
// The ID of your GCS bucket
// const bucketName = 'your-unique-bucket-name';

// The path of file to upload
// const fileName = 'path/to/your/file';

// The size of each chunk to be uploaded
// const chunkSize = 32 * 1024 * 1024;

// Imports the Google Cloud client library
const {Storage, TransferManager} = require('@google-cloud/storage');

// Creates a client
const storage = new Storage();

// Creates a transfer manager client
const transferManager = new TransferManager(storage.bucket(bucketName));

async function uploadFileInChunksWithTransferManager() {
  // Uploads the files
  await transferManager.uploadFileInChunks(filePath, {
    chunkSizeBytes: chunkSize,
  });

  console.log(`${filePath} uploaded to ${bucketName}.`);
}

uploadFileInChunksWithTransferManager().catch(console.error);

Python

Si deseas obtener más información, consulta la documentación de referencia de la API de Cloud Storage Python.

Para autenticarte en Cloud Storage, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.

Puedes realizar cargas multiparte de la API de XML con el método upload_chunks_concurrently. Por ejemplo:

def upload_chunks_concurrently(
    bucket_name,
    source_filename,
    destination_blob_name,
    chunk_size=32 * 1024 * 1024,
    workers=8,
):
    """Upload a single file, in chunks, concurrently in a process pool."""
    # The ID of your GCS bucket
    # bucket_name = "your-bucket-name"

    # The path to your file to upload
    # source_filename = "local/path/to/file"

    # The ID of your GCS object
    # destination_blob_name = "storage-object-name"

    # The size of each chunk. The performance impact of this value depends on
    # the use case. The remote service has a minimum of 5 MiB and a maximum of
    # 5 GiB.
    # chunk_size = 32 * 1024 * 1024 (32 MiB)

    # The maximum number of processes to use for the operation. The performance
    # impact of this value depends on the use case. Each additional process
    # occupies some CPU and memory resources until finished. Threads can be used
    # instead of processes by passing `worker_type=transfer_manager.THREAD`.
    # workers=8

    from google.cloud.storage import Client, transfer_manager

    storage_client = Client()
    bucket = storage_client.bucket(bucket_name)
    blob = bucket.blob(destination_blob_name)

    transfer_manager.upload_chunks_concurrently(
        source_filename, blob, chunk_size=chunk_size, max_workers=workers
    )

    print(f"File {source_filename} uploaded to {destination_blob_name}.")

¿Qué sigue?