Eseguire un calcolo su una VM Cloud TPU utilizzando PyTorch

Questa guida rapida mostra come creare una Cloud TPU, installare PyTorch ed eseguire un semplice calcolo su una Cloud TPU. Per un tutorial più approfondito come addestrare un modello su una Cloud TPU, consulta uno dei Tutorial su Cloud TPU PyTorch.

Prima di iniziare

Prima di seguire questa guida rapida, devi creare una Google Cloud Platform installa Google Cloud CLI. e configurare il comando gcloud. Per ulteriori informazioni, vedi Configura un account e un progetto Cloud TPU.

Crea una Cloud TPU con gcloud

Creare una VM TPU nel progetto, nella rete e nella zona utente predefiniti run:

$ gcloud compute tpus tpu-vm create tpu-name \
   --zone=us-central2-b \
   --accelerator-type=v4-8 \
   --version=tpu-ubuntu2204-base

Descrizioni flag di comando

zone
La zona in cui prevedi di creare la tua Cloud TPU.
accelerator-type
Il tipo di acceleratore specifica la versione e le dimensioni della Cloud TPU che vuoi creare. Per ulteriori informazioni sui tipi di acceleratori supportati per ogni versione di TPU, vedi Versioni TPU.
version
Il software Cloud TPU .

Durante la creazione della TPU, puoi trasmettere --network e --subnetwork flag se devi specificare la rete e la subnet predefinite. Se non desideri utilizzare la rete predefinita, devi passare il parametro --network flag. Il flag --subnetwork è facoltativo e può essere utilizzato per specificare una subnet predefinita per qualsiasi rete che utilizzi (predefinita o specificato dall'utente). Consulta gcloud pagina di riferimento delle API per informazioni dettagliate su questi flag.

Connettiti alla VM Cloud TPU

   $ gcloud compute tpus tpu-vm ssh tpu-name --zone=us-central2-b

Installare PyTorch/XLA sulla VM TPU

   (vm)$ pip install torch~=2.3.0 torch_xla[tpu]~=2.3.0 torchvision -f https://storage.googleapis.com/libtpu-releases/index.html
   

Imposta configurazione di runtime TPU

Assicurati che il runtime PyTorch/XLA utilizzi la TPU.

   (vm) $ export PJRT_DEVICE=TPU

Esegui un semplice calcolo:

  1. Crea un file denominato tpu-test.py nella directory corrente e copia e e incollaci il seguente script.

    import torch
    import torch_xla.core.xla_model as xm
    
    dev = xm.xla_device()
    t1 = torch.randn(3,3,device=dev)
    t2 = torch.randn(3,3,device=dev)
    print(t1 + t2)
    
  2. Esegui lo script:

      (vm)$ python3 tpu-test.py

    L'output dello script mostra il risultato del calcolo:

    tensor([[-0.2121,  1.5589, -0.6951],
            [-0.7886, -0.2022,  0.9242],
            [ 0.8555, -1.8698,  1.4333]], device='xla:1')
    

Esegui la pulizia

Per evitare che al tuo account Google Cloud vengano addebitati costi per le risorse utilizzate in questa pagina, segui questi passaggi.

  1. Disconnettiti dall'istanza Compute Engine, se non l'hai già fatto. Fatto:

    (vm)$ exit
    

    Il tuo prompt ora dovrebbe essere username@projectname, a indicare che ti trovi in in Cloud Shell.

  2. Elimina il tuo Cloud TPU.

    $ gcloud compute tpus tpu-vm delete tpu-name \
      --zone=us-central2-b

L'output di questo comando dovrebbe confermare che la TPU è stata eliminata.

Passaggi successivi

Scopri di più sulle VM Cloud TPU: