Résoudre les problèmes liés aux disques NVMe


Ce document répertorie les erreurs que vous pouvez rencontrer lors de l'utilisation de disques avec l'interface NVMe (nonvolatile memory express).

Vous pouvez utiliser l'interface NVMe pour les disques SSD locaux et les disques persistants (Persistent Disk ou Google Cloud Hyperdisk). Seules les séries de machines les plus récentes, telles que Tau T2A, M3, C3, C3D et H3, utilisent l'interface NVMe pour les disques Persistent Disk. Confidential VMs utilisent également le NVMe pour les disques Persistent Disk. Toutes les autres séries de machines Compute Engine utilisent l'interface disque SCSI pour les disques persistants.

Erreur d'expiration de délai d'une opération d'E/S

Si vous rencontrez des erreurs d'expiration de délai d'E/S, il est possible que la latence dépasse le paramètre de délai avant expiration par défaut pour les opérations d'E/S envoyées à des appareils NVMe.

Message d'erreur :

[1369407.045521] nvme nvme0: I/O 252 QID 2 timeout, aborting
[1369407.050941] nvme nvme0: I/O 253 QID 2 timeout, aborting
[1369407.056354] nvme nvme0: I/O 254 QID 2 timeout, aborting
[1369407.061766] nvme nvme0: I/O 255 QID 2 timeout, aborting
[1369407.067168] nvme nvme0: I/O 256 QID 2 timeout, aborting
[1369407.072583] nvme nvme0: I/O 257 QID 2 timeout, aborting
[1369407.077987] nvme nvme0: I/O 258 QID 2 timeout, aborting
[1369407.083395] nvme nvme0: I/O 259 QID 2 timeout, aborting
[1369407.088802] nvme nvme0: I/O 260 QID 2 timeout, aborting
...

Solution :

Pour résoudre ce problème, augmentez la valeur du paramètre de délai avant expiration.

  1. Affichez la valeur actuelle du paramètre de délai avant expiration.

    1. Déterminez le contrôleur NVMe qui est utilisé par le disque persistant ou le volume SSD local.
      ls -l /dev/disk/by-id
      
    2. Affichez le paramètre io_timeout, spécifié en secondes, pour le disque.

      cat /sys/class/nvme/CONTROLLER_ID/NAMESPACE/queue/io_timeout
      
      Remplacez les éléments suivants :

      • CONTROLLER_ID : ID du contrôleur de disque NVMe, par exemple nvme1
      • NAMESPACE : espace de noms du disque NVMe, par exemple nvme1n1

      Si vous ne disposez que d'un seul disque utilisant NVMe, utilisez la commande suivante :

      cat /sys/class/nvme/nvme0/nvme0n1/queue/io_timeout
      

  2. Pour augmenter le paramètre de délai avant expiration pour les opérations d'E/S envoyées à des appareils NVMe, ajoutez la ligne suivante au fichier /lib/udev/rules.d/65-gce-disk-naming.rules, puis redémarrez la VM :

    KERNEL=="nvme*n*", ENV{DEVTYPE}=="disk", ATTRS{model}=="nvme_card-pd", ATTR{queue/io_timeout}="4294967295"
    

Si vous associez des disques SSD locaux à une VM C3 ou C3D, vous devrez peut-être prendre des mesures supplémentaires pour créer les liens symboliques pour les disques SSD locaux. Ces étapes ne sont requises que si vous utilisez l'une des images publiques suivantes proposées par Google Cloud :

  • SLES 15 SP4 et SP5
  • SLES 12 SP4

Ces étapes supplémentaires ne s'appliquent qu'aux disques SSD locaux. Vous n'avez rien à faire pour les volumes Persistent Disk.

Les images Linux publiques répertoriées précédemment ne disposent pas de la configuration udev appropriée pour créer des liens symboliques pour les disques SSD locaux associés à des VM C3 et C3D. Les images personnalisées peuvent également ne pas inclure les règles udev requises pour créer des liens symboliques pour les disques SSD locaux associés à des VM C3 et C3D.

Suivez ces instructions pour ajouter des règles udev pour des images SUSE ou personnalisées.

  1. Recherchez le répertoire des règles udev. Il s'agit généralement de /lib/udev/rules.d ou /usr/lib/udev/rules.d. Votre image peut être associée à un répertoire de règles udev différent.
  2. Recherchez le fichier 65-gce-disk-naming.rules dans le répertoire des règles udev.
  3. Si le fichier 65-gce-disk-naming.rules contient la ligne suivante, votre image est compatible avec les nouvelles règles et vous pouvez vous arrêter ici :

    KERNEL=="nvme*n*", ATTRS{model}=="nvme_card[0-9]*",IMPORT{program}="google_nvme_id -d $tempnode"
    
  4. Si la ligne précédente n'est pas présente ou si le fichier 65-gce-disk-naming.rules n'existe pas, remplacez le fichier existant ou créez un fichier avec le contenu de cette URL : https://raw.githubusercontent.com/GoogleCloudPlatform/guest-configs/20230630.00/src/lib/udev/rules.d/65-gce-disk-naming.rules. Ce fichier contient le contenu mis à jour du fichier 65-gce-disk-naming.rules, y compris la ligne de l'étape précédente et d'autres règles requises pour la dénomination des disques Compute Engine. Par exemple :

    sudo curl -o 65-gce-disk-naming.rules https://raw.githubusercontent.com/GoogleCloudPlatform/guest-configs/20230630.00/src/lib/udev/rules.d/65-gce-disk-naming.rules
    
  5. Accédez au répertoire udev :

  6. Recherchez le fichier google_nvme_id dans le répertoire udev.

  7. Remplacez le contenu du fichier google_nvme_id existant ou créez un fichier avec le contenu de cette URL :

    sudo curl -o google_nvme_id https://raw.githubusercontent.com/GoogleCloudPlatform/guest-configs/20230630.00/src/lib/udev/google_nvme_id
    
  8. Assurez-vous que le fichier google_nvme_id est exécutable.

    sudo chmod 755 google_nvme_id
    
  9. Redémarrez la VM.

  10. Vérifiez que les liens symboliques ont bien été créés.

    ls -l /dev/disk/by-id/google-local-nvme-ssd*
    

    Le résultat doit répertorier le même nombre de liens que les disques SSD locaux associés à l'instance, et chaque lien doit pointer vers un chemin d'accès /dev/nvme différent. Par exemple :

    lrwxrwxrwx 1 root root 13 Jul 19 22:52 /dev/disk/by-id/google-local-nvme-ssd-0 -> ../../nvme0n1
    lrwxrwxrwx 1 root root 13 Jul 19 22:52 /dev/disk/by-id/google-local-nvme-ssd-1 -> ../../nvme1n1
    

    Pour en savoir plus sur les noms d'appareils, consultez la section Nommer les appareils.

    Vous pouvez vérifier que les chemins d'accès des appareils /dev/nvme sont des disques SSD locaux en exécutant la commande lsblk. Les disques NVMe dont la taille est de 375G sont des disques SSD locaux.

Étape suivante