Virtualisation du stockage - Storage virtualization

En informatique , la virtualisation du stockage est «le processus consistant à présenter une vue logique des ressources de stockage physique à« un système informatique hôte », en traitant tous les supports de stockage (disque dur, disque optique, bande, etc.) dans l’entreprise comme un seul. piscine de stockage. "

Un «système de stockage» est également appelé matrice de stockage, matrice de disques ou filer . Les systèmes de stockage utilisent généralement du matériel et des logiciels spéciaux ainsi que des lecteurs de disque afin de fournir un stockage très rapide et fiable pour l'informatique et le traitement des données. Les systèmes de stockage sont complexes et peuvent être considérés comme un ordinateur à usage spécial conçu pour fournir une capacité de stockage ainsi que des fonctionnalités avancées de protection des données. Les lecteurs de disque ne sont qu'un élément d'un système de stockage, avec le matériel et les logiciels intégrés à des fins spéciales au sein du système.

Les systèmes de stockage peuvent fournir soit un stockage à accès par bloc, soit un stockage à accès par fichier. L'accès en bloc est généralement fourni via Fibre Channel , iSCSI , SAS , FICON ou d'autres protocoles. L'accès aux fichiers est souvent fourni à l'aide des protocoles NFS ou SMB .

Dans le contexte d'un système de stockage, deux types principaux de virtualisation peuvent se produire:

  • La virtualisation par blocs utilisée dans ce contexte fait référence à l'abstraction (séparation) du stockage logique (partition) du stockage physique afin de pouvoir y accéder sans tenir compte du stockage physique ou de la structure hétérogène. Cette séparation permet aux administrateurs du système de stockage une plus grande flexibilité dans la façon dont ils gèrent le stockage pour les utilisateurs finaux.
  • La virtualisation de fichiers répond aux défis du NAS en éliminant les dépendances entre les données accessibles au niveau des fichiers et l'emplacement où les fichiers sont physiquement stockés. Cela permet d'optimiser l'utilisation du stockage et la consolidation des serveurs et d'effectuer des migrations de fichiers sans interruption.

Bloquer la virtualisation

Remappage de l'espace d'adressage

La virtualisation du stockage permet d'atteindre l'indépendance de l'emplacement en faisant abstraction de l'emplacement physique des données. Le système de virtualisation présente à l'utilisateur un espace logique pour le stockage des données et gère le processus de mappage vers l'emplacement physique réel.

Il est possible d'avoir plusieurs couches de virtualisation ou de cartographie. Il est alors possible que la sortie d'une couche de virtualisation puisse ensuite être utilisée comme entrée pour une couche supérieure de virtualisation. La virtualisation mappe l'espace entre les ressources principales et les ressources frontales. Dans ce cas, «back-end» fait référence à un numéro d'unité logique (LUN) qui n'est pas présenté à un ordinateur ou à un système hôte pour une utilisation directe. Un LUN ou volume «frontal» est présenté à un hôte ou à un système informatique pour utilisation.

La forme réelle du mappage dépendra de l'implémentation choisie. Certaines implémentations peuvent limiter la granularité du mappage, ce qui peut limiter les capacités du périphérique. Les granularités typiques vont d'un seul disque physique à un petit sous-ensemble (multiples de mégaoctets ou gigaoctets) du disque physique.

Dans un environnement de stockage basé sur des blocs, un seul bloc d'informations est adressé à l'aide d'un identificateur de LUN et d'un décalage au sein de ce LUN - appelé adressage de bloc logique (LBA).

Métadonnées

Le logiciel ou le périphérique de virtualisation est chargé de maintenir une vue cohérente de toutes les informations de mappage pour le stockage virtualisé. Ces informations de mappage sont souvent appelées métadonnées et sont stockées sous forme de table de mappage.

L'espace d'adressage peut être limité par la capacité nécessaire pour maintenir la table de mappage. Le niveau de granularité et l'espace adressable total ont tous deux un impact direct sur la taille des méta-données, et donc sur la table de mappage. Pour cette raison, il est courant d'avoir des compromis entre la quantité de capacité adressable et la granularité ou la granularité d'accès.

Une méthode courante pour surmonter ces limites consiste à utiliser plusieurs niveaux de virtualisation. Dans plusieurs systèmes de stockage déployés aujourd'hui, il est courant d'utiliser trois couches de virtualisation.

Certaines implémentations n'utilisent pas de table de mappage et calculent à la place des emplacements à l'aide d'un algorithme. Ces implémentations utilisent des méthodes dynamiques pour calculer l'emplacement lors de l'accès, plutôt que de stocker les informations dans une table de mappage.

Redirection d'E / S

Le logiciel ou le périphérique de virtualisation utilise les métadonnées pour rediriger les demandes d'E / S. Il recevra une demande d'E / S entrante contenant des informations sur l'emplacement des données en termes de disque logique (vdisk) et le traduira en une nouvelle demande d'E / S vers l'emplacement du disque physique.

Par exemple, le périphérique de virtualisation peut:

  • Recevoir une demande de lecture pour vdisk LUN ID = 1, LBA = 32
  • Effectuez une recherche de méta-données pour LUN ID = 1, LBA = 32, et trouve que cela correspond à l'ID LUN physique = 7, LBA0
  • Envoie une demande de lecture à l'ID de LUN physique = 7, LBA0
  • Reçoit les données du LUN physique
  • Renvoie les données à l'expéditeur comme si elles provenaient du vdisk LUN ID = 1, LBA32

Capacités

La plupart des implémentations permettent une gestion hétérogène des périphériques de stockage multifournisseurs dans le cadre de la matrice de prise en charge d'une implémentation donnée. Cela signifie que les capacités suivantes ne sont pas limitées au périphérique d'un seul fournisseur (comme avec des capacités similaires fournies par des contrôleurs de stockage spécifiques) et sont en fait possibles sur les périphériques de différents fournisseurs.

Réplication

Les techniques de réplication de données ne sont pas limitées aux appliances de virtualisation et ne sont donc pas décrites ici en détail. Cependant, la plupart des implémentations fourniront tout ou partie de ces services de réplication.

Lorsque le stockage est virtualisé, les services de réplication doivent être implémentés au-dessus du logiciel ou du périphérique qui exécute la virtualisation. Cela est vrai car ce n'est qu'au-dessus de la couche de virtualisation qu'une image fidèle et cohérente du disque logique (vdisk) peut être copiée. Cela limite les services que certaines implémentations peuvent implémenter - ou les rend très difficiles à implémenter. Si la virtualisation est implémentée dans le réseau ou plus, cela rend les services de réplication fournis par les contrôleurs de stockage sous-jacents inutiles.

  • Réplication de données à distance pour la reprise après sinistre
    • Mise en miroir synchrone - où l'achèvement des E / S n'est renvoyé que lorsque le site distant reconnaît l'achèvement. Applicable pour des distances plus courtes (<200 km)
    • Mise en miroir asynchrone - où l'achèvement des E / S est renvoyé avant que le site distant ait accusé réception de l'achèvement. Applicable pour des distances beaucoup plus grandes (> 200 km)
  • Instantanés instantanés pour copier ou cloner des données pour diverses utilisations

mise en commun

Les ressources de stockage physique sont agrégées en pools de stockage, à partir desquels le stockage logique est créé. D'autres systèmes de stockage, qui peuvent être de nature hétérogène, peuvent être ajoutés au fur et à mesure des besoins, et l'espace de stockage virtuel augmentera d'autant. Ce processus est totalement transparent pour les applications utilisant l'infrastructure de stockage.

Gestion de disque

Le logiciel ou le périphérique fournissant la virtualisation du stockage devient un gestionnaire de disque commun dans l'environnement virtualisé. Les disques logiques (vdisks) sont créés par le logiciel ou le périphérique de virtualisation et sont mappés (rendus visibles) à l'hôte ou au serveur requis, fournissant ainsi un lieu ou un moyen commun de gérer tous les volumes de l'environnement.

Les fonctionnalités améliorées sont faciles à fournir dans cet environnement:

  • Thin Provisioning pour maximiser l'utilisation du stockage
    • Ceci est relativement facile à mettre en œuvre car le stockage physique n'est alloué dans la table de mappage que lorsqu'il est utilisé.
  • Extension et réduction du disque
    • Plus de stockage physique peut être alloué en ajoutant à la table de mappage (en supposant que le système utilisateur peut faire face à l'expansion en ligne)
    • De même, la taille des disques peut être réduite en supprimant une partie du stockage physique du mappage (les utilisations pour cela sont limitées car il n'y a aucune garantie de ce qui réside sur les zones supprimées)

Avantages

Migration de données sans interruption

L'un des principaux avantages de la soustraction de l'hôte ou du serveur du stockage réel est la possibilité de migrer les données tout en conservant l'accès simultané aux E / S.

L'hôte ne connaît que le disque logique (le LUN mappé) et toute modification du mappage des méta-données est donc transparente pour l'hôte. Cela signifie que les données réelles peuvent être déplacées ou répliquées vers un autre emplacement physique sans affecter le fonctionnement d'un client. Lorsque les données ont été copiées ou déplacées, les méta-données peuvent simplement être mises à jour pour pointer vers le nouvel emplacement, libérant ainsi le stockage physique à l'ancien emplacement.

Le processus de déplacement de l'emplacement physique est appelé migration de données . La plupart des implémentations permettent d'effectuer cette opération sans interruption, c'est-à-dire simultanément pendant que l'hôte continue d'effectuer des E / S sur le disque logique (ou LUN).

La granularité du mappage détermine la rapidité avec laquelle les métadonnées peuvent être mises à jour, la capacité supplémentaire requise pendant la migration et la rapidité avec laquelle l'emplacement précédent est marqué comme libre. Plus la granularité est petite, plus la mise à jour est rapide, moins d'espace requis et plus rapidement l'ancien stockage peut être libéré.

Un administrateur de stockage doit effectuer de nombreuses tâches quotidiennes qui peuvent être effectuées simplement et simultanément à l'aide de techniques de migration de données.

  • Déplacement des données d'un périphérique de stockage surutilisé.
  • Déplacement des données sur un périphérique de stockage plus rapide selon les besoins
  • Mettre en œuvre une politique de gestion du cycle de vie des informations
  • Migration de données depuis des périphériques de stockage plus anciens (en cours de mise au rebut ou de location)

Meilleure utilisation

L'utilisation peut être augmentée grâce aux services de mise en commun, de migration et de provisionnement léger. Cela permet aux utilisateurs d'éviter de suracheter et de surapprovisionner les solutions de stockage. En d'autres termes, ce type d'utilisation via un pool de stockage partagé peut être alloué facilement et rapidement car il est nécessaire pour éviter les contraintes sur la capacité de stockage qui entravent souvent les performances des applications.

Lorsque toute la capacité de stockage disponible est mise en commun, les administrateurs système n'ont plus à rechercher des disques disposant d'espace libre à allouer à un hôte ou un serveur particulier. Un nouveau disque logique peut être simplement alloué à partir du pool disponible ou un disque existant peut être étendu.

La mise en commun signifie également que toute la capacité de stockage disponible peut potentiellement être utilisée. Dans un environnement traditionnel, un disque entier serait mappé sur un hôte. Cela peut être plus grand que nécessaire, gaspillant ainsi de l'espace. Dans un environnement virtuel, le disque logique (LUN) se voit attribuer la capacité requise par l'hôte utilisateur.

Le stockage peut être affecté là où il est nécessaire à ce moment-là, ce qui réduit le besoin de deviner ce dont un hôte donné aura besoin à l'avenir. À l'aide du Thin Provisioning , l'administrateur peut créer un très grand disque logique à allocation dynamique, de sorte que le système utilisateur pense qu'il dispose d'un très grand disque dès le premier jour.

Moins de points de gestion

Avec la virtualisation du stockage, plusieurs périphériques de stockage indépendants, même s'ils sont dispersés sur un réseau, semblent être un seul périphérique de stockage monolithique et peuvent être gérés de manière centralisée.

Cependant, la gestion traditionnelle des contrôleurs de stockage est toujours requise. Autrement dit, la création et la maintenance de matrices RAID , y compris la gestion des erreurs et des pannes.

Des risques

Annulation d'une implémentation ayant échoué

Une fois la couche d'abstraction en place, seul le virtualiseur sait où les données résident réellement sur le support physique. La sauvegarde d'un environnement de stockage virtuel nécessite donc la reconstruction des disques logiques en disques contigus utilisables de manière traditionnelle.

La plupart des implémentations fourniront une forme de procédure de retrait et avec les services de migration de données, c'est au moins possible, mais prend du temps.

Interopérabilité et support des fournisseurs

L'interopérabilité est un élément clé de tout logiciel ou périphérique de virtualisation. Elle s'applique aux contrôleurs de stockage physiques réels et aux hôtes, à leurs systèmes d'exploitation, aux logiciels multi-chemins et au matériel de connectivité.

Les exigences d'interopérabilité diffèrent en fonction de l'implémentation choisie. Par exemple, la virtualisation implémentée dans un contrôleur de stockage n'ajoute aucune surcharge supplémentaire à l'interopérabilité basée sur l'hôte, mais nécessitera une prise en charge supplémentaire d'autres contrôleurs de stockage s'ils doivent être virtualisés par le même logiciel.

La virtualisation basée sur le commutateur peut ne pas nécessiter d'interopérabilité d'hôte spécifique - si elle utilise des techniques de craquage de paquets pour rediriger les E / S.

Les appliances basées sur le réseau ont le plus haut niveau d'exigences d'interopérabilité car elles doivent interagir avec tous les périphériques, stockage et hôtes.

Complexité

La complexité touche plusieurs domaines:

  • Gestion de l'environnement: bien qu'une infrastructure de stockage virtuel bénéficie d'un point unique de gestion du disque logique et du service de réplication, le stockage physique doit toujours être géré. La détermination des problèmes et l'isolement des pannes peuvent également devenir complexes, en raison de la couche d'abstraction.
  • Conception d'infrastructure: l'éthique de conception traditionnelle peut ne plus s'appliquer, la virtualisation apporte toute une gamme de nouvelles idées et concepts à réfléchir (comme détaillé ici)
  • Le logiciel ou le périphérique lui-même: certaines implémentations sont plus complexes à concevoir et à coder - en particulier les conceptions basées sur le réseau, en particulier dans la bande (symétriques) - ces implémentations gèrent en fait les demandes d'E / S et la latence devient donc un problème.

Gestion des métadonnées

L'information est l'un des atouts les plus précieux dans les environnements commerciaux d'aujourd'hui. Une fois virtualisées, les métadonnées sont le ciment du milieu. Si les métadonnées sont perdues, toutes les données réelles le sont également, car il serait pratiquement impossible de reconstruire les disques logiques sans les informations de mappage.

Toute implémentation doit assurer sa protection avec des niveaux appropriés de sauvegardes et de répliques. Il est important de pouvoir reconstruire les méta-données en cas de panne catastrophique.

La gestion des métadonnées a également des implications sur les performances. Tout logiciel ou périphérique de virtualisation doit pouvoir conserver toutes les copies des métadonnées atomiques et rapidement actualisables. Certaines implémentations limitent la capacité de fournir certaines fonctions de mise à jour rapide, telles que les copies ponctuelles et la mise en cache où des mises à jour ultra rapides sont nécessaires pour assurer une latence minimale aux E / S réelles en cours d'exécution.

Performance et évolutivité

Dans certaines implémentations, les performances du stockage physique peuvent en fait être améliorées, principalement grâce à la mise en cache. La mise en cache nécessite cependant la visibilité des données contenues dans la demande d'E / S et est donc limitée aux logiciels et aux périphériques de virtualisation intrabande et symétrique. Cependant, ces implémentations influencent également directement la latence d'une demande d'E / S (cache manquant), car les E / S doivent transiter par le logiciel ou le périphérique. En supposant que le logiciel ou le périphérique est conçu de manière efficace, cet impact devrait être minime par rapport à la latence associée aux accès au disque physique.

En raison de la nature de la virtualisation, le mappage de logique à physique nécessite une certaine puissance de traitement et des tables de recherche. Par conséquent, chaque implémentation ajoutera une petite quantité de latence.

En plus des problèmes de temps de réponse, le débit doit être pris en compte. La bande passante entrant et sortant du logiciel de recherche de méta-données a un impact direct sur la bande passante système disponible. Dans les implémentations asymétriques, où la recherche de méta-données se produit avant que les informations ne soient lues ou écrites, la bande passante est moins préoccupante car les méta-données ne représentent qu'une infime fraction de la taille réelle des E / S. Le flux symétrique dans la bande dans les conceptions est directement limité par leur puissance de traitement et leurs largeurs de bande de connectivité.

La plupart des implémentations fournissent une forme de modèle évolutif, dans lequel l'inclusion de logiciels ou d'instances de périphériques supplémentaires offre une évolutivité accrue et une bande passante potentiellement accrue. Les caractéristiques de performance et d'évolutivité sont directement influencées par l'implémentation choisie.

Approches de mise en œuvre

  • Basé sur l'hôte
  • Basé sur un périphérique de stockage
  • Basé sur le réseau

Basé sur l'hôte

La virtualisation basée sur l'hôte nécessite des logiciels supplémentaires s'exécutant sur l'hôte, en tant que tâche ou processus privilégié. Dans certains cas, la gestion des volumes est intégrée au système d'exploitation, et dans d'autres cas, elle est proposée en tant que produit distinct. Les volumes (LUN) présentés au système hôte sont gérés par un pilote de périphérique physique traditionnel. Cependant, une couche logicielle (le gestionnaire de volume) réside au-dessus du pilote de périphérique de disque intercepte les demandes d'E / S et fournit la recherche de métadonnées et le mappage d'E / S.

La plupart des systèmes d'exploitation modernes ont une forme de gestion de volume logique intégrée (sous Linux appelée Logical Volume Manager ou LVM; sous Solaris et FreeBSD, la couche zpool de ZFS ; sous Windows appelée Logical Disk Manager ou LDM), qui effectue des tâches de virtualisation.

Remarque: les gestionnaires de volumes basés sur l'hôte étaient utilisés bien avant l'apparition du terme virtualisation du stockage .

Avantages
  • Simple à concevoir et à coder
  • Prend en charge tout type de stockage
  • Améliore l'utilisation du stockage sans restrictions de provisionnement fin
Les inconvénients
  • Utilisation du stockage optimisée uniquement sur une base par hôte
  • La réplication et la migration des données ne sont possibles que localement vers cet hôte
  • Le logiciel est unique à chaque système d'exploitation
  • Aucun moyen simple de synchroniser les instances d'hôte avec d'autres instances
  • La récupération de données traditionnelle suite à une panne de lecteur de disque serveur est impossible

Exemples spécifiques

Basé sur un périphérique de stockage

À l'instar de la virtualisation basée sur l'hôte, plusieurs catégories existent depuis des années et n'ont été classées que récemment comme virtualisation. Les périphériques de stockage de données simples, comme les disques durs uniques , ne fournissent aucune virtualisation. Mais même les baies de disques les plus simples fournissent une abstraction logique à physique, car elles utilisent des schémas RAID pour joindre plusieurs disques dans une seule matrice (et éventuellement diviser plus tard la matrice en volumes plus petits).

Les baies de disques avancées comportent souvent le clonage, les instantanés et la réplication à distance. En général, ces périphériques n'offrent pas les avantages de la migration ou de la réplication de données sur un stockage hétérogène, car chaque fournisseur a tendance à utiliser ses propres protocoles propriétaires.

Une nouvelle génération de contrôleurs de réseau de disques permet la connexion en aval d'autres périphériques de stockage. Pour les besoins de cet article, nous ne discuterons que du style ultérieur qui virtualise réellement d'autres périphériques de stockage.

Concept

Un contrôleur de stockage principal fournit les services et permet la connexion directe d'autres contrôleurs de stockage. En fonction de la mise en œuvre, ceux-ci peuvent provenir du même fournisseur ou de fournisseurs différents.

Le contrôleur principal fournira les services de mise en commun et de gestion des métadonnées. Il peut également fournir des services de réplication et de migration sur les contrôleurs dont il s'agit.

Avantages
  • Pas d'exigences supplémentaires en matière de matériel ou d'infrastructure
  • Fournit la plupart des avantages de la virtualisation du stockage
  • N'ajoute pas de latence aux E / S individuelles
Les inconvénients
  • Utilisation du stockage optimisée uniquement sur les contrôleurs connectés
  • La réplication et la migration des données ne sont possibles que sur les contrôleurs connectés et le même appareil du fournisseur pour une assistance longue distance
  • Attachement du contrôleur en aval limité à la matrice de prise en charge des fournisseurs
  • La latence d'E / S, les hits sans cache nécessitent que le contrôleur de stockage principal émette une demande d'E / S secondaire en aval
  • Augmentation des ressources d'infrastructure de stockage, le contrôleur de stockage principal nécessite la même bande passante que les contrôleurs de stockage secondaires pour maintenir le même débit

Basé sur le réseau

Virtualisation du stockage fonctionnant sur un périphérique réseau (généralement un serveur standard ou un commutateur intelligent) et utilisant des réseaux iSCSI ou FC Fibre Channel pour se connecter en tant que SAN . Ces types de périphériques sont la forme de virtualisation la plus couramment disponible et mise en œuvre.

Le périphérique de virtualisation se trouve dans le SAN et fournit la couche d'abstraction entre les hôtes effectuant les E / S et les contrôleurs de stockage fournissant la capacité de stockage.

Avantages
  • Véritable virtualisation du stockage hétérogène
  • La mise en cache des données (avantage en termes de performances) est possible en mode intrabande
  • Interface de gestion unique pour tout le stockage virtualisé
  • Services de réplication sur des appareils hétérogènes
Les inconvénients
  • Matrices d'interopérabilité complexes - limitées par le support des fournisseurs
  • Difficile de mettre en œuvre des mises à jour rapides des méta-données dans les appareils à commutation
  • Out-of-band nécessite un logiciel spécifique basé sur l'hôte
  • Intra-bande peut ajouter de la latence aux E / S
  • In-band le plus compliqué à concevoir et à coder
Basé sur l'appliance ou basé sur le commutateur

Il existe deux implémentations couramment disponibles de la virtualisation du stockage basée sur le réseau, basée sur l' appliance et basée sur le commutateur . Les deux modèles peuvent fournir les mêmes services, la gestion des disques, la recherche de métadonnées, la migration et la réplication des données. Les deux modèles nécessitent également du matériel de traitement pour fournir ces services.

Les périphériques basés sur l'appliance sont des périphériques matériels dédiés qui fournissent une connectivité SAN sous une forme ou une autre. Ceux-ci se situent entre les hôtes et le stockage et, dans le cas des appliances intrabande (symétriques), peuvent fournir tous les avantages et services décrits dans cet article. Les demandes d'E / S sont ciblées sur l'appliance elle-même, qui effectue le mappage des métadonnées avant de rediriger les E / S en envoyant sa propre demande d'E / S vers le stockage sous-jacent. L'appliance intrabande peut également fournir la mise en cache des données, et la plupart des implémentations fournissent une forme de clustering d'appareils individuels pour maintenir une vue atomique des métadonnées ainsi que des données de cache.

Les périphériques basés sur des commutateurs, comme leur nom l'indique, résident dans le matériel de commutation physique utilisé pour connecter les périphériques SAN. Celles-ci se situent également entre les hôtes et le stockage, mais peuvent utiliser différentes techniques pour fournir le mappage des métadonnées, telles que le craquage de paquets pour surveiller les demandes d'E / S entrantes et effectuer la redirection d'E / S. Il est beaucoup plus difficile d'assurer des mises à jour atomiques des métadonnées dans un environnement commuté et les services nécessitant des mises à jour rapides des données et des métadonnées peuvent être limités dans les implémentations commutées.

In-band vs out-of-band

Dans la bande , également appelés périphériques de virtualisation symétriques , se trouvent en fait dans le chemin des données entre l'hôte et le stockage. Toutes les demandes d'E / S et leurs données transitent par l'appareil. Les hôtes effectuent des E / S sur le périphérique de virtualisation et n'interagissent jamais avec le périphérique de stockage réel. Le périphérique de virtualisation effectue à son tour des E / S sur le périphérique de stockage. La mise en cache des données, les statistiques sur l'utilisation des données, les services de réplication, la migration des données et le provisionnement léger sont tous facilement mis en œuvre dans un appareil intrabande.

Hors bande , également appelés périphériques de virtualisation asymétriques , sont parfois appelés serveurs de méta-données . Ces appareils n'effectuent que les fonctions de mappage de méta-données. Cela nécessite un logiciel supplémentaire dans l'hôte qui sait d'abord demander l'emplacement des données réelles. Par conséquent, une demande d'E / S de l'hôte est interceptée avant de quitter l'hôte, une recherche de méta-données est demandée au serveur de métadonnées (cela peut être via une interface autre que le SAN) qui renvoie l'emplacement physique du données à l'hôte. Les informations sont ensuite récupérées via une demande d'E / S réelle vers le stockage. La mise en cache n'est pas possible car les données ne transitent jamais par l'appareil.

Virtualisation basée sur les fichiers

Un synonyme utilisé pour la virtualisation NAS.

Voir également

Les références