Suite

Échec de l'ajout d'une couche de points dans QGIS à partir de SQL Server

Échec de l'ajout d'une couche de points dans QGIS à partir de SQL Server


Je viens de télécharger QGIS il y a quelques jours (version 2.8.2-Wien) mais je ne parviens pas à le faire fonctionner comme je le pensais. J'ai essayé d'extraire des données spatiales du serveur SQL (une colonne "géométrie" contenant des points). Je clique sur le bouton qui dit "Ajouter une couche spatiale MSSQL" et trouve ma table de points mais lorsque je clique sur le bouton "Ajouter", cela me donne cette erreur (après une minute):

dbname='myDb' host=localhostsqlserver2014 srid=4326 type=POINT table="dbo"."Locations_Sample" (spatial_data_point) sql= est une couche non valide et ne peut pas être chargée. Veuillez consulter le journal des messages pour plus d'informations.

Les mots "message de journal" dans cette erreur étaient un lien dans QGIS, j'ai donc cliqué dessus et il a ouvert un panneau "Messages de journal" et sur ce panneau (sur l'onglet "Général"), il y avait juste le même message d'erreur que j'ai tapé ci-dessus (avec une différence de texte sans conséquence… il est dit "est un calque invalide - non chargé" au lieu de "et ne peut pas être chargé").

J'ai essayé de réduire cette table source ("Locations_Sample") (elle était d'environ 120 000 points, j'ai donc essayé d'utiliser seulement 100 points) et cette petite table importée sans problème. J'ai ensuite essayé d'augmenter la quantité de données dans cette table et d'appuyer sur le bouton "Actualiser" dans QGIS pour trouver quelle était la limite de lignes, mais il a réussi à s'actualiser à chaque fois que j'ai essayé jusqu'aux 120 000 lignes complètes (montrant tous les points sur la carte pour autant que je sache). Cela peut sembler être une solution de contournement, mais je ne pense pas que ce soit vraiment le cas, car chaque fois que je ferme et rouvre le projet, des erreurs se produisent lorsque j'essaie de charger cette couche… d'autres éléments (comme le générateur de raster de carte thermique) échouent peut-être à cause à ce problème de "couche invalide".

Pour info, j'ai par la suite essayé de charger la table avec 100 enregistrements dans un premier temps, puis de mettre tous les enregistrements dans la table source "Locations_Sample" et cela a toujours fonctionné. Je pense également que le problème avec la génération de raster de carte thermique est qu'il ne fonctionne qu'avec les enregistrements initiaux que je charge (100 points).

Comment puis-je comprendre quel est le problème avec cette couche (et idéalement le résoudre) ?


Merci de votre aide! (Nathan m'a aidé sur la page de suivi des problèmes de QGIS avec le même conseil qu'il a publié ici et que mapBaker a également publié). J'ai ajouté une colonne int unique à cette table, puis elle a chargé la couche sans problème.

Merci encore.


Impossible de charger les couches de SQL Server dans le géoserveur

J'ai essayé de charger une couche à partir du serveur SQL dans le géoserveur, mais les couches ne se chargent pas et le navigateur ne génère aucune erreur.

Mon calque est créé comme ceci :

Et lorsque j'essaie de prévisualiser ma couche avec openlayer dans le géoserveur, ma couche se charge, et la boîte où est censée voir mes couches reste blanche.


2 réponses 2

A la question que tu as posée :

Je ne compterais pas uniquement sur la file d'attente sur disque. En fait, je regarde rarement la longueur des files d'attente sur le disque, à moins que je n'entre en profondeur avec un problème. Il est préférable de regarder la latence de votre disque. Ce sont les Moy. Compteurs Disk Sec/Read (ou /Write et /Transfer). Cela vous indique quelle est la latence de votre disque du point de vue de Windows. Donc, le temps que la demande prenait après avoir été envoyée sur le disque et ramenée. La file d'attente de disque de nos jours ne vous dit pas grand-chose car la plupart des sous-systèmes d'E/S sont capables de gérer une profondeur de file d'attente de disque et ont plusieurs broches travaillant dans votre groupe RAID souvent. Enfin - dans ce cas - la longueur de votre file d'attente de disque n'a même pas l'air si mauvaise. À partir de là, il semble que le maximum qu'il était au moment de cette capture d'écran (pour la longueur moyenne) était de 1,377. Ce n'est rien sur la plupart des systèmes SQL Server. Regardez votre latence réelle. De plus, je ne regarde pas le % de temps de disque. Je regarde plutôt le temps d'inactivité. C'est un compteur plus fiable et il suffit de faire un peu de calcul pour le lire. Plus il est inactif, moins il y a d'activité.

À la question générale derrière votre question

Je vais poser celle-ci en commençant par une question - Pourquoi êtes-vous allé directement à votre IO? Il pourrait y avoir un certain nombre de choses qui causent votre ralentissement. Et pour répondre de manière exhaustive ici, c'est difficile mais un niveau élevé de certaines choses à regarder/considérer :

  • Vous rencontrez des blocages ? Je téléchargerais SP_Whoisactive et je regarderais cela pendant que vous obtenez ces erreurs. Voyez-vous le blocage? Voyez-vous la requête derrière la ou les requêtes qui expirent ? Quelle est la durée ?
    • Avez-vous analysé vos statistiques d'attente SQL Server pour voir quelle est votre principale cause d'attente ?
    • Savez-vous quelle(s) requête(s) sont à l'origine des délais d'attente ? Si oui, pouvez-vous les examiner et voir s'il y a de la place pour le réglage ?

    Il pourrait y avoir beaucoup d'autres choses ici. Cela peut être sur la connexion ou le réseau. Cela peut être bloquant, cela peut être un besoin de réglage d'index et de réglage des requêtes, il se peut que vous vous attendiez à ce que les requêtes prennent plus de temps que le délai d'attente de 30 secondes par défaut, etc.

    Mais j'essaierais de rassembler plus de données, puis de choisir un chemin à suivre. Il s'agit d'un vieux livre blanc, mais il est très utile pour le réglage des performances par attente. Bien qu'il y ait un nouveau type d'attente que Tom n'a pas mentionné dans cet article, il s'applique toujours et vous aidera.


    Le script PowerShell intégré à l'agent SQL dans l'étape CmdExec échoue avec le module d'importation sqlps

    J'essaie de créer un travail d'agent SQL qui sauvegarde dynamiquement toutes les bases de données SSAS non corrompues sur une instance sans utiliser SSIS. Dans mon travail d'agent SQL, lorsque je crée une étape CmdExec et que je pointe vers un fichier de script PowerShell (.ps1) comme celui-ci :

    le travail s'exécute avec succès (ou au moins va assez loin pour ne rencontrer que des problèmes de logique ou d'autres problèmes de syntaxe).

    Cette approche ne fonctionnera pas pour une solution finale, car il est nécessaire de conserver le script PowerShell interne à SQL. J'ai donc une étape CmdExec différente qui intègre le script PowerShell comme suit :

    Cependant, lorsqu'il est exécuté avec le script intégré, le travail génère une erreur rapidement avec la réponse suivante :

    Le module spécifié 'sqlps' n'a pas été chargé car aucun fichier de module valide n'a été trouvé dans aucun répertoire de module.

    Pourquoi ne puis-je pas référencer le module à partir d'un script intégré, mais le faire dans un fichier ps1 fonctionne très bien ?


    SharePoint stocke tout dans la base de données de contenu. Dans chaque base de données de contenu, il existe de nombreuses tables qui contiennent les informations.

    Disons que vous avez collection de sites A dans contenu DB 01, Ainsi, lorsque l'utilisateur crée un site sous un collection de sites A il stocke toutes les informations du contenu à la sécurité dans le Contenu DB 01. Pour spécifiquement l'autorisation de l'utilisateur liée.

    Groupes: table qui contient des informations sur tous les groupes SharePoint dans chaque collection de sites.

    Les rôles:Table qui contient des informations sur tous les rôles SharePoint (niveaux d'autorisation) pour chaque site.

    Appartenance à un groupe: table qui contient des informations sur tous les membres du groupe SharePoint.

    RôleAffectation"Table qui contient des informations sur tous les utilisateurs ou groupes SharePoint affectés à des rôles.

    Voici un excellent blog sur la table importante de technet epxlains dans une base de données de contenu. Dans une base de données de contenu SharePoint


    Conception de solutions

    Cette section contient les éléments suivants :

    Configuration du stockage · pour les machines virtuelles invitées SQL

    Introduction

    Cette section détaille les composants architecturaux de Cisco HyperFlex, un système hyperconvergé pour héberger des bases de données Microsoft SQL Server dans un environnement virtuel. La figure 8 illustre un exemple d'architecture de référence hyperconvergée Cisco HyperFlex comprenant des nœuds de données tout-NVMe HX-Series.

    Cisco HyperFlex est composé d'une paire d'interconnexions de structure Cisco UCS ainsi que de jusqu'à seize nœuds de données tout-NVMe HX-Series par cluster. Jusqu'à 16 serveurs de calcul uniquement peuvent également être ajoutés par cluster HyperFlex. L'ajout de serveurs Cisco UCS montés en rack et/ou de châssis lame Cisco UCS 5108, qui abritent des serveurs lame Cisco UCS, permet des ressources de calcul supplémentaires dans une conception de cluster étendu. Jusqu'à huit clusters HX distincts peuvent être installés sous une seule paire de Fabric Interconnects. Les deux interconnexions Fabric se connectent à chaque serveur monté en rack HX-Series et se connectent à chaque châssis lame Cisco UCS 5108 et serveur monté en rack Cisco UCS. Les connexions réseau en amont, également appelées «direction nord", sont réalisés à partir des Fabric Interconnects vers le réseau du centre de données client au moment de l'installation. Dans le schéma de référence ci-dessus, une paire de commutateurs de la gamme Cisco Nexus 9000 est utilisée et configurée en tant que paires de vPC pour une haute disponibilité. Pour plus de détails sur la connectivité physique des services HX-Series, les serveurs de calcul uniquement, Fabric Interconnect au réseau nord, veuillez vous référer à la section Physical Topology de Cisco HyperFlex 4.0 pour Virtual Server Infrastructure avec VMware ESXi CVD.

    Les services d'infrastructure tels qu'Active Directory, DNS, NTP et VMWare vCenter sont généralement installés en dehors du cluster HyperFlex. Les clients peuvent tirer parti de ces services existants en déployant et en gérant le cluster HyperFlex.

    La solution de stockage HyperFlex dispose de plusieurs techniques de protection des données, comme expliqué en détail dans la section Présentation de la technologie, dont l'une est la réplication des données qui doit être configurée lors de la création du cluster HyperFlex. En fonction des exigences spécifiques en matière de performances et de protection des données, le client peut choisir un facteur de réplication de deux (RF2) ou de trois (RF3). Pour la validation de la solution (décrite dans la section « Test et validation de la solution » plus loin dans ce document), nous avions configuré le cluster de test HyperFlex pour qu'il soit de facteur de réplication 3 (RF3).

    Comme décrit dans la section Présentation de la technologie précédente, le logiciel du système de fichiers distribué Cisco HyperFlex s'exécute dans une machine virtuelle de contrôleur, qui est installée sur chaque nœud de cluster. Ces VM de contrôleur regroupent et gèrent tous les périphériques de stockage et exposent le stockage sous-jacent en tant que points de montage NFS vers les hyperviseurs VMware ESXi. Les hyperviseurs ESXi exposent ces points de montage NFS en tant que banques de données aux machines virtuelles invitées pour stocker leurs données.

    Pour ce document, la validation est effectuée uniquement sur les nœuds convergés HXAF220c-M5N All-NVMe, qui agissent à la fois comme nœud de calcul et de stockage.

    Conception de réseau logique

    Dans le système Cisco HyperFlex All-NVMe, Cisco VIC 1387 est utilisé pour fournir les interfaces réseau logiques requises sur chaque hôte du cluster. Les voies de communication du système Cisco HyperFlex peuvent être classées en quatre zones de trafic différentes, comme décrit ci-dessous.

    &point médian Zone de gestion : Cette zone comprend les connexions nécessaires à la gestion du matériel physique, des hôtes hyperviseurs et des machines virtuelles du contrôleur de plate-forme de stockage (SCVM). Ces interfaces et adresses IP doivent être disponibles pour tout le personnel qui administrera le système HX, à travers le LAN/WAN. Cette zone doit fournir un accès aux services DNS (Domain Name System) et NTP (Network Time Protocol) et permettre la communication Secure Shell (SSH). Dans cette zone se trouvent plusieurs composants physiques et virtuels :

    - Ports de gestion Fabric Interconnect.

    - Interfaces de gestion externes Cisco UCS utilisées par les serveurs, qui répondent via les ports de gestion FI.

    - Interfaces de gestion des hôtes ESXi.

    - Interfaces de gestion des VM du contrôleur de stockage.

    - Une interface de gestion de cluster HX en itinérance.

    - Interfaces de gestion de VM du contrôleur de stockage.

    &point médian Zone de machine virtuelle : Cette zone comprend les connexions nécessaires pour desservir les E/S du réseau vers les machines virtuelles invitées qui s'exécuteront à l'intérieur du système hyperconvergé HyperFlex. Cette zone contient généralement plusieurs VLAN qui sont agrégés aux interconnexions Cisco UCS Fabric via les liaisons montantes du réseau et étiquetés avec des ID de VLAN 802.1Q. Ces interfaces et adresses IP doivent être disponibles pour tout le personnel et les autres points de terminaison informatiques qui doivent communiquer avec les machines virtuelles invitées dans le système HX, à travers le LAN/WAN.

    &point médian Zone de stockage : Cette zone comprend les connexions utilisées par le logiciel Cisco HX Data Platform, les hôtes ESXi et les machines virtuelles du contrôleur de stockage pour desservir le système de fichiers de données distribuées HX. Ces interfaces et adresses IP doivent toujours pouvoir communiquer entre elles pour un bon fonctionnement. Pendant le fonctionnement normal, tout ce trafic se produit dans le domaine Cisco UCS, mais il existe des scénarios de panne matérielle où ce trafic devrait traverser le réseau en direction du nord du domaine Cisco UCS. Pour cette raison, le VLAN utilisé pour le trafic de stockage HX doit pouvoir traverser les liaisons montantes du réseau depuis le domaine Cisco UCS, atteignant FI A depuis FI B, et vice-versa. Cette zone est principalement un trafic de trames jumbo, par conséquent les trames jumbo doivent être activées sur les liaisons montantes Cisco UCS. Dans cette zone se trouvent plusieurs composants :

    - Une interface groupée est utilisée pour le trafic de stockage sur chaque hôte Hyper-V du cluster HX.

    - Interfaces de stockage VM du contrôleur de stockage.

    - Une interface de stockage en cluster HX itinérant.

    &point médian Zone vMotion : Cette zone comprend les connexions utilisées par les hôtes ESXi pour permettre la migration en direct des machines virtuelles invitées d'hôte à hôte. Pendant le fonctionnement normal, tout ce trafic se produit dans le domaine Cisco UCS, mais il existe des scénarios de panne matérielle où ce trafic devrait traverser le réseau en direction du nord du domaine Cisco UCS. Pour cette raison, le VLAN utilisé pour le trafic de migration en direct HX doit pouvoir traverser les liaisons montantes du réseau depuis le domaine Cisco UCS, atteignant FI A depuis FI B, et vice-versa.

    En tirant parti des modèles Cisco UCS vNIC, des politiques de connectivité LAN et des politiques de placement de vNIC dans le profil de service, huit vNIC sont extraites de Cisco VIC 1387 sur chaque serveur HX-Series pour les zones de trafic réseau mentionnées ci-dessus. Chaque serveur HX-Series détectera les interfaces réseau dans le même ordre et elles seront toujours connectées aux mêmes VLAN via les mêmes matrices de réseau. Le tableau 1 répertorie les vNIC et d'autres détails de configuration utilisés dans la solution.

    La figure 9 illustre la conception de réseau logique d'un serveur HX-Series du cluster HyperFlex.

    Comme le montre la figure 9, quatre commutateurs standard virtuels sont configurés pour quatre zones de trafic. Chaque commutateur virtuel est configuré avec deux vNIC et est connecté aux deux Fabric Interconnects. Les vNIC sont configurées en mode actif et en veille pour les réseaux de stockage, de gestion et vMotion. Cependant, pour les commutateurs virtuels du réseau VM, les vNIC sont configurées de manière active et active. Cela garantit que le chemin de données pour le trafic des machines virtuelles invitées a une bande passante agrégée pour le type de trafic spécifique.

    Les trames Jumbo sont activées pour :

    · Trafic de stockage : l'activation des trames jumbo sur la zone de trafic de stockage serait bénéfique dans les scénarios de cas d'utilisation de base de données SQL Server suivants :

    - Les machines virtuelles invitées du serveur SQL à écriture lourde causées par des activités telles que la restauration de la base de données, la reconstruction des index, l'importation de données, etc.

    - Les machines virtuelles invitées du serveur SQL à lecture intensive causées par les activités de maintenance typiques telles que la sauvegarde de la base de données, l'exportation des données, les requêtes de rapport, la reconstruction des index, etc.

    · trafic vMotion : l'activation des trames jumbo sur la zone de trafic vMotion aide le système à basculer rapidement les machines virtuelles SQL vers d'autres hôtes, réduisant ainsi le temps d'arrêt global de la base de données.

    La création d'un réseau logique distinct (à l'aide de deux vNIC dédiées) pour les machines virtuelles invitées présente les avantages suivants :

    · Isoler le trafic de la VM invitée des autres trafics tels que la gestion, la réplication HX, etc.

    · Un pool MAC dédié peut être affecté à chaque vNIC, ce qui simplifierait le dépannage des problèmes de connectivité.

    · Comme le montre la figure 9, le commutateur de réseau VM est configuré avec deux vNIC de manière active et active pour fournir deux chemins de données actifs qui se traduiront par une bande passante agrégée.

    Pour plus de détails sur la configuration réseau du nœud HyperFlex HX-Server, à l'aide des stratégies réseau, des modèles et des profils de service Cisco UCS, reportez-vous à la section Conception de Cisco UCS dans Cisco HyperFlex 4.0 pour l'infrastructure de serveur virtuel avec VMware ESXi CVD.

    Les sections suivantes fournissent plus de détails sur les meilleures pratiques de configuration et de déploiement pour déployer les bases de données du serveur SQL sur les nœuds HyperFlex All-NVMe.

    Configuration du stockage pour les machines virtuelles invitées SQL

    La figure 10 illustre les recommandations de configuration de stockage pour les machines virtuelles exécutant des bases de données SQL Server sur des nœuds HyperFlex All-NVMe. Un seul contrôleur SCSI virtuel LSI Logic est utilisé pour héberger le système d'exploitation invité. Des contrôleurs paravirtuels SCSI (PVSCSI) distincts sont configurés pour héberger les données du serveur SQL et les fichiers journaux. Pour les déploiements SQL à grande échelle et hautement performants, il est recommandé de répartir les fichiers de données SQL sur deux ou plusieurs contrôleurs PVSCSI différents pour de meilleures performances, comme indiqué dans la figure. Des directives de performances supplémentaires sont détaillées dans la section Planification du déploiement.

    Planification du déploiement

    Il est crucial de suivre et de mettre en œuvre les meilleures pratiques et recommandations de configuration afin d'obtenir les meilleures performances de tout système sous-jacent. Cette section détaille les principales pratiques de conception et de configuration qui doivent être suivies lors du déploiement de bases de données de serveur SQL sur des systèmes HyperFlex entièrement NVMe.

    Recommandation de banque de données

    Les recommandations suivantes peuvent être suivies lors du déploiement des machines virtuelles du serveur SQL sur les systèmes HyperFlex All-NVMe.

    Tous les disques virtuels de la machine virtuelle comprenant le système d'exploitation invité, les données SQL et les fichiers journaux des transactions peuvent être placés sur une seule banque de données exposée en tant que partage de fichiers NFS aux hôtes ESXi. Le déploiement de plusieurs machines virtuelles SQL à l'aide d'une seule banque de données simplifie les tâches de gestion.

    Il existe une limite de profondeur de file d'attente maximale de 1024 pour chaque banque de données NFS par hôte, ce qui est une profondeur de file d'attente optimale pour la plupart des charges de travail. Cependant, lorsque les demandes d'E/S consolidées de toutes les machines virtuelles déployées sur la banque de données dépassent 1024 (limite par hôte), les machines virtuelles peuvent connaître des latences d'E/S plus élevées. Les symptômes de latences plus élevées peuvent être identifiés à l'aide des résultats ESXTOP.

    Dans de tels cas, la création d'une nouvelle banque de données et le déploiement de machines virtuelles SQL sur la nouvelle banque de données seront utiles. La recommandation générale est de déployer des machines virtuelles SQL nécessitant peu d'E/S dans une seule banque de données jusqu'à ce que des latences élevées des invités soient remarquées. En outre, le déploiement d'une banque de données dédiée pour les machines virtuelles SQL exigeantes en E/S élevée permettra une file d'attente dédiée et, par conséquent, des latences moindres peuvent être observées.

    La figure suivante montre que deux banques de données différentes sont utilisées pour déployer diverses machines virtuelles invitées SQL. « SQL-DS1 » est utilisé pour déployer plusieurs machines virtuelles SQL de petite à moyenne taille, tandis que « SQL-DS2 » est spécialement utilisé pour déployer une seule grande machine virtuelle SQL avec des exigences de performances exigeantes en E/S.

    Figure 11 Banques de données HyperFlex

    Recommandation de configuration de machine virtuelle SQL

    Lors de la création d'une machine virtuelle pour le déploiement d'une instance SQL Server sur un système HyperFlex All-NVMe, les recommandations suivantes doivent être suivies pour des performances et une meilleure administration.

    Noyaux par socket

    NUMA devient de plus en plus important pour garantir que les charges de travail, telles que les bases de données, allouent et consomment de la mémoire au sein du même nœud NUMA physique que les vCPU sont planifiés. En modifiant les cœurs par socket appropriés, assurez-vous que la machine virtuelle est configurée de manière à ce que les ressources mémoire et cpu puissent être satisfaites par un seul NUMA physique. Dans le cas de machines virtuelles étendues (exigeant plus de ressources qu'un seul NUMA physique), les ressources peuvent être allouées à partir de deux groupes NUMA physiques ou plus. Pour plus de détails sur les meilleures pratiques de configuration des machines virtuelles avec des besoins en ressources variables, veuillez vous référer à cet article VMware KB : https://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/solutions/sql-server- sur-vmware-meilleures-pratiques-guide.pdf

    Réservation de mémoire

    Les transactions de base de données du serveur SQL sont généralement gourmandes en CPU et en mémoire. Dans un système de base de données OLTP lourd, il est recommandé de réserver toute la mémoire affectée aux machines virtuelles SQL. Cela garantit que la mémoire attribuée à la machine virtuelle SQL est validée et éliminera la possibilité de gonfler et d'échanger la mémoire par l'hyperviseur ESXi. Les réservations de mémoire auront peu de surcharge sur le système ESXi. Pour plus d'informations sur la surcharge mémoire, consultez Understanding Memory Overhead : https://pubs.vmware.com/vsphere-51/index.jsp?topic=%2Fcom.vmware.vsphere.resmgmt.doc%2FGUID-4954A03F-E1F4-46C7 -A3E7-947D30269E34.html

    Figure 12 Réservations de mémoire pour la machine virtuelle SQL

    Adaptateurs SCSI paravirtuels pour les machines virtuelles à grande échelle et à hautes E/S

    Pour les machines virtuelles avec des exigences d'E/S de disque élevées, il est recommandé d'utiliser des adaptateurs Paravirtual SCSI (PVSCSI). Le contrôleur PVSCSI est un adaptateur SCSI hautes performances compatible avec la virtualisation qui permet la latence la plus faible possible et le débit le plus élevé avec la surcharge CPU la plus faible possible. Il a également des limites de profondeur de file d'attente plus élevées que les autres contrôleurs hérités. Les contrôleurs hérités (LSI Logic SAS, LSI Logic Parallel et ainsi de suite) peuvent provoquer des goulots d'étranglement et affecter les performances de la base de données et ne sont donc pas recommandés pour les applications de base de données gourmandes en E/S telles que les bases de données de serveur SQL.

    Recommandations relatives à la profondeur de la file d'attente et au contrôleur SCSI

    Souvent, les paramètres de profondeur de file d'attente des disques virtuels sont négligés, ce qui peut avoir un impact sur les performances, en particulier dans les charges de travail d'E/S élevées. Les systèmes tels que les bases de données Microsoft SQL Server ont tendance à émettre de nombreuses E/S simultanées, ce qui entraîne des paramètres de profondeur de file d'attente de pilote de machine virtuelle insuffisants (le paramètre par défaut est 64 pour PVSCSI) pour supporter les E/S lourdes. Il est recommandé de modifier le paramètre de profondeur de file d'attente par défaut sur une valeur plus élevée (jusqu'à 254), comme suggéré dans cet article VMware KB : https://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId =2053145

    Pour les bases de données à grande échelle et à E/S élevé, il est recommandé d'utiliser plusieurs disques virtuels et de répartir ces disques virtuels sur plusieurs adaptateurs de contrôleur SCSI plutôt que de tous les affecter à un seul contrôleur SCSI. Cela garantit que la machine virtuelle invitée accédera à plusieurs contrôleurs SCSI virtuels (quatre contrôleurs SCSI maximum par machine virtuelle invitée), ce qui à son tour se traduit par une plus grande simultanéité en utilisant les multiples files d'attente disponibles pour les contrôleurs SCSI.

    Type d'adaptateur réseau de machine virtuelle

    Il est fortement recommandé de configurer les adaptateurs réseau des machines virtuelles avec « VMXNET 3 ». VMXNET 3 est la dernière génération de cartes réseau para-virtualisées conçues pour la performance. Il offre plusieurs fonctionnalités avancées, notamment la prise en charge de plusieurs files d'attente, la mise à l'échelle côté réception, les déchargements IPv4/IPv6 et la livraison d'interruption MSI/MSI-X. Lors de la création d'une nouvelle machine virtuelle, choisissez « VMXNET 3 » comme type d'adaptateur, comme illustré à la Figure 13.

    Paramètres du système d'alimentation invité

    Les serveurs HX sont configurés de manière optimale, au moment de l'installation en usine, avec des paramètres de politique BIOS appropriés au niveau de l'hôte et ne nécessitent donc aucune modification. De même, l'option de gestion de l'alimentation ESXi (au niveau de vCenter) est définie sur « Haute performance » au moment de l'installation de HX par l'installateur, comme illustré à la Figure 14.

    Dans l'invité du serveur SQL, il est recommandé de définir l'option de gestion de l'alimentation sur « Hautes performances » pour des performances de base de données optimales, comme illustré à la Figure 15. À partir de Windows 2019, le paramètre Hautes performances est choisi par défaut.

    Pour d'autres recommandations de configuration spécifiques à SQL Server sur les environnements virtualisés, consultez le guide des meilleures pratiques de SQL Server sur VMware vSphere .

    Atteindre la haute disponibilité de la base de données

    Les systèmes de stockage Cisco HyperFlex intègrent des techniques de disponibilité de niveau de stockage efficaces telles que la mise en miroir des données (facteur de réplication 2/3), l'instantané natif, etc., pour garantir un accès continu aux données aux machines virtuelles invitées hébergées sur le cluster. Plus de détails sur les pannes tolérées par le cluster de plate-forme de données HX sont détaillés ici :

    Cette section décrit les techniques de haute disponibilité qui sont utiles pour améliorer la disponibilité des bases de données du serveur SQL virtualisé (en dehors de la disponibilité au niveau du stockage, qui est fournie avec les solutions HyperFlex).

    La disponibilité de l'instance de base de données SQL Server et des machines virtuelles individuelles peut être améliorée à l'aide des technologies répertoriées ci-dessous :

    · VMware HA : pour atteindre la disponibilité des machines virtuelles

    · Microsoft SQL Server AlwaysOn : pour obtenir une haute disponibilité au niveau de la base de données

    Haute disponibilité au niveau de l'instance VM/SQL unique à l'aide de la fonctionnalité VMware vSphere HA

    La solution Cisco HyperFlex s'appuie sur le clustering VMware pour assurer la disponibilité des machines virtuelles hébergées. Étant donné que le stockage NFS exposé est monté sur tous les hôtes du cluster, ils agissent comme un environnement de stockage partagé pour aider à migrer les machines virtuelles entre les hôtes. Cette configuration permet de migrer les machines virtuelles de manière transparente en cas de panne planifiée ou imprévue. La vNIC vMotion doit être configurée avec des trames Jumbo pour une migration plus rapide des machines virtuelles invitées.

    Haute disponibilité au niveau de la base de données à l'aide de la fonctionnalité de groupe de disponibilité SQL AlwaysOn

    L'architecture HyperFlex utilise intrinsèquement des banques de données NFS. L'instance de cluster de basculement Microsoft SQL Server (FCI) a besoin d'un stockage partagé qui ne peut pas être sur le stockage NFS (non pris en charge par VMware ESXi). Par conséquent, FCI n'est pas pris en charge en tant qu'option de haute disponibilité, mais la fonctionnalité Groupe de disponibilité AlwaysOn de SQL Server peut être utilisée. Introduits dans Microsoft SQL Server 2012, les groupes de disponibilité AlwaysOn maximisent la disponibilité d'un ensemble de bases de données utilisateur pour une entreprise. Un groupe de disponibilité prend en charge un environnement de basculement pour un ensemble discret de bases de données utilisateur, appelées bases de données de disponibilité, qui basculent ensemble. Un groupe de disponibilité prend en charge un ensemble de bases de données primaires en lecture-écriture et un à huit ensembles de bases de données secondaires correspondantes. En option, des bases de données secondaires peuvent être mises à disposition pour un accès en lecture seule et/ou certaines opérations de sauvegarde. Vous trouverez plus d'informations sur cette fonctionnalité sur le MSDN de Microsoft ici : https://msdn.microsoft.com/en-us/library/hh510230.aspx .

    Les groupes de disponibilité AlwaysOn de Microsoft SQL Server tirent parti du clustering de basculement Windows Server (WSFC) en tant que technologie de plate-forme. WSFC utilise une approche basée sur le quorum pour surveiller l'intégrité globale du cluster et maximiser la tolérance aux pannes au niveau du nœud. Les groupes de disponibilité AlwaysOn seront configurés en tant que ressources de cluster WSFC et leur disponibilité dépendra des modes de quorum WSFC sous-jacents et de la configuration de vote expliqués ici : https://docs.microsoft.com/en-us/sql/sql-server /failover-clusters/windows/wsfc-quorum-modes-and-voting-configuration-sql-server .

    En utilisant les groupes de disponibilité AlwaysOn avec réplication synchrone, prenant en charge les capacités de basculement automatique, les entreprises seront en mesure d'obtenir une disponibilité de base de données transparente sur les réplicas de base de données configurés. La figure suivante illustre le scénario dans lequel un groupe de disponibilité AlwaysOn est configuré entre les instances de serveur SQL s'exécutant sur deux systèmes de stockage HyperFlex distincts. Pour garantir que les bases de données impliquées offrent des performances élevées garanties et aucune perte de données en cas de panne, une planification appropriée doit être effectuée pour maintenir un lien réseau de réplication à faible latence entre les clusters.

    Figure 16 Configuration AlwaysOn synchrone sur les systèmes HyperFlex All-NVMe

    Bien qu'il n'y ait pas de règles définitives sur l'infrastructure utilisée pour héberger un réplica secondaire, voici quelques directives si vous prévoyez d'avoir un réplica principal sur le cluster All-NVMe High Performing :

    · En cas de réplication synchrone (pas de perte de données)

    - Les répliques doivent être hébergées sur des configurations matérielles similaires pour garantir que les performances de la base de données ne sont pas compromises en attendant l'accusé de réception des répliques.

    - Assurez une connexion réseau à haut débit et à faible latence entre les répliques.

    · En cas de réplication asynchrone (peut entraîner une perte de données)

    - Les performances de la réplique principale ne dépendent pas de la réplique secondaire, elle peut donc également être hébergée sur des solutions matérielles à faible coût.

    - Le montant de la perte de données dépend des caractéristiques du réseau et des performances des répliques.

    Si vous souhaitez déployer le groupe de disponibilité AlwaysOn au sein d'un seul cluster HyperFlex All-NVMe, qui implique plus de 2 réplicas, les règles d'anti-affinité VMWare DRS doivent être utilisées pour garantir que chaque réplica de machine virtuelle SQL est placé sur différents hôtes VMware ESXi afin pour réduire les temps d'arrêt de la base de données. Pour plus de détails sur la configuration des règles d'anti-affinité VMware, consultez : http://pubs.vmware.com/vsphere-60/index.jsp?topic=%2Fcom.vmware.vsphere.resmgmt.doc%2FGUID-7297C302-378F- 4AF2-9BD6-6EDB1E0A850A.html.

    L'instance de cluster de basculement SQL Server (FCI), qui exploite le cluster de basculement Windows Server (WSFC), est une pratique couramment utilisée pour fournir une haute disponibilité aux instances SQL. Une instance SQL en cluster nécessite que le stockage sous-jacent soit partagé entre les nœuds en cluster participants. WSFC utilise des réservations SCSI-3 sur les volumes de stockage de sorte que les volumes de stockage puissent être en ligne et appartenir à un seul nœud à la fois. Les volumes de stockage basés sur NFS ne sont pas certifiés pour le cluster de basculement Windows. Le déploiement d'une instance de cluster de basculement SQL Server à l'aide de volumes basés sur HyperFlex NFS n'est pas recommandé. Pour plus de détails sur les protocoles de stockage pris en charge et non pris en charge pour le cluster de basculement, accédez à : https://kb.vmware.com/s/article/2147661


    4 réponses 4

    Votre requête est une injection de premier ordre peut-être-juste-peut-être-sûre, en fonction de l'amélioration de CodeIgniter depuis la dernière fois que je l'ai utilisé.

    Soyons clairs à ce sujet : aucune quantité de nettoyage ne vous empêchera d'effectuer une injection SQL. La vraie "meilleure solution" pour PHP est la paramétrisation, qui vous permet de retirer les variables de la requête. À défaut, cependant, une désinfection appropriée peut aider. La dernière fois que j'ai vérifié (il y a trois ans), CodeIgniter utilisait mysql_real_escape_string qui, bien qu'étant un moyen de dissuasion valable pour la plupart des script kiddies, n'arrêtera pas un pirate informatique chevronné.

    La meilleure chose à faire est de lire comment CodeIgniter effectue réellement la désinfection/le paramétrage. S'il ne s'agit que de coups de fouet, évitez-le comme la peste. Il existe de nombreuses autres façons d'effectuer des injections SQL, par exemple, vous pouvez encoder des caractères en juke pour passer des guillemets sur la plupart des configurations addlashes / mysql_escape_string. Il y a plein de tutos sur le sujet.

    Non, l'échappement des guillemets/guillemets ne garantit pas que votre application Web n'est pas vulnérable. Cela dépend également des requêtes SQL que vous avez utilisées. J'ai déjà vu beaucoup d'exemples avec des fonctions de type addlashes() et escape() où les gens font comme ceci :

    Ceci est bien sûr vulnérable, car vous n'avez pas besoin de guillemets simples/doubles pour effectuer une injection SQL. Il est bon de mentionner que dans les mêmes rares cas, les addlashes pourraient être contournés [1].

    La solution la plus recommandée à votre problème d'injection SQL est d'oublier la concaténation de chaînes lors de la création d'instructions SQL et de jeter un œil aux requêtes paramétrées/instructions préparées. En parlant de CodeIgniter, vous devriez également être intéressé par la classe Active Record.

    Si vous êtes sûr à 100 %, cet utilisateur doit toujours taper un entier (comme dans votre variable de limite), alors vous pouvez essayer de lancer :

    L'utilisation de la conversion de cette manière vous protège de l'injection SQL (car il n'y a aucun moyen de mettre une valeur non entière dans votre requête SQL).

    Oh, et n'oubliez pas que d'autres variables peuvent être vulnérables. Assurez-vous donc de vérifier query , offset et toute autre variable que l'utilisateur contrôle. Il est également recommandé de vérifier le comportement de l'application Web lorsqu'elle reçoit des données inattendues - dans ce cas, il peut s'agir d'un tableau au lieu d'une chaîne : get_stuff?query[]=hello&limit[]=50&offset[]=0

    Ce que la plupart des gens ne comprennent pas, c'est que les fonctions d'échappement de chaîne SQL ne sont destinées qu'à être utilisées pour des valeurs désignées pour Littéraux de chaîne SQL. Cela signifie que vous ne pouvez mettre de telles valeurs à l'intérieur un littéral de chaîne SQL comme '…' ou "…" .

    Ces fonctions d'échappement de chaîne sont utilisées pour éviter que l'entrée fournie par l'utilisateur soit interprétée par erreur comme autre chose qu'une valeur de chaîne. Cela se fait en remplaçant les guillemets délimiteurs par des séquences d'échappement spéciales afin qu'elles ne soient pas interprétées comme le délimiteur de fin mais comme un guillemet littéral.

    Maintenant, si votre valeur est destinée à être une valeur entière en SQL comme l'exige LIMIT, l'échappement de la valeur avec des fonctions d'échappement de chaîne ne fonctionne pas car ce n'est évidemment pas un littéral de chaîne mais un littéral entier.

    Comme il ne s'agit pas d'une chaîne, il n'y a pas de guillemets délimiteurs qui doivent être contournés par l'attaquant. Et comme l'injection se produit dans la clause LIMIT, un 50 UNION SELECT injecté … pourrait être possible pour exploiter avec succès la vulnérabilité.

    Pour résoudre ce problème, assurez-vous que les valeurs fournies par l'utilisateur correspondent à vos attentes. Dans le cas d'une valeur entière, vérifiez s'il s'agit réellement d'une valeur entière, soit en fait une valeur du type entier, soit une représentation sous forme de chaîne valide de la valeur entière.

    De plus, il existe des bibliothèques qui fournissent une interface simple aux instructions paramétrées et/ou aux instructions préparées où l'instruction et les valeurs des paramètres sont gérées séparément et les valeurs sont automatiquement converties dans le type approprié.


    Que diriez-vous d'exporter de SQL Server vers GeoJSON ?

    Il est donc très facile pour moi d'interroger des données dans la table maintenant –, mais qu'en est-il du scénario dans lequel j'ai des données dans SQL Server et je souhaite exporter les résultats d'une requête SELECT au format GeoJSON ?

    Heureusement, nous pouvons utiliser les capacités de requête JSON de SQL Server – Je peux suffixer ma requête avec ‘FOR JSON PATH’ pour convertir les résultats d'une requête SELECT d'un format tabulaire vers un format JSON, comme indiqué ci-dessous :

    Mais cela ne me donne pas un résultat qui est tout à fait correct, il s'agit simplement d'une liste au format JSON de fonctionnalités GeoJSON. Pour en faire une collection d'entités GeoJSON correctement formatée, je dois donner à cette liste un nom – ‘features’ et spécifier le type en tant que ‘FeatureCollection’. Encore une fois, c'est assez simple avec les fonctionnalités de requête JSON intégrées de SQL Server.

    Si vous souhaitez valider votre GeoJSON, vous pouvez utiliser un site comme GeoJSONLint.com.


    Vous mentionnez à la fois le SPD et le code source ? Avec le code, il s'agirait d'un composant WebPart personnalisé ou d'une application SharePoint (également appelée complément), qui sont tous deux des tâches de développeur.

    Mais cela peut être fait avec SPD sans code. Configurez simplement un "type de contenu externe". Voici un tutoriel, mais il y en a beaucoup d'autres :

    Cependant, ce qui précède a au moins 4 problèmes.

    Premièrement, il utilise SP 2010, ce qui ne devrait vraiment pas être un problème car il n'a vraiment pas beaucoup changé entre les versions.

    Deuxièmement, il s'est terminé sans vous dire de cliquer sur le bouton "créer des listes et un formulaire" dans le ruban. Cliquez sur ce bouton à la fin du processus. Cela créera ce qui ressemble à une liste. L'utilisateur pourra ajouter, modifier, trier, filtrer, etc., comme s'il utilisait une liste, mais les données sont lues et écrites dans une table de base de données.

    Troisièmement, lorsque vous avez configuré la connexion, la capture d'écran a sélectionné l'option "Se connecter avec l'identité de l'utilisateur". Bonne chance pour que ça marche. De manière plus réaliste, vous devrez configurer un compte de service via le service de magasin sécurisé (qui est accessible via l'administrateur central, vous devrez donc peut-être impliquer le service informatique).

    Quatrièmement, une fois le type de contenu externe créé, personne n'aura l'autorisation de l'utiliser. Les autorisations devront être accordées via l'administrateur central.


    Questions pratiques AZ-304

    Vous devez recommander une solution pour identifier les requêtes qui prennent le plus de temps à s'exécuter.

    Que devez-vous inclure dans la recommandation ?

    1.) Corréler l'utilisation des ressources Azure et les données de performances avec la configuration de l'application et les données de performances

    2.) Visualisez les relations entre les composants de l'application

    3.) Suivre les demandes et les exceptions à une ligne de code spécifique dans l'application

    4.) Analysez le nombre d'utilisateurs qui reviennent à l'application et à quelle fréquence ils sélectionnent une valeur déroulante particulière

    Vous devez concevoir une solution de surveillance pour l'application Web. Quels services de surveillance Azure devez-vous utiliser pour chacun ?

    3.) a. Aperçu des applications Azure

    Le cluster Hyper-V contient 30 machines virtuelles qui exécutent Windows Server 2012 R2. Chaque machine virtuelle exécute une charge de travail différente. Les charges de travail ont des modèles de consommation prévisibles.

    Vous prévoyez de remplacer les machines virtuelles par des machines virtuelles Azure qui exécutent Windows Server 2016. Les machines virtuelles seront dimensionnées en fonction du modèle de consommation de chaque charge de travail.

    Vous devez recommander une solution pour minimiser les coûts de calcul des machines virtuelles Azure. Quelles sont les deux recommandations à inclure dans la solution ?

    C. Activez Azure Hybrid Benefit pour les machines virtuelles Azure.

    Pour les clients avec Software Assurance, Azure Hybrid Benefit pour Windows Server vous permet d'utiliser vos licences Windows Server sur site et d'exécuter
    Machines virtuelles Windows sur Azure à moindre coût. Vous pouvez utiliser Azure Hybrid Benefit pour Windows Server pour déployer de nouvelles machines virtuelles avec le système d'exploitation Windows.

    D. Achetez des instances de machine virtuelle réservées Azure pour les machines virtuelles Azure.

    L'abonnement contient les comptes de stockage :
    Storage1(storagev2) --> RG1 -->Est des États-Unis.
    Storage2(BlobStorage)-->RG2 --> Ouest des États-Unis

    Vous créez les bases de données Azure SQL :
    SQLdb1-->RG1-->SQLsvr1-->STD niveau de tarification
    SQLdb2-->RG1-->SQLsvr1-->Niveau de tarificationSTD
    SQLdb3-->RG2-->SQLsvr2-->Niveau de tarification Premium

    1.) Lorsque vous activez l'audit pour SQLdb1, pouvez-vous stocker les informations d'audit dans sotrage1 ?

    2.) Lorsque vous activez l'audit pour SQLdb2, pouvez-vous stocker les informations d'audit dans storage2 ?

    Les utilisateurs signalent des problèmes généraux avec les données. Vous conseillez à l'entreprise de mettre en œuvre une surveillance en direct et d'utiliser des requêtes ad hoc sur les données JSON stockées.Vous conseillez également à l'entreprise de mettre en place des alertes intelligentes pour détecter des anomalies dans les données.

    Vous devez recommander une solution pour configurer des alertes intelligentes.
    Que devriez-vous recommander?

    Azure Monitor Logs est une fonctionnalité d'Azure Monitor qui collecte et organise les données de journal et de performances à partir des ressources surveillées. Analysez, alertez, visualisez, analysez, récupérez et exportez.

    Utilisez-le pour surveiller vos applications en direct. Il détectera automatiquement les anomalies de performances et comprend de puissants outils d'analyse pour vous aider à diagnostiquer les problèmes et à comprendre ce que les utilisateurs font réellement avec votre application.

    Chaque service a une limite de dépenses spécifique pour ses ressources Azure.

    Vous devez vous assurer que lorsqu'un service atteint sa limite de dépenses, les ressources de calcul du service s'arrêtent automatiquement.

    Quelles sont les deux fonctionnalités à inclure dans la solution ?

    C. la limite de dépenses d'un compte Azure

    La limite de dépenses dans Azure empêche les dépenses supérieures au montant de votre crédit. Tous les nouveaux clients qui s'inscrivent pour un compte gratuit Azure ou des types d'abonnement qui incluent des crédits sur plusieurs mois ont la limite de dépenses activée par défaut. La limite de dépenses est égale au montant du crédit et elle ne peut pas être modifiée.

    D. Budgets de gestion des coûts

    Activez la limite de dépenses après la suppression. Cette fonctionnalité n'est disponible que lorsque la limite de dépenses a été supprimée indéfiniment pour les types d'abonnement qui incluent des crédits sur plusieurs mois.

    stockage1, compte de stockage, stockage dans l'est des États-Unis
    storage2, compte de stockage, storageV2 dans l'est des États-Unis
    Workspace1, espace de travail d'analyse des journaux dans l'est des États-Unis
    Workspace2, espace de travail d'analyse des journaux dans l'est des États-Unis
    Hub1, centre d'événements dans l'est des États-Unis

    Vous créez une base de données Azure SQL nommée DB1 qui est hébergée dans la région Est des États-Unis.

    À DB1, vous ajoutez un paramètre de diagnostic nommé Settings1. Settings1 archive SQLInsights dans storage1 et envoie SQLInsights à Workspace1.

    1.) Pouvez-vous ajouter un nouveau paramètre de diagnostic pour archiver les journaux SQLInsights dans storage2 ?

    2.) Pouvez-vous ajouter un nouveau paramètre de diagnostic qui envoie les journaux SQLInsights à Workspace2 ?

    1.) Quelle est la durée pendant laquelle une donnée SQLInsights sera stockée dans le stockage blob ?

    2.) Quelle est la durée maximale de stockage des données SQLInsights dans Azure Log Analytics ?

    Dans l'exposition, les données SQLInsights sont configurées pour être stockées dans Azure Log Analytics pendant 90 jours. Cependant, la question demande la durée "maximum" pendant laquelle les données peuvent être stockées, qui est de 730 jours.

    Vous prévoyez de déployer une application personnalisée pour chaque abonnement. L'application contiendra les éléments suivants :
    ✑ Un groupe de ressources
    Une application web Azure
    ✑ Attributions de rôles personnalisées
    ✑ Un compte Azure Cosmos DB
    Vous devez utiliser Azure Blueprints pour déployer l'application sur chaque abonnement.

    Quel est le nombre minimum d'objets requis pour déployer l'application ?

    Lors de la création d'une définition de plan, vous définirez où le plan est enregistré. Les plans peuvent être enregistrés dans un groupe de gestion ou un abonnement auquel vous avez accès en tant que contributeur. Si l'emplacement est un groupe d'administration, le plan directeur peut être attribué à tout abonnement enfant de ce groupe d'administration.

    Définitions de plans : 1
    Une définition lorsque vous envisagez de déployer une application personnalisée pour chaque abonnement.

    Avec Azure Blueprints, la relation entre la définition du Blueprint (ce qui doit être déployé) et l'attribution du Blueprint (ce qui a été déployé) est préservée.

    Que devez-vous inclure dans la recommandation ?

    Assurez-vous que toutes les ressources ExpressRoute sont créées dans un groupe de ressources nommé RG1.
    ✑ Déléguez la création des ressources ExpressRoute à un groupe Azure Active Directory (Azure AD) nommé Networking.
    Utiliser le principe du moindre privilège.

    1.) Assurez-vous que toutes les ressources ExpressRoute sont créées dans RG1

    2.) Déléguez la création des ressources ExpressRoute à la mise en réseau

    2.) Une attribution de rôle RBAC personnalisée au niveau de RG1

    Configuration de la stratégie MFA :
    Activer la stratégie désactivée
    Accorder
    Sélectionnez les contrôles à appliquer
    Accorder l'accès sélectionné.
    Exiger une authentification multifacteur : oui
    Exiger que l'appareil soit marqué comme conforme : non
    Exiger des appareils hybrides Azure ad joints : oui
    Exiger des applications clientes approuvées : non
    Exiger une politique de protection des applications : non
    Pour plusieurs contrôles : nécessite l'un des contrôles sélectionnés.

    Quel est le résultat de la politique ?

    Vous devez recommander une solution pour répondre aux exigences suivantes :

    Empêchez le personnel informatique qui effectuera le déploiement de récupérer les secrets directement à partir de Key Vault.
    Utiliser le principe du moindre privilège.

    Quelles sont les deux actions à recommander ?

    A. Créez une stratégie d'accès Key Vault qui permet à tous d'obtenir des autorisations de clé, d'obtenir des autorisations secrètes et d'obtenir des autorisations de certificat.

    B. À partir des stratégies d'accès dans Key Vault, activez l'accès à Azure Resource Manager pour le déploiement de modèles.

    C. Créez une stratégie d'accès Key Vault qui autorise toutes les autorisations de clé de liste, les autorisations de secret de liste et les autorisations de certificat de liste.

    D. Attribuez au personnel informatique un rôle personnalisé qui inclut l'autorisation Microsoft.KeyVault/Vaults/Deploy/Action.

    B. À partir des stratégies d'accès dans Key Vault, activez l'accès à Azure Resource Manager pour le déploiement de modèles.

    Pour accéder à un coffre de clés pendant le déploiement du modèle, définissez enabledForTemplateDeployment sur le coffre de clés sur true.

    D. Attribuez au personnel informatique un rôle personnalisé qui inclut l'autorisation Microsoft.KeyVault/Vaults/Deploy/Action.

    L'utilisateur qui déploie le modèle doit disposer de l'autorisation Microsoft.KeyVault/vaults/deploy/action pour la portée du groupe de ressources et du coffre de clés.

    Combien d'instances de Key Vault devez-vous implémenter ?

    Le contenu de votre coffre de clés est répliqué dans la région et dans une région secondaire distante d'au moins 150 miles, mais dans la même géographie. Cela maintient une durabilité élevée de vos clés et secrets. Consultez le document des régions appariées Azure pour plus de détails sur des paires de régions spécifiques.

    Vous devez recommander les certificats requis pour le déploiement.

    1.) Magasin de certificats des autorités de certification racine de confiance sur chaque ordinateur portable

    2.) Le magasin personnel des utilisateurs sur chaque ordinateur portable

    Quels certificats utiliser pour chaque

    Vous devez vous assurer que l'application peut utiliser des informations d'identification sécurisées pour accéder à ces services.

    Fonctionnalité
    1.) Coffre de clés Azure
    2.) Azure SQL
    3.) CosmosDB

    Quelle méthode d'authentification devriez-vous recommander pour chaque fonctionnalité ?

    Vous devez recommander une solution pour vérifier si les développeurs Fabrikam ont toujours besoin d'autorisations pour Application1. La solution doit répondre aux exigences suivantes :
    ✑ Au responsable des développeurs, envoyez un e-mail mensuel qui répertorie les autorisations d'accès à Application1.
    ✑ Si le gestionnaire ne vérifie pas une autorisation d'accès, révoquez automatiquement cette autorisation.
    Minimiser les efforts de développement.

    Que devriez-vous recommander?

    Les exigences du client sont les suivantes : Les utilisateurs doivent s'authentifier à l'aide d'un compte Microsoft personnel et d'une authentification multifacteur

    Exigences en matière de rapports : les utilisateurs doivent s'authentifier à l'aide des informations d'identification Contoso ou d'un compte Microsoft personnel. Vous devez pouvoir gérer les comptes à partir d'Azure AD.

    Quelle stratégie d'authentification recommandez-vous pour chaque application ?

    Point de terminaison Azure AD V2.0 -
    La plateforme d'identité Microsoft est une évolution de la plateforme de développement Azure Active Directory (Azure AD). Il permet aux développeurs de créer des applications qui se connectent à toutes les identités Microsoft et d'obtenir des jetons pour appeler des API Microsoft, telles que Microsoft Graph, ou des API que les développeurs ont créées. La plate-forme d'identité Microsoft comprend : OAuth 2.0 et un service d'authentification conforme à la norme OpenID Connect qui permet aux développeurs d'authentifier n'importe quelle identité Microsoft, y compris : des comptes professionnels ou scolaires (fournis via Azure AD) des comptes Microsoft personnels (tels que Skype, Xbox et Outlook) .com)Comptes sociaux ou locaux (via Azure AD B2C)

    Vous devez recommander une solution permettant aux employés de se connecter à toutes les ressources de l'entreprise à l'aide d'un seul compte. La solution doit implémenter un fournisseur d'identité.

    Vous devez fournir des conseils sur les différents fournisseurs d'identité.
    Comment devez-vous décrire chaque fournisseur d'identité ?

    Azure AD Domain Services pour les organisations hybridesLes organisations avec une infrastructure informatique hybride consomment un mélange de ressources cloud et de ressources sur site. Ces organisations synchronisent les informations d'identité de leur annuaire local vers leur locataire Azure AD. Alors que les organisations hybrides cherchent à migrer davantage de leurs applications locales vers le cloud, en particulier les applications existantes prenant en charge les annuaires, les services de domaine Azure AD peuvent leur être utiles.

    2.) B. La gestion des utilisateurs s'effectue sur site. Le contrôleur de domaine local authentifie les informations d'identification des employés.

    1.) Pour effectuer des rapports en temps réel à l'aide de Microsoft Power BI, vous devez d'abord :
    A. effacer Envoyer à Log Analytics
    B. effacer SQLInsights
    C. sélectionnez Archiver sur un compte de stockage
    D. sélectionnez Diffuser vers un hub pair

    Vous devez recommander une solution pour répondre aux exigences suivantes pour les machines virtuelles qui exécuteront App1 :

    ✑ Assurez-vous que les machines virtuelles peuvent s'authentifier auprès d'Azure Active Directory (Azure AD) pour accéder à un coffre de clés Azure, des instances Azure Logic Apps et une base de données Azure SQL.

    ✑ Évitez d'attribuer de nouveaux rôles et autorisations pour les services Azure lorsque vous déployez des machines virtuelles supplémentaires.

    Évitez de stocker des secrets et des certificats sur les machines virtuelles.

    ✑ Minimiser les efforts administratifs pour la gestion des identités.

    Quel type d'identité devez-vous inclure dans la recommandation ?

    Les identités gérées pour les ressources Azure sont une fonctionnalité d'Azure Active Directory.

    L'identité gérée attribuée par l'utilisateur peut être partagée. La même identité managée attribuée par l'utilisateur peut être associée à plusieurs ressources Azure.

    Vous devez concevoir une solution pour exposer les microservices aux applications grand public. La solution doit répondre aux exigences suivantes :

    ✑ L'accès d'entrée aux microservices doit être limité à une seule adresse IP privée et protégé à l'aide de l'authentification TLS mutuelle.
    ✑ Le nombre d'appels de microservices entrants doit être limité en débit.
    Les coûts doivent être minimisés.

    Que devez-vous inclure dans la solution ?

    L'API doit répondre aux exigences suivantes :

    Implémenter les fonctions Azure.
    ✑ Fournir des opérations publiques en lecture seule.
    N'autorisez pas les opérations d'écriture.
    Vous devez recommander des options de configuration.

    Que devriez-vous recommander?

    1.) Méthodes d'authentification autorisées
    -toutes les méthodes
    -GET seulement
    -GET et POST uniquement
    -GET, POST et OPTIONS uniquement

    L'option est Autoriser les demandes anonymes.
    Cette option active l'authentification et l'autorisation dans App Service, mais reporte les décisions d'autorisation à votre code d'application.

    Pour les demandes authentifiées, App Service transmet également les informations d'authentification dans les en-têtes HTTP.

    Contoso se prépare à migrer toutes les charges de travail vers Azure. Contoso souhaite que les utilisateurs utilisent l'authentification unique (SSO) lorsqu'ils accèdent à des services cloud qui s'intègrent à Azure Active Directory (Azure AD).
    Vous devez identifier tous les objets dans Active Directory qui ne pourront pas se synchroniser avec Azure AD en raison de problèmes de formatage. La solution doit minimiser les coûts.

    Que devez-vous inclure dans la solution ?

    Vous devez vous assurer que l'application est protégée contre les tentatives d'injection SQL et utilise un équilibreur de charge de couche 7. La solution doit minimiser les perturbations du code de l'application Web existante.

    Que devriez-vous recommander pour chacun?

    Azure Application Gateway fournit un contrôleur de livraison d'applications (ADC) en tant que service. Il offre diverses capacités d'équilibrage de charge de couche 7 pour vos applications.

    2.) Pare-feu d'application Web (WAF)

    Le pare-feu d'application Web (WAF) d'Application Gateway protège les applications Web contre les vulnérabilités et les exploits courants.

    Cela se fait par le biais de règles définies sur la base des ensembles de règles de base OWASP 3.0 ou 2.2.9.

    Dix utilisateurs du service financier de votre entreprise prévoient d'accéder aux blobs durant le mois d'avril.

    Vous devez recommander une solution pour permettre l'accès aux blobs pendant le mois d'avril uniquement.

    App1 sera accessible depuis Internet par les utilisateurs de votre entreprise. Tous les utilisateurs ont des ordinateurs qui exécutent Windows 10 et sont joints à Azure AD.

    Vous devez recommander une solution pour garantir que les utilisateurs peuvent se connecter à App1 sans être invités à s'authentifier et peuvent accéder à App1 uniquement à partir des ordinateurs appartenant à l'entreprise.

    Que devriez-vous recommander pour chaque exigence?

    1.) Les utilisateurs peuvent se connecter à APP1 sans être invités à s'authentifier :

    A. Un enregistrement d'application Azure AD
    B. Une identité gérée par AD
    C. Proxy d'application Azure AD

    2.) Les utilisateurs peuvent accéder à APP1 uniquement à partir d'ordinateurs appartenant à l'entreprise :

    Azure Active Directory (AD) fournit des services de gestion d'annuaire et d'identité basés sur le cloud. Vous pouvez utiliser Azure AD pour gérer les utilisateurs de votre application et authentifier l'accès à vos applications à l'aide d'Azure Active Directory.
    Vous enregistrez votre application auprès du locataire Azure Active Directory.

    2.) A. Une politique d'accès conditionnel

    ✑ Utilisez Azure Blueprints pour contrôler la gouvernance de tous les abonnements et groupes de ressources.
    ✑ Assurez-vous que les configurations basées sur les Blueprints sont cohérentes dans tous les abonnements et groupes de ressources.
    ✑ Minimiser le nombre de définitions et d'affectations de blueprint.

    Que devez-vous inclure dans la solution ?

    1.) Niveau auquel définir les plans :

    2.) Niveau auquel créer les affectations de plan :

    Lors de la création d'une définition de plan, vous définirez où le plan est enregistré. Les plans peuvent être enregistrés dans un groupe de gestion ou un abonnement que vous avez
    Accès contributeur à. Si l'emplacement est un groupe d'administration, le plan directeur est disponible pour être attribué à tout abonnement enfant de ce groupe d'administration.

    2.) B. Le groupe de gestion racine

    Vous devez recommander une solution pour fournir aux développeurs la possibilité de provisionner des machines virtuelles Azure. La solution doit répondre aux exigences suivantes :

    ✑ Autoriser uniquement la création de machines virtuelles dans des régions spécifiques.
    Autoriser uniquement la création de tailles spécifiques de machines virtuelles.
    Que devez-vous inclure dans la recommandation ?

    Le réseau contient un domaine Active Directory nommé contoso.com qui est synchronisé avec Azure Active Directory (Azure AD).
    Tous les utilisateurs se connectent à un Exchange Online.
    Vous devez recommander une solution pour vous assurer que tous les utilisateurs utilisent Azure Multi-Factor Authentication (MFA) pour se connecter à Exchange Online depuis l'un des bureaux.

    Que devez-vous inclure dans la recommandation ?

    Sécurité : examinez l'appartenance aux rôles d'administrateur et demandez aux utilisateurs de justifier leur adhésion continue, recevez des alertes sur les modifications apportées aux affectations d'administrateur, consultez un historique de l'activité d'administrateur, y compris les modifications apportées par les administrateurs aux ressources Azure

    Développement : permet aux applications d'accéder à Azure Key Vault et de récupérer les clés à utiliser dans le code.

    Assurance qualité : recevez un accès administrateur temporaire pour créer et configurer des applications Web et API supplémentaires dans l'environnement de test.

    Vous devez recommander le service Azure approprié pour chaque demande de service.

    Que devriez-vous recommander pour chaque département?

    1.) Sécurité
    2.) Développement
    3.) Assurance qualité

    Vous prévoyez d'intégrer Active Directory et Azure Active Directory (Azure AD) à l'aide d'Azure AD Connect.
    Vous devez recommander une solution pour vous assurer que les propriétaires de groupe reçoivent tous les mois un e-mail concernant les adhésions aux groupes qu'ils gèrent.

    Que devez-vous inclure dans la recommandation ?

    Vous devez recommander une solution pour garantir que les applications peuvent s'authentifier en utilisant la même identité Azure Active Directory (Azure AD).
    La solution doit répondre aux exigences suivantes :

    ✑ Assurez-vous que les applications peuvent s'authentifier uniquement lorsqu'elles s'exécutent sur les 10 machines virtuelles.
    Minimiser les efforts administratifs.

    Que devez-vous inclure dans la recommandation ?

    1.) Pour provisionner l'identité Azure AD :
    A. Créer une ressource Identités managées pour Azure attribuée par le système
    B. Créer une ressource Identités gérées pour Azure attribuée par l'utilisateur
    C. Enregistrez chaque application dans Azure AD

    La fonctionnalité d'identités managées pour les ressources Azure dans Azure Active Directory (Azure AD) fournit aux services Azure une identité managée automatiquement dans Azure AD. Vous pouvez utiliser l'identité pour vous authentifier auprès de n'importe quel service prenant en charge l'authentification Azure AD, y compris Key Vault, sans aucune information d'identification dans votre code.

    Une identité managée attribuée par le système est activée directement sur une instance de service Azure. Lorsque l'identité est activée, Azure crée une identité pour l'instance dans le locataire Azure AD qui est approuvée par l'abonnement de l'instance. Une fois l'identité créée, les informations d'identification sont provisionnées sur l'instance.

    2.)C. Un point de terminaison OAuth2 d'identité du service de métadonnées d'instance Azure

    Vous créez deux machines virtuelles Azure nommées VM1 et VM2.
    Vous devez vous assurer que Admin1 et Admin2 sont avertis lorsque plus de cinq événements sont ajoutés au journal de sécurité de VM1 ou VM2 pendant une période de 120 secondes.

    La solution doit minimiser les tâches administratives.

    Vous découvrez plusieurs tentatives de connexion au portail Azure depuis des pays où les utilisateurs administratifs ne travaillent PAS.

    Vous devez vous assurer que toutes les tentatives de connexion au portail Azure à partir de ces pays nécessitent Azure Multi-Factor Authentication (MFA).

    Solution : créez une révision d'accès pour Group1.

    Vous découvrez plusieurs tentatives de connexion au portail Azure depuis des pays où les utilisateurs administratifs ne travaillent PAS.

    Vous devez vous assurer que toutes les tentatives de connexion au portail Azure à partir de ces pays nécessitent Azure Multi-Factor Authentication (MFA).

    Solution : implémentez Azure AD Identity Protection pour Group1.

    Vous découvrez plusieurs tentatives de connexion au portail Azure depuis des pays où les utilisateurs administratifs ne travaillent PAS.

    Vous devez vous assurer que toutes les tentatives de connexion au portail Azure à partir de ces pays nécessitent Azure Multi-Factor Authentication (MFA).

    Solution : vous implémentez un package d'accès.

    Les instances hébergent des bases de données qui présentent les caractéristiques suivantes :

    ✑ La plus grande base de données fait actuellement 3 To. Aucune des bases de données ne dépassera jamais 4 To.

    Les procédures stockées sont implémentées à l'aide du CLR.
    Vous prévoyez de déplacer toutes les données de SQL Server vers Azure.
    Vous devez recommander un service Azure pour héberger les bases de données. La solution doit répondre aux exigences suivantes :

    ✑ Dans la mesure du possible, minimisez la surcharge de gestion des bases de données migrées.

    ✑ Minimiser le nombre de modifications de base de données nécessaires pour faciliter la migration.

    ✑ Assurez-vous que les utilisateurs peuvent s'authentifier à l'aide de leurs informations d'identification Active Directory.

    Que devez-vous inclure dans la recommandation ?

    App1--webapp--traiter les commandes des clients
    Fonction1--fonction--vérifier la disponibilité du produit chez le fournisseur1
    Fonction2--fonction--vérifier la disponibilité du produit chez le fournisseur2
    Storage1--compte de stockage--Stocke les journaux de traitement des commandes

    Le système de traitement des commandes aura le flux de transaction suivant :

    ✑ Un client passera une commande en utilisant App1.
    ✑ Lorsque la commande est reçue, App1 générera un message pour vérifier la disponibilité du produit chez le fournisseur 1 et le fournisseur 2.
    ✑ Un composant d'intégration traitera le message, puis déclenchera soit la Fonction1 soit la Fonction2 selon le type de commande.
    ✑ Une fois qu'un fournisseur confirme la disponibilité du produit, un message d'état pour App1 sera généré par Function1 ou Function2.
    ✑ Toutes les étapes de la transaction seront enregistrées dans storage1.

    Quel type de ressource devriez-vous recommander pour le composant d'intégration ?

    Une fabrique de données peut avoir un ou plusieurs pipelines. Un pipeline est un regroupement logique d'activités qui effectuent ensemble une tâche.

    Les activités d'un pipeline définissent les actions à effectuer sur vos données.

    Data Factory comprend trois groupes d'activités : les activités de déplacement de données, les activités de transformation de données et les activités de contrôle.

    Le réseau local n'a pas de connectivité hybride à Azure en utilisant Site-to-Site VPN ou ExpressRoute.

    Vous souhaitez migrer les packages vers Azure Data Factory.

    Vous devez recommander une solution qui facilite la migration tout en minimisant les modifications apportées aux packages existants. La solution doit minimiser les coûts.

    Que devriez-vous recommander?

    1.) Stockez le catalogue SSISDB en utilisant :
    A. Base de données Azure SQL
    B. Azure Synapse Analytics
    C. SQL Server sur une machine virtuelle Azure
    D. SQL Server sur un ordinateur local

    Vous ne pouvez pas créer la base de données du catalogue SSISDB sur Azure SQL Database pour le moment indépendamment de la création du runtime d'intégration Azure-SSIS dans Azure Data
    Usine. Azure-SSIS IR est l'environnement d'exécution qui exécute les packages SSIS sur Azure.

    2.) C. Le runtime d'intégration Azure-SQL Server Integration Services et le runtime d'intégration auto-hébergé.

    Quel service Azure devriez-vous recommander ?

    Microsoft a conçu une solution extrêmement puissante qui aide les clients à transférer leurs données vers le cloud public Azure de manière rentable, sécurisée et efficace avec Azure puissant et l'apprentissage automatique en jeu. La solution s'appelle Data Box.
    Data Box et est en état de disponibilité générale. Il s'agit d'un appareil robuste qui permet aux organisations de disposer de 100 To de capacité sur laquelle copier leurs données, puis les envoyer pour qu'elles soient transférées vers Azure.

    Vous devez recommander une solution pour chiffrer les disques à l'aide d'Azure Disk Encryption. La solution doit permettre de chiffrer les disques du système d'exploitation et les disques de données.

    Que devez-vous inclure dans la recommandation ?

    Vous devez transformer les données en utilisant le flux de données de mappage.

    Quel service Azure devez-vous utiliser ?

    Que devez-vous déployer sur VM1 pour prendre en charge la conception ?

    Le runtime d'intégration (IR) est l'infrastructure de calcul qu'Azure Data Factory utilise pour fournir des fonctionnalités d'intégration de données dans différents environnements réseau. Pour plus d'informations sur l'IR, consultez Présentation de l'exécution de l'intégration.

    Vous devez concevoir une solution de stockage pour l'application.

    La solution doit répondre aux exigences suivantes :
    Les coûts opérationnels doivent être minimisés.
    Tous les clients doivent avoir leur propre base de données.
    ✑ Les bases de données clients se trouveront dans l'une des trois régions Azure suivantes : Est des États-Unis, Europe du Nord ou Afrique du Sud Nord.

    Quel est le nombre minimum de pools élastiques et de serveurs Azure SQL Database requis ?

    2.) Serveurs de base de données Azure SQL

    Les fichiers journaux sont générés par l'activité des utilisateurs sur les serveurs Web Apache. Les fichiers journaux sont dans un format cohérent. Environ 1 Go de journaux sont générés par jour.

    Microsoft Power BI est utilisé pour afficher des rapports hebdomadaires sur l'activité des utilisateurs.

    Vous devez recommander une solution pour minimiser les coûts tout en maintenant la fonctionnalité de l'architecture.

    Que devriez-vous recommander?

    La migration des instances SQL Server vers Azure doit :
    ✑ Prise en charge des correctifs automatiques et des mises à jour de version vers SQL Server.
    Fournir des services de sauvegarde automatique.
    Permettre la haute disponibilité des instances.
    Fournir un réseau virtuel natif avec adressage IP privé.
    Crypter toutes les données en transit.
    ✑ Être dans un environnement à locataire unique avec une infrastructure sous-jacente dédiée (calcul, stockage).

    Vous devez migrer les instances SQL Server vers Azure.

    Quel service Azure devez-vous utiliser ?

    Les données du niveau d'accès froid peuvent tolérer une disponibilité légèrement inférieure, mais nécessitent toujours une durabilité élevée, une latence de récupération et des caractéristiques de débit similaires aux données chaudes. Pour les données froides, un accord de niveau de service (SLA) de disponibilité légèrement inférieur et des coûts d'accès plus élevés par rapport aux données chaudes sont des compromis acceptables pour des coûts de stockage inférieurs.

    Vous devez recommander une politique de mise en cache pour chaque disque. La stratégie doit fournir les meilleures performances globales pour la machine virtuelle tout en préservant l'intégrité des données et des journaux SQL.

    Quelle politique de mise en cache devriez-vous recommander pour chaque disque ?

    Chaque politique peut être utilisée une fois, plusieurs fois ou pas du tout.

    Vous devez recommander une plate-forme de base de données pour héberger les bases de données.
    La solution doit répondre aux exigences suivantes :

    ✑ Les ressources de calcul allouées aux bases de données doivent évoluer de manière dynamique.
    ✑ La solution doit respecter un SLA de 99,99 % de disponibilité.
    ✑ La solution doit avoir une capacité réservée.
    Les frais de calcul doivent être minimisés.

    Que devez-vous inclure dans la recommandation ?

    Vous devez recommander une solution Azure pour héberger DB1 et DB2. La solution doit répondre aux exigences suivantes :

    ✑ Prise en charge des transactions côté serveur entre DB1 et DB2.
    ✑ Minimiser les efforts administratifs pour mettre à jour la solution.

    Que devriez-vous recommander?

    Le nombre de domaines de pannes est défini sur 3. Le nombre de domaines de mise à jour est défini sur 20.

    Vous devez identifier le nombre d'instances App1 qui resteront disponibles pendant une période de maintenance planifiée.

    Combien d'instances App1 devez-vous identifier ?

    Vous devez vous assurer que les données archivées ne peuvent pas être supprimées pendant cinq ans.

    La solution doit empêcher les administrateurs de supprimer les données.

    Solution : vous créez un conteneur de stockage Azure Blob et vous configurez une stratégie d'accès de conservation légale.

    Utilisez un conteneur de stockage Azure Blob, mais utilisez une stratégie de rétention basée sur le temps au lieu d'une conservation légale.

    Remarque : le stockage immuable pour le stockage Azure Blob permet aux utilisateurs de stocker des objets de données critiques dans un état WORM (Write Once, Read Many). Cet état rend les données non effaçables et non modifiables pendant un intervalle spécifié par l'utilisateur. Pendant la durée de l'intervalle de rétention, les blobs peuvent être créés et lus, mais ne peuvent pas être modifiés ou supprimés. Le stockage immuable est disponible pour les comptes de stockage v2 et Blob à usage général dans toutes les régions Azure.

    Vous devez vous assurer que les données archivées ne peuvent pas être supprimées pendant cinq ans.

    La solution doit empêcher les administrateurs de supprimer les données.

    Solution : vous créez un partage de fichiers et des instantanés.

    Vous devez vous assurer que les données archivées ne peuvent pas être supprimées pendant cinq ans.

    La solution doit empêcher les administrateurs de supprimer les données.

    Solution : vous créez un partage de fichiers et vous configurez une politique d'accès.

    Au lieu d'un partage de fichiers, un stockage Blob immuable est requis.

    Vous prévoyez de migrer les machines virtuelles vers un abonnement Azure.
    Vous devez recommander une solution pour répliquer les disques des machines virtuelles vers Azure. La solution doit garantir que les machines virtuelles restent disponibles lors de la migration des disques.

    Solution : vous recommandez d'implémenter un compte de stockage Azure, puis d'exécuter AzCopy.

    Vous prévoyez de migrer les machines virtuelles vers un abonnement Azure.
    Vous devez recommander une solution pour répliquer les disques des machines virtuelles vers Azure. La solution doit garantir que les machines virtuelles restent disponibles lors de la migration des disques.

    Solution : vous recommandez d'implémenter un compte de stockage Azure doté d'un service de fichiers et d'un service blob, puis d'utiliser l'assistant de migration de données.

    Vous prévoyez de migrer les machines virtuelles vers un abonnement Azure.
    Vous devez recommander une solution pour répliquer les disques des machines virtuelles vers Azure. La solution doit garantir que les machines virtuelles restent disponibles lors de la migration des disques.

    Solution : vous recommandez d'implémenter un coffre Recovery Services, puis d'utiliser Azure Site Recovery.

    Site Recovery peut répliquer des machines virtuelles VMware sur site, des machines virtuelles Hyper-V, des serveurs physiques (Windows et Linux), des machines virtuelles Azure Stack vers Azure.

    Vous identifiez les types suivants de données rarement consultées :
    ✑ Données de télémétrie : supprimées après deux ans
    ✑ Matériel promotionnel : Supprimé après 14 jours
    ✑ Données d'audit des machines virtuelles : supprimées après 200 jours

    Un collègue recommande d'utiliser le niveau d'accès aux archives pour stocker les données.

    Quel énoncé décrit précisément la recommandation ?

    Quelle solution de stockage recommandez-vous ?

    Activez la géo-réplication pour les images de conteneur.
    Bonne pratique : stockez vos images de conteneur dans Azure Container Registry et géo-répliquez le registre dans chaque région AKS.

    Pour déployer et exécuter vos applications dans AKS, vous avez besoin d'un moyen de stocker et d'extraire les images de conteneur. Container Registry s'intègre à AKS, ce qui lui permet de stocker en toute sécurité vos images de conteneurs ou vos graphiques Helm. Container Registry prend en charge la géo-réplication multimaître pour répliquer automatiquement vos images dans les régions Azure du monde entier.
    La géo-réplication est une fonctionnalité des registres de conteneurs SKU Premium.

    Noter:
    Lorsque vous utilisez la géoréplication de Container Registry pour extraire des images de la même région, les résultats sont :
    Plus rapide : vous extrayez des images à partir de connexions réseau à haut débit et à faible latence au sein de la même région Azure.
    Plus fiable : si une région n'est pas disponible, votre cluster AKS extrait les images d'un registre de conteneurs disponible.

    Que devez-vous inclure dans la recommandation ?

    Réponse incorrecte:
    Utilisez Azure File Sync pour centraliser les partages de fichiers de votre organisation dans Azure Files, tout en conservant la flexibilité, les performances et la compatibilité d'un serveur de fichiers local. Azure File Sync transforme Windows Server en un cache rapide de votre partage de fichiers Azure.
    Vous avez besoin d'un partage de fichiers Azure dans la même région que vous souhaitez déployer Azure File Sync.

    L'application doit répondre aux exigences suivantes :
    ✑ La latence du site Web doit être cohérente pour les utilisateurs de différentes régions géographiques.
    Les utilisateurs doivent pouvoir s'authentifier en utilisant Twitter et Facebook.
    ✑ Le code doit inclure uniquement du HTML, du JavaScript natif et du jQuery.
    Les coûts doivent être minimisés.

    Quel service Azure devez-vous utiliser pour compléter l'architecture ?

    Avec App Service, vous pouvez authentifier vos clients avec Azure Active Directory et les intégrer à Facebook, Twitter, Google.

    Quelle option de déploiement devez-vous utiliser ?

    La géo-réplication standard est disponible avec les bases de données Standard et Premium dans le portail de gestion Azure actuel et les API standard.

    Incorrect:
    Non B : le niveau de service Business Critical est conçu pour les applications qui nécessitent des réponses à faible latence du stockage SSD sous-jacent (1 à 2 ms en moyenne), une récupération rapide en cas de défaillance de l'infrastructure sous-jacente ou qui doivent décharger des rapports, des analyses et requêtes en lecture seule vers le réplica secondaire lisible gratuitement de la base de données primaire.

    Remarque : Azure SQL Database et Azure SQL Managed Instance sont tous deux basés sur l'architecture du moteur de base de données SQL Server qui est ajustée pour l'environnement cloud afin de garantir une disponibilité de 99,99 % même en cas de défaillance de l'infrastructure.

    Vous devez recommander les services Azure qui répondent aux objectifs de continuité d'activité et de reprise après sinistre. La solution doit minimiser les coûts.

    Que devriez-vous recommander pour chaque application?

    1.) Ventes
    2.) Finances
    3.) Rapports

    Prise en charge de la stratégie de rétention basée sur le temps : les utilisateurs peuvent définir des stratégies pour stocker les données pendant un intervalle spécifié. Lorsqu'une stratégie de rétention basée sur le temps est définie, les blobs peuvent être créés et lus, mais pas modifiés ou supprimés. Une fois la période de conservation expirée, les blobs peuvent être supprimés mais pas écrasés.

    Vous devez recommander une solution pour fournir les fichiers aux utilisateurs. La solution doit répondre aux exigences suivantes :
    ✑ Assurez-vous que les utilisateurs reçoivent des fichiers de la même région que l'application Web à laquelle ils accèdent.
    ✑ Assurez-vous que les fichiers ne doivent être téléchargés qu'une seule fois.
    Minimiser les coûts.

    Que devez-vous inclure dans la recommandation ?

    Que devriez-vous recommander?

    Solution : vous déployez un groupe de machines virtuelles identiques qui utilise l'autoscaling.

    Solution : vous déployez deux machines virtuelles Azure dans deux régions Azure et vous déployez une passerelle d'application Azure.

    Solution : vous déployez deux machines virtuelles Azure dans deux régions Azure et créez un profil Traffic Manager.

    Vous devez recommander une solution qui répond aux exigences suivantes :
    Minimise l'utilisation des processeurs de la machine virtuelle pour transférer des données
    Minimise la latence du réseau

    Quelle taille et fonctionnalité de machine virtuelle devez-vous utiliser ?

    1.) Taille de la machine virtuelle
    -Calcul optimisé Standard_F8s
    -Usage général Standard_B8ms
    -Calcul haute performance Standard_H16r
    -Mémoire optimisée Standard_E16s_v3

    La solution doit répondre aux exigences suivantes :
    Le niveau frontal doit être accessible à l'aide d'une adresse IP publique sur le port 80.
    ✑ Le niveau backend doit être accessible en utilisant le port 8080 à partir du niveau front-end uniquement.
    ✑ Les deux conteneurs doivent pouvoir accéder au même partage de fichiers Azure.
    ✑ Si un conteneur échoue, l'application doit redémarrer automatiquement.
    Les coûts doivent être minimisés.

    Que devriez-vous recommander d'utiliser pour héberger l'application ?

    Quelles sont les deux actions à recommander ?

    Vous devez recommander une solution pour supprimer AspNet-Version de la réponse des API publiées.

    Que devez-vous inclure dans la recommandation ?

    Vous disposez d'un script PowerShell qui identifie et supprime les fichiers en double dans le compte de stockage. Actuellement, le script est exécuté manuellement après approbation du responsable des opérations.

    Vous devez recommander une solution sans serveur qui effectue les actions suivantes :
    Exécute le script une fois par heure pour identifier s'il existe des fichiers en double
    ✑ Envoie une notification par e-mail au responsable des opérations demandant l'approbation de supprimer les fichiers en double
    ✑ Traite une réponse par e-mail du responsable des opérations spécifiant si la suppression a été approuvée
    Exécute le script si la suppression a été approuvée

    Que devez-vous inclure dans la recommandation ?

    Vous identifiez les exigences techniques suivantes :
    ✑ Toutes les machines virtuelles Azure doivent être placées sur le même sous-réseau nommé Subnet1.
    ✑ Toutes les machines virtuelles Azure doivent pouvoir communiquer avec tous les serveurs locaux.
    ✑ Les serveurs doivent pouvoir communiquer entre le réseau local et Azure à l'aide d'un VPN de site à site.

    Vous devez recommander une conception de sous-réseau qui répond aux exigences techniques.

    Que devez-vous inclure dans la recommandation ?

    Que devriez-vous recommander?

    La solution doit répondre aux exigences suivantes :
    ✑ Les demandes aux applications logiques des développeurs doivent être limitées à des taux inférieurs aux demandes des utilisateurs de Contoso.
    ✑ Les développeurs doivent pouvoir s'appuyer sur leur fournisseur OAuth 2.0 existant pour accéder aux applications logiques.
    ✑ La solution ne doit PAS nécessiter de modifications des applications logiques.
    ✑ La solution ne doit PAS utiliser de comptes invités Azure AD.

    Que devez-vous inclure dans la solution ?

    La gestion des API aide les organisations à publier des API auprès de développeurs externes, partenaires et internes afin de libérer le potentiel de leurs données et services.
    Vous pouvez sécuriser la gestion des API à l'aide du flux d'informations d'identification client OAuth 2.0.

    Que devez-vous inclure dans la solution ?

    Vous devez recommander une plate-forme pour héberger l'application. La solution doit répondre aux exigences suivantes :
    ✑ Prise en charge de la mise à l'échelle automatique.
    ✑ Prise en charge du déploiement continu à partir d'un registre de conteneurs Azure.
    Fournir des fonctionnalités intégrées pour authentifier les utilisateurs d'applications à l'aide d'Azure Active Directory (Azure AD).

    Quelle plateforme devez-vous inclure dans la recommandation ?

    Quelles deux options devriez-vous recommander?

    B : Le tunneling forcé vous permet de rediriger ou de « forcer » tout le trafic Internet vers votre emplacement sur site via un tunnel VPN de site à site pour inspection et audit.

    Il s'agit d'une exigence de sécurité critique pour la plupart des stratégies informatiques d'entreprise. Sans tunneling forcé, le trafic Internet de vos machines virtuelles dans Azure passe toujours de
    Infrastructure réseau Azure directement sur Internet, sans possibilité d'inspecter ou d'auditer le trafic.
    Le tunneling forcé dans Azure est configuré via des routes définies par l'utilisateur de réseau virtuel.

    C : ExpressRoute vous permet d'étendre vos réseaux locaux dans le cloud Microsoft via une connexion privée facilitée par un fournisseur de connectivité. Avec
    ExpressRoute, vous pouvez établir des connexions aux services cloud Microsoft, tels que Microsoft Azure, Office 365 et Dynamics 365.

    Que devez-vous inclure dans la recommandation ?

    Service Bus est un courtier de messages transactionnels et garantit l'intégrité transactionnelle de toutes les opérations internes par rapport à ses magasins de messages. Tous les transferts de messages à l'intérieur de Service Bus, tels que le déplacement de messages vers une file d'attente de lettres mortes ou le transfert automatique de messages entre entités, sont transactionnels.

    Que doivent utiliser les développeurs pour interagir avec les files d'attente ?

    Que devez-vous inclure dans la recommandation ?

    Vous devez recommander une technologie.

    Emplacement--Ressource
    Azure--abonnement Azure, 20 applications Web Azure
    Centre de données sur site : domaine Active Directory, serveur exécutant Azure AD Connect, ordinateur Linux

    Le domaine Active Directory local se synchronise avec Azure Active Directory (Azure AD).

    Server1 exécute une application nommée App1 qui utilise des requêtes LDAP pour vérifier les identités des utilisateurs dans le domaine Active Directory sur site.
    Vous prévoyez de migrer Server1 vers une machine virtuelle dans Subscription1.
    Une politique de sécurité de l'entreprise stipule que les machines virtuelles et les services déployés sur Subscription1 doivent être empêchés d'accéder au réseau sur site.

    Vous devez recommander une solution pour vous assurer qu'App1 continue de fonctionner après la migration. La solution doit respecter la politique de sécurité.

    Que devez-vous inclure dans la recommandation ?

    1.) Stockez le contenu à proximité des utilisateurs finaux :

    2.) Stocker du contenu à proximité de l'application :

    Un réseau de diffusion de contenu (CDN) est un réseau distribué de serveurs capables de diffuser efficacement du contenu Web aux utilisateurs. Les CDN stockent le contenu mis en cache sur des serveurs de périphérie dans des emplacements de point de présence (POP) proches des utilisateurs finaux, afin de minimiser la latence.
    Azure Content Delivery Network (CDN) offre aux développeurs une solution globale pour fournir rapidement du contenu à large bande passante aux utilisateurs en mettant leur contenu en cache sur des nœuds physiques stratégiquement placés à travers le monde. Azure CDN peut également accélérer le contenu dynamique, qui ne peut pas être mis en cache, en tirant parti de diverses optimisations de réseau à l'aide de CDN POP. Par exemple, l'optimisation des routes pour contourner le Border Gateway Protocol (BGP).

    Que devez-vous inclure dans la recommandation ?

    Vous identifiez les priorités de stockage pour différents types de données :

    Système d'exploitation-->Vitesse et disponibilité
    Base de données et journaux --> Vitesse et disponibilité
    Sauvegardes --> Coût le plus bas

    Quel type de stockage devriez-vous recommander pour chaque type de données ?

    1.) Système d'exploitation
    2.) Base de données et journaux
    3.) Sauvegardes

    Vous devez recommander une solution pour répondre aux exigences réglementaires.

    Solution : vous recommandez d'utiliser le tableau de bord de conformité réglementaire dans Azure Security Center.

    Le tableau de bord de conformité réglementaire dans Azure Security Center n'est pas utilisé pour la conformité régionale.

    Remarque : à la place, des définitions de stratégie de ressources Azure peuvent être utilisées et peuvent être appliquées à un groupe de ressources spécifique avec les instances App Service.

    Environnement Active Directory
    Le réseau contient deux forêts Active Directory nommées corp.fabrikam.com et rd.fabrikam.com.

    Il n'y a pas de relations d'approbation entre les forêts.
    Corp.fabrikam.com est une forêt de production qui contient les identités utilisées pour l'authentification interne des utilisateurs et des ordinateurs.
    Rd.fabrikam.com est utilisé uniquement par le service de recherche et développement (R&D).

    Infrastructure de réseau
    Chaque bureau contient au moins un contrôleur de domaine du domaine corp.fabrikam.com. Le bureau principal contient tous les contrôleurs de domaine de la forêt rd.fabrikam.com.
    Tous les bureaux disposent d'une connexion Internet haut débit.
    Une application existante nommée WebApp1 est hébergée dans le centre de données du bureau de Londres. WebApp1 est utilisé par les clients pour passer et suivre les commandes. WebApp1 a un niveau Web qui utilise Microsoft Internet Information Services (IIS) et un niveau base de données qui exécute Microsoft SQL Server 2016. Le niveau Web et le niveau base de données sont déployés sur des machines virtuelles qui s'exécutent sur Hyper-V.
    Le service informatique utilise actuellement un environnement Hyper-V distinct pour tester les mises à jour de WebApp1.
    Fabrikam achète toutes les licences Microsoft via un contrat d'entreprise Microsoft qui inclut la Software Assurance.

    Énoncés de problèmes
    L'utilisation de WebApp1 est imprévisible. Aux heures de pointe, les utilisateurs signalent souvent des retards. À d'autres moments, de nombreuses ressources pour WebApp1 sont sous-utilisées.

    Changements prévus
    Fabrikam prévoit de déplacer la plupart de ses charges de travail de production vers Azure au cours des prochaines années.
    Dans le cadre de l'un de ses premiers projets, la société prévoit d'établir un modèle d'identité hybride, facilitant un prochain déploiement de Microsoft Office 365.
    Toutes les opérations de R&D resteront sur site.
    Fabrikam prévoit de migrer les instances de production et de test de WebApp1 vers Azure et d'utiliser le plan S1.

    Les pré-requis techniques
    Fabrikam identifie les exigences techniques suivantes :
    -Le contenu du site Web doit être facilement mis à jour à partir d'un seul point.
    - L'entrée de l'utilisateur doit être minimisée lors du provisionnement de nouvelles instances d'applications Web.
    - Dans la mesure du possible, les licences sur site existantes doivent être utilisées pour réduire les coûts.
    -Les utilisateurs doivent toujours s'authentifier en utilisant leur identité UPN corp.fabrikam.com.
    -Tout nouveau déploiement sur Azure doit être redondant en cas d'échec d'une région Azure.
    - Dans la mesure du possible, les solutions doivent être déployées sur Azure en utilisant le niveau tarifaire Standard d'Azure App Service.
    -Un groupe de distribution d'e-mails nommé Support informatique doit être informé de tout problème lié aux services de synchronisation d'annuaires.
    -La synchronisation d'annuaire entre Azure Active Directory (Azure AD) et corp.fabrikam.com ne doit pas être affectée par une défaillance de liaison entre Azure et le réseau local.

    Configuration requise pour la base de données
    Fabrikam identifie les exigences de base de données suivantes :
    Les métriques de base de données pour l'instance de production de WebApp1 doivent être disponibles pour l'analyse afin que les administrateurs de base de données puissent optimiser les paramètres de performances.
    Pour éviter de perturber l'accès des clients, les temps d'arrêt des bases de données doivent être minimisés lors de la migration des bases de données.
    Les sauvegardes de bases de données doivent être conservées pendant au moins sept ans pour répondre aux exigences de conformité.

    Exigences de sécurité
    Fabrikam identifie les exigences de sécurité suivantes :
    Les informations de l'entreprise, y compris les politiques, les modèles et les données, doivent être inaccessibles à toute personne extérieure à l'entreprise.
    Les utilisateurs du réseau local doivent pouvoir s'authentifier auprès de corp.fabrikam.com en cas d'échec d'une liaison Internet.
    Les administrateurs doivent pouvoir s'authentifier auprès du portail Azure à l'aide de leurs informations d'identification corp.fabrikam.com.
    Tous les accès administratifs au portail Azure doivent être sécurisés à l'aide de l'authentification multifacteur.
    Le test des mises à jour de WebApp1 ne doit être visible par personne en dehors de l'entreprise.

    Question
    Que devez-vous inclure dans la stratégie de gestion des identités pour prendre en charge les changements prévus ?

    Environnement Active Directory
    Le réseau contient deux forêts Active Directory nommées corp.fabrikam.com et rd.fabrikam.com.

    Il n'y a pas de relations d'approbation entre les forêts.
    Corp.fabrikam.com est une forêt de production qui contient les identités utilisées pour l'authentification interne des utilisateurs et des ordinateurs.
    Rd.fabrikam.com est utilisé uniquement par le service de recherche et développement (R&D).

    Infrastructure de réseau
    Chaque bureau contient au moins un contrôleur de domaine du domaine corp.fabrikam.com. Le bureau principal contient tous les contrôleurs de domaine de la forêt rd.fabrikam.com.
    Tous les bureaux disposent d'une connexion Internet haut débit.
    Une application existante nommée WebApp1 est hébergée dans le centre de données du bureau de Londres. WebApp1 est utilisé par les clients pour passer et suivre les commandes. WebApp1 a un niveau Web qui utilise Microsoft Internet Information Services (IIS) et un niveau base de données qui exécute Microsoft SQL Server 2016. Le niveau Web et le niveau base de données sont déployés sur des machines virtuelles qui s'exécutent sur Hyper-V.
    Le service informatique utilise actuellement un environnement Hyper-V distinct pour tester les mises à jour de WebApp1.
    Fabrikam achète toutes les licences Microsoft via un contrat d'entreprise Microsoft qui inclut la Software Assurance.

    Énoncés de problèmes
    L'utilisation de WebApp1 est imprévisible. Aux heures de pointe, les utilisateurs signalent souvent des retards. À d'autres moments, de nombreuses ressources pour WebApp1 sont sous-utilisées.

    Changements prévus
    Fabrikam prévoit de déplacer la plupart de ses charges de travail de production vers Azure au cours des prochaines années.
    Dans le cadre de l'un de ses premiers projets, la société prévoit d'établir un modèle d'identité hybride, facilitant un prochain déploiement de Microsoft Office 365.
    Toutes les opérations de R&D resteront sur site.
    Fabrikam prévoit de migrer les instances de production et de test de WebApp1 vers Azure et d'utiliser le plan S1.

    Les pré-requis techniques
    Fabrikam identifie les exigences techniques suivantes :
    -Le contenu du site Web doit être facilement mis à jour à partir d'un seul point.
    - L'entrée de l'utilisateur doit être minimisée lors du provisionnement de nouvelles instances d'applications Web.
    - Dans la mesure du possible, les licences sur site existantes doivent être utilisées pour réduire les coûts.
    -Les utilisateurs doivent toujours s'authentifier en utilisant leur identité UPN corp.fabrikam.com.
    -Tout nouveau déploiement sur Azure doit être redondant en cas d'échec d'une région Azure.
    - Dans la mesure du possible, les solutions doivent être déployées sur Azure en utilisant le niveau tarifaire Standard d'Azure App Service.
    -Un groupe de distribution d'e-mails nommé Support informatique doit être informé de tout problème lié aux services de synchronisation d'annuaires.
    -La synchronisation d'annuaire entre Azure Active Directory (Azure AD) et corp.fabrikam.com ne doit pas être affectée par une défaillance de liaison entre Azure et le réseau local.

    Configuration requise pour la base de données
    Fabrikam identifie les exigences de base de données suivantes :
    Les métriques de base de données pour l'instance de production de WebApp1 doivent être disponibles pour l'analyse afin que les administrateurs de base de données puissent optimiser les paramètres de performances.
    Pour éviter de perturber l'accès des clients, les temps d'arrêt des bases de données doivent être minimisés lors de la migration des bases de données.
    Les sauvegardes de bases de données doivent être conservées pendant au moins sept ans pour répondre aux exigences de conformité.

    Exigences de sécurité
    Fabrikam identifie les exigences de sécurité suivantes :
    Les informations de l'entreprise, y compris les politiques, les modèles et les données, doivent être inaccessibles à toute personne extérieure à l'entreprise.
    Les utilisateurs du réseau local doivent pouvoir s'authentifier auprès de corp.fabrikam.com en cas d'échec d'une liaison Internet.
    Les administrateurs doivent pouvoir s'authentifier auprès du portail Azure à l'aide de leurs informations d'identification corp.fabrikam.com.
    Tous les accès administratifs au portail Azure doivent être sécurisés à l'aide de l'authentification multifacteur.
    Le test des mises à jour de WebApp1 ne doit être visible par personne en dehors de l'entreprise.

    Pour répondre aux exigences d'authentification de Fabrikam, que devez-vous inclure dans la solution ?

    -Nombre minimum de locataires Azure AD :
    terme-101
    -Nombre minimum de domaines personnalisés à ajouter :

    Le réseau contient deux forêts Active Directory nommées corp.fabrikam.com et rd.fabrikam.com. Il n'y a pas de relations d'approbation entre les forêts.

    -Nombre minimum de domaines personnalisés à ajouter : 1

    -Nombre minimum de politiques d'accès conditionnel à créer : 1

    Scénario:
    ✑ Les utilisateurs du réseau local doivent pouvoir s'authentifier auprès de corp.fabrikam.com en cas d'échec d'une liaison Internet.
    ✑ Les administrateurs doivent pouvoir s'authentifier sur le portail Azure à l'aide de leurs informations d'identification corp.fabrikam.com.
    ✑ Tous les accès administratifs au portail Azure doivent être sécurisés à l'aide de l'authentification multifacteur.

    Environnement Active Directory
    Le réseau contient deux forêts Active Directory nommées corp.fabrikam.com et rd.fabrikam.com.

    Il n'y a pas de relations d'approbation entre les forêts.
    Corp.fabrikam.com est une forêt de production qui contient les identités utilisées pour l'authentification interne des utilisateurs et des ordinateurs.
    Rd.fabrikam.com est utilisé uniquement par le service de recherche et développement (R&D).

    Infrastructure de réseau
    Chaque bureau contient au moins un contrôleur de domaine du domaine corp.fabrikam.com. Le bureau principal contient tous les contrôleurs de domaine de la forêt rd.fabrikam.com.
    Tous les bureaux disposent d'une connexion Internet haut débit.
    Une application existante nommée WebApp1 est hébergée dans le centre de données du bureau de Londres. WebApp1 est utilisé par les clients pour passer et suivre les commandes. WebApp1 a un niveau Web qui utilise Microsoft Internet Information Services (IIS) et un niveau base de données qui exécute Microsoft SQL Server 2016. Le niveau Web et le niveau base de données sont déployés sur des machines virtuelles qui s'exécutent sur Hyper-V.
    Le service informatique utilise actuellement un environnement Hyper-V distinct pour tester les mises à jour de WebApp1.
    Fabrikam achète toutes les licences Microsoft via un contrat d'entreprise Microsoft qui inclut la Software Assurance.

    Énoncés de problèmes
    L'utilisation de WebApp1 est imprévisible. Aux heures de pointe, les utilisateurs signalent souvent des retards. À d'autres moments, de nombreuses ressources pour WebApp1 sont sous-utilisées.

    Changements prévus
    Fabrikam prévoit de déplacer la plupart de ses charges de travail de production vers Azure au cours des prochaines années.
    Dans le cadre de l'un de ses premiers projets, la société prévoit d'établir un modèle d'identité hybride, facilitant un prochain déploiement de Microsoft Office 365.
    Toutes les opérations de R&D resteront sur site.
    Fabrikam prévoit de migrer les instances de production et de test de WebApp1 vers Azure et d'utiliser le plan S1.

    Les pré-requis techniques
    Fabrikam identifie les exigences techniques suivantes :
    -Le contenu du site Web doit être facilement mis à jour à partir d'un seul point.
    - L'entrée de l'utilisateur doit être minimisée lors du provisionnement de nouvelles instances d'applications Web.
    - Dans la mesure du possible, les licences sur site existantes doivent être utilisées pour réduire les coûts.
    -Les utilisateurs doivent toujours s'authentifier en utilisant leur identité UPN corp.fabrikam.com.
    -Tout nouveau déploiement sur Azure doit être redondant en cas d'échec d'une région Azure.
    - Dans la mesure du possible, les solutions doivent être déployées sur Azure en utilisant le niveau tarifaire Standard d'Azure App Service.
    -Un groupe de distribution d'e-mails nommé Support informatique doit être informé de tout problème lié aux services de synchronisation d'annuaires.
    -La synchronisation d'annuaire entre Azure Active Directory (Azure AD) et corp.fabrikam.com ne doit pas être affectée par une défaillance de liaison entre Azure et le réseau local.

    Configuration requise pour la base de données
    Fabrikam identifie les exigences de base de données suivantes :
    Les métriques de base de données pour l'instance de production de WebApp1 doivent être disponibles pour l'analyse afin que les administrateurs de base de données puissent optimiser les paramètres de performances.
    Pour éviter de perturber l'accès des clients, les temps d'arrêt de la base de données doivent être minimisés lors de la migration des bases de données.
    Les sauvegardes de bases de données doivent être conservées pendant au moins sept ans pour répondre aux exigences de conformité.

    Exigences de sécurité
    Fabrikam identifie les exigences de sécurité suivantes :
    Les informations de l'entreprise, y compris les politiques, les modèles et les données, doivent être inaccessibles à toute personne extérieure à l'entreprise.
    Les utilisateurs du réseau local doivent pouvoir s'authentifier auprès de corp.fabrikam.com en cas d'échec d'une liaison Internet.
    Les administrateurs doivent pouvoir s'authentifier sur le portail Azure à l'aide de leurs informations d'identification corp.fabrikam.com.
    Tous les accès administratifs au portail Azure doivent être sécurisés à l'aide de l'authentification multifacteur.
    Le test des mises à jour de WebApp1 ne doit être visible par personne en dehors de l'entreprise.

    Question
    Vous devez recommander une solution de notification pour le groupe de distribution du support informatique.

    Que devez-vous inclure dans la recommandation ?

    Environnement Active Directory
    Le réseau contient deux forêts Active Directory nommées corp.fabrikam.com et rd.fabrikam.com.

    Il n'y a pas de relations d'approbation entre les forêts.
    Corp.fabrikam.com est une forêt de production qui contient les identités utilisées pour l'authentification interne des utilisateurs et des ordinateurs.
    Rd.fabrikam.com est utilisé uniquement par le service de recherche et développement (R&D).

    Infrastructure de réseau
    Chaque bureau contient au moins un contrôleur de domaine du domaine corp.fabrikam.com. Le bureau principal contient tous les contrôleurs de domaine de la forêt rd.fabrikam.com.
    Tous les bureaux disposent d'une connexion Internet haut débit.
    Une application existante nommée WebApp1 est hébergée dans le centre de données du bureau de Londres. WebApp1 est utilisé par les clients pour passer et suivre les commandes. WebApp1 a un niveau Web qui utilise Microsoft Internet Information Services (IIS) et un niveau base de données qui exécute Microsoft SQL Server 2016. Le niveau Web et le niveau base de données sont déployés sur des machines virtuelles qui s'exécutent sur Hyper-V.
    Le service informatique utilise actuellement un environnement Hyper-V distinct pour tester les mises à jour de WebApp1.
    Fabrikam achète toutes les licences Microsoft via un contrat d'entreprise Microsoft qui inclut la Software Assurance.

    Énoncés de problèmes
    L'utilisation de WebApp1 est imprévisible. Aux heures de pointe, les utilisateurs signalent souvent des retards. À d'autres moments, de nombreuses ressources pour WebApp1 sont sous-utilisées.

    Changements prévus
    Fabrikam prévoit de déplacer la plupart de ses charges de travail de production vers Azure au cours des prochaines années.
    Dans le cadre de l'un de ses premiers projets, la société prévoit d'établir un modèle d'identité hybride, facilitant un prochain déploiement de Microsoft Office 365.
    Toutes les opérations de R&D resteront sur site.
    Fabrikam prévoit de migrer les instances de production et de test de WebApp1 vers Azure et d'utiliser le plan S1.

    Les pré-requis techniques
    Fabrikam identifie les exigences techniques suivantes :
    -Le contenu du site Web doit être facilement mis à jour à partir d'un seul point.
    - L'entrée de l'utilisateur doit être minimisée lors du provisionnement de nouvelles instances d'applications Web.
    - Dans la mesure du possible, les licences sur site existantes doivent être utilisées pour réduire les coûts.
    -Les utilisateurs doivent toujours s'authentifier en utilisant leur identité UPN corp.fabrikam.com.
    -Tout nouveau déploiement sur Azure doit être redondant en cas d'échec d'une région Azure.
    - Dans la mesure du possible, les solutions doivent être déployées sur Azure en utilisant le niveau tarifaire Standard d'Azure App Service.
    -Un groupe de distribution d'e-mails nommé Support informatique doit être informé de tout problème lié aux services de synchronisation d'annuaires.
    -La synchronisation d'annuaire entre Azure Active Directory (Azure AD) et corp.fabrikam.com ne doit pas être affectée par une défaillance de liaison entre Azure et le réseau local.

    Configuration requise pour la base de données
    Fabrikam identifie les exigences de base de données suivantes :
    Les métriques de base de données pour l'instance de production de WebApp1 doivent être disponibles pour l'analyse afin que les administrateurs de base de données puissent optimiser les paramètres de performances.
    Pour éviter de perturber l'accès des clients, les temps d'arrêt des bases de données doivent être minimisés lors de la migration des bases de données.
    Les sauvegardes de bases de données doivent être conservées pendant au moins sept ans pour répondre aux exigences de conformité.

    Exigences de sécurité
    Fabrikam identifie les exigences de sécurité suivantes :
    Les informations de l'entreprise, y compris les politiques, les modèles et les données, doivent être inaccessibles à toute personne extérieure à l'entreprise.
    Les utilisateurs du réseau local doivent pouvoir s'authentifier auprès de corp.fabrikam.com en cas d'échec d'une liaison Internet.
    Les administrateurs doivent pouvoir s'authentifier sur le portail Azure à l'aide de leurs informations d'identification corp.fabrikam.com.
    Tous les accès administratifs au portail Azure doivent être sécurisés à l'aide de l'authentification multifacteur.
    Le test des mises à jour de WebApp1 ne doit être visible par personne en dehors de l'entreprise.

    Vous devez recommander une stratégie pour migrer le contenu de la base de données de WebApp1 vers Azure.

    Que devez-vous inclure dans la recommandation ?

    Avant de télécharger une machine virtuelle (VM) Windows sur site vers Azure, vous devez préparer le disque dur virtuel (VHD ou VHDX).

    Environnement Active Directory
    Le réseau contient deux forêts Active Directory nommées corp.fabrikam.com et rd.fabrikam.com.

    Il n'y a pas de relations d'approbation entre les forêts.
    Corp.fabrikam.com est une forêt de production qui contient les identités utilisées pour l'authentification interne des utilisateurs et des ordinateurs.
    Rd.fabrikam.com est utilisé uniquement par le service de recherche et développement (R&D).

    Infrastructure de réseau
    Chaque bureau contient au moins un contrôleur de domaine du domaine corp.fabrikam.com. Le bureau principal contient tous les contrôleurs de domaine de la forêt rd.fabrikam.com.
    Tous les bureaux disposent d'une connexion Internet haut débit.
    Une application existante nommée WebApp1 est hébergée dans le centre de données du bureau de Londres. WebApp1 est utilisé par les clients pour passer et suivre les commandes. WebApp1 a un niveau Web qui utilise Microsoft Internet Information Services (IIS) et un niveau base de données qui exécute Microsoft SQL Server 2016. Le niveau Web et le niveau base de données sont déployés sur des machines virtuelles qui s'exécutent sur Hyper-V.
    Le service informatique utilise actuellement un environnement Hyper-V distinct pour tester les mises à jour de WebApp1.
    Fabrikam achète toutes les licences Microsoft via un contrat d'entreprise Microsoft qui inclut la Software Assurance.

    Énoncés de problèmes
    L'utilisation de WebApp1 est imprévisible. Aux heures de pointe, les utilisateurs signalent souvent des retards. À d'autres moments, de nombreuses ressources pour WebApp1 sont sous-utilisées.

    Changements prévus
    Fabrikam prévoit de déplacer la plupart de ses charges de travail de production vers Azure au cours des prochaines années.
    Dans le cadre de l'un de ses premiers projets, la société prévoit d'établir un modèle d'identité hybride, facilitant un prochain déploiement de Microsoft Office 365.
    Toutes les opérations de R&D resteront sur site.
    Fabrikam prévoit de migrer les instances de production et de test de WebApp1 vers Azure et d'utiliser le plan S1.

    Les pré-requis techniques
    Fabrikam identifie les exigences techniques suivantes :
    -Le contenu du site Web doit être facilement mis à jour à partir d'un seul point.
    - L'entrée de l'utilisateur doit être minimisée lors du provisionnement de nouvelles instances d'applications Web.
    - Dans la mesure du possible, les licences sur site existantes doivent être utilisées pour réduire les coûts.
    -Les utilisateurs doivent toujours s'authentifier en utilisant leur identité UPN corp.fabrikam.com.
    -Tout nouveau déploiement sur Azure doit être redondant en cas d'échec d'une région Azure.
    - Dans la mesure du possible, les solutions doivent être déployées sur Azure en utilisant le niveau tarifaire Standard d'Azure App Service.
    -Un groupe de distribution d'e-mails nommé Support informatique doit être informé de tout problème lié aux services de synchronisation d'annuaires.
    -La synchronisation d'annuaire entre Azure Active Directory (Azure AD) et corp.fabrikam.com ne doit pas être affectée par une défaillance de liaison entre Azure et le réseau local.

    Configuration requise pour la base de données
    Fabrikam identifie les exigences de base de données suivantes :
    Les métriques de base de données pour l'instance de production de WebApp1 doivent être disponibles pour l'analyse afin que les administrateurs de base de données puissent optimiser les paramètres de performances.
    Pour éviter de perturber l'accès des clients, les temps d'arrêt des bases de données doivent être minimisés lors de la migration des bases de données.
    Les sauvegardes de bases de données doivent être conservées pendant au moins sept ans pour répondre aux exigences de conformité.

    Exigences de sécurité
    Fabrikam identifie les exigences de sécurité suivantes :
    Les informations de l'entreprise, y compris les politiques, les modèles et les données, doivent être inaccessibles à toute personne extérieure à l'entreprise.
    Les utilisateurs du réseau local doivent pouvoir s'authentifier auprès de corp.fabrikam.com en cas d'échec d'une liaison Internet.
    Les administrateurs doivent pouvoir s'authentifier auprès du portail Azure à l'aide de leurs informations d'identification corp.fabrikam.com.
    Tous les accès administratifs au portail Azure doivent être sécurisés à l'aide de l'authentification multifacteur.
    Le test des mises à jour de WebApp1 ne doit être visible par personne en dehors de l'entreprise.

    Vous devez recommander une solution pour répondre à l'exigence de rétention de la base de données.

    Que devriez-vous recommander?

    Contoso, Ltd, est une société de services financiers basée aux États-Unis qui a un bureau principal à New York et une succursale à San Francisco.

    Environnement existant
    Système de traitement des paiements

    Contoso héberge un système de traitement des paiements stratégique dans son centre de données de New York. Le système comporte trois niveaux : une application Web frontale, une API Web de niveau intermédiaire et un magasin de données principal implémenté en tant que base de données Microsoft SQL Server 2014. Tous les serveurs exécutent Windows Server 2012 R2.

    Les composants frontaux et intermédiaires sont hébergés à l'aide de Microsoft Internet Information Services (IIS). Le code de l'application est écrit en C# et ASP.NET.
    L'API de niveau intermédiaire utilise Entity Framework pour communiquer avec la base de données SQL Server. La maintenance de la base de données est effectuée à l'aide des travaux de l'Agent SQL Server.
    La base de données fait actuellement 2 To et ne devrait pas dépasser 3 To.

    Le système de traitement des paiements a les exigences de conformité suivantes :
    -Crypter les données en transit et au repos. Seuls les composants frontaux et intermédiaires doivent pouvoir accéder aux clés de chiffrement qui protègent le magasin de données.
    -Conservez les sauvegardes des données dans deux emplacements physiques distincts distants d'au moins 200 milles et pouvant être restaurés jusqu'à sept ans.
    -Prise en charge du blocage du trafic entrant et sortant en fonction de l'adresse IP source, de l'adresse IP de destination et du numéro de port.
    -Collectez les journaux de sécurité Windows de tous les serveurs de niveau intermédiaire et conservez les journaux pendant une période de sept ans.
    -Inspectez le trafic entrant et sortant du niveau frontal en utilisant des appliances réseau hautement disponibles.
    -Autoriser uniquement tous les accès à tous les niveaux à partir du réseau interne de Contoso.

    Les sauvegardes sur bande sont configurées à l'aide d'un déploiement sur site de Microsoft System Center Data Protection Manager (DPM), puis expédiées hors site pour un stockage à long terme.

    Système de requête de transaction historique
    Contoso a récemment migré une charge de travail stratégique vers Azure. La charge de travail contient un service web .NET pour interroger les données de transaction historiques résidant dans Azure Table Storage. Le service Web .NET est accessible à partir d'une application cliente développée en interne et exécutée sur les ordinateurs clients du bureau de New York.
    Les données dans le stockage de la table sont de 50 Go et ne devraient pas augmenter.

    Questions d'actualité
    L'équipe informatique de Contoso découvre des performances médiocres du système de requête de transaction historique, car les requêtes provoquent fréquemment des analyses de table.

    Conditions
    Changements prévus
    Contoso prévoit d'implémenter les modifications suivantes :
    -Migrez le système de traitement des paiements vers Azure.
    -Migrez les données de transaction historiques vers Azure Cosmos DB pour résoudre les problèmes de performances.

    Exigences de migration
    Contoso identifie les exigences générales de migration suivantes :
    -Les services d'infrastructure doivent rester disponibles en cas de défaillance d'une région ou d'un centre de données.
    -Le basculement doit se produire sans aucune intervention administrative.
    - Dans la mesure du possible, les services managés Azure doivent être utilisés pour minimiser les frais généraux de gestion.
    - Dans la mesure du possible, les coûts doivent être minimisés.

    Contoso identifie les exigences suivantes pour le système de traitement des paiements :

    -En cas de défaillance d'un centre de données, assurez-vous que le système de traitement des paiements reste disponible sans aucune intervention administrative.
    -Le niveau intermédiaire et le frontal Web doivent continuer à fonctionner sans aucune configuration supplémentaire.
    -Assurez-vous que le nombre de nœuds de calcul des niveaux frontal et intermédiaire du système de traitement des paiements peut augmenter ou diminuer automatiquement en fonction de l'utilisation du processeur.
    -Assurez-vous que chaque niveau du système de traitement des paiements est soumis à un accord de niveau de service (SLA) de 99,99 % de disponibilité.
    -Minimiser l'effort requis pour modifier l'API de niveau intermédiaire et le niveau principal du système de traitement des paiements.
    -Le système de traitement des paiements doit pouvoir utiliser des tables de regroupement et de jointure sur des colonnes cryptées.
    -Générer des alertes lorsque des tentatives de connexion non autorisées se produisent sur les machines virtuelles de niveau intermédiaire.
    -S'assurer que le système de traitement des paiements conserve son statut de conformité actuel.
    -Hébergez le niveau intermédiaire du système de traitement des paiements sur une machine virtuelle

    Contoso identifie les exigences suivantes pour le système de requête de transaction historique :

    -Minimiser l'utilisation des services d'infrastructure sur site.
    -Minimiser l'effort requis pour modifier le service Web .NET interrogeant Azure Cosmos DB.
    -Minimiser la fréquence des analyses de table.
    -Si une région échoue, assurez-vous que le système de requête de transaction historique reste disponible sans aucune intervention administrative.

    Exigences de sécurité de l'information
    L'équipe de sécurité informatique veut s'assurer que la gestion des identités est effectuée à l'aide d'Active Directory. Les hachages de mot de passe doivent être stockés sur site uniquement.

    L'accès à tous les systèmes critiques pour l'entreprise doit reposer sur les informations d'identification Active Directory. Toute tentative d'authentification suspecte doit déclencher automatiquement une invite d'authentification multifacteur.

    Question
    Vous devez recommander une solution pour protéger le contenu du système de traitement des paiements.

    Que devez-vous inclure dans la recommandation ?

    Contoso, Ltd, est une société de services financiers basée aux États-Unis qui a un bureau principal à New York et une succursale à San Francisco.

    Environnement existant
    Système de traitement des paiements

    Contoso héberge un système de traitement des paiements stratégique dans son centre de données de New York. Le système comporte trois niveaux : une application Web frontale, une API Web de niveau intermédiaire et un magasin de données principal implémenté en tant que base de données Microsoft SQL Server 2014. Tous les serveurs exécutent Windows Server 2012 R2.

    Les composants frontaux et intermédiaires sont hébergés à l'aide de Microsoft Internet Information Services (IIS). Le code de l'application est écrit en C# et ASP.NET.
    L'API de niveau intermédiaire utilise Entity Framework pour communiquer avec la base de données SQL Server. La maintenance de la base de données est effectuée à l'aide des travaux de l'Agent SQL Server.
    La base de données fait actuellement 2 To et ne devrait pas dépasser 3 To.

    Le système de traitement des paiements a les exigences de conformité suivantes :
    -Crypter les données en transit et au repos. Seuls les composants frontaux et intermédiaires doivent pouvoir accéder aux clés de chiffrement qui protègent le magasin de données.
    -Conservez les sauvegardes des données dans deux emplacements physiques distincts distants d'au moins 200 milles et pouvant être restaurés jusqu'à sept ans.
    -Prise en charge du blocage du trafic entrant et sortant en fonction de l'adresse IP source, de l'adresse IP de destination et du numéro de port.
    -Collectez les journaux de sécurité Windows de tous les serveurs de niveau intermédiaire et conservez les journaux pendant une période de sept ans.
    -Inspectez le trafic entrant et sortant du niveau frontal en utilisant des appliances réseau hautement disponibles.
    -Autoriser uniquement tous les accès à tous les niveaux du réseau interne de Contoso.

    Les sauvegardes sur bande sont configurées à l'aide d'un déploiement sur site de Microsoft System Center Data Protection Manager (DPM), puis expédiées hors site pour un stockage à long terme.

    Système de requête de transaction historique
    Contoso a récemment migré une charge de travail stratégique vers Azure. La charge de travail contient un service web .NET pour interroger les données de transaction historiques résidant dans Azure Table Storage. Le service Web .NET est accessible à partir d'une application cliente développée en interne et exécutée sur les ordinateurs clients du bureau de New York.
    Les données dans le stockage de la table sont de 50 Go et ne devraient pas augmenter.

    Questions d'actualité
    L'équipe informatique de Contoso découvre des performances médiocres du système de requête de transaction historique, car les requêtes provoquent fréquemment des analyses de table.

    Conditions
    Changements prévus
    Contoso prévoit d'implémenter les modifications suivantes :
    -Migrez le système de traitement des paiements vers Azure.
    -Migrez les données de transaction historiques vers Azure Cosmos DB pour résoudre les problèmes de performances.

    Exigences de migration
    Contoso identifie les exigences générales de migration suivantes :
    -Les services d'infrastructure doivent rester disponibles en cas de défaillance d'une région ou d'un centre de données.
    -Le basculement doit se produire sans aucune intervention administrative.
    - Dans la mesure du possible, les services managés Azure doivent être utilisés pour minimiser les frais généraux de gestion.
    - Dans la mesure du possible, les coûts doivent être minimisés.

    Contoso identifie les exigences suivantes pour le système de traitement des paiements :

    -En cas de défaillance d'un centre de données, assurez-vous que le système de traitement des paiements reste disponible sans aucune intervention administrative.
    -Le niveau intermédiaire et le frontal Web doivent continuer à fonctionner sans aucune configuration supplémentaire.
    -Assurez-vous que le nombre de nœuds de calcul des niveaux frontal et intermédiaire du système de traitement des paiements peut augmenter ou diminuer automatiquement en fonction de l'utilisation du processeur.
    -Assurez-vous que chaque niveau du système de traitement des paiements est soumis à un accord de niveau de service (SLA) de 99,99 % de disponibilité.
    -Minimiser l'effort requis pour modifier l'API de niveau intermédiaire et le niveau principal du système de traitement des paiements.
    -Le système de traitement des paiements doit pouvoir utiliser des tables de regroupement et de jonction sur des colonnes cryptées.
    -Générer des alertes lorsque des tentatives de connexion non autorisées se produisent sur les machines virtuelles de niveau intermédiaire.
    -S'assurer que le système de traitement des paiements conserve son statut de conformité actuel.
    -Hébergez le niveau intermédiaire du système de traitement des paiements sur une machine virtuelle

    Contoso identifie les exigences suivantes pour le système de requête de transaction historique :

    -Minimiser l'utilisation des services d'infrastructure sur site.
    -Minimiser l'effort requis pour modifier le service Web .NET interrogeant Azure Cosmos DB.
    -Minimiser la fréquence des analyses de table.
    -Si une région échoue, assurez-vous que le système de requête de transaction historique reste disponible sans aucune intervention administrative.

    Exigences de sécurité de l'information
    L'équipe de sécurité informatique veut s'assurer que la gestion des identités est effectuée à l'aide d'Active Directory. Les hachages de mot de passe doivent être stockés sur site uniquement.

    L'accès à tous les systèmes critiques pour l'entreprise doit reposer sur les informations d'identification Active Directory. Toute tentative d'authentification suspecte doit déclencher automatiquement une invite d'authentification multifacteur.

    Question
    Vous devez recommander une solution pour le magasin de données du système de requête de transaction historique.

    Que devez-vous inclure dans la recommandation ?

    1.) Exigences de dimensionnement :
    -Une table à capacité illimitée
    -Une table qui a une capacité fixe
    -Plusieurs tables qui ont une capacité illimitée
    -Plusieurs tables à capacité fixe

    Contoso, Ltd, est une société de services financiers basée aux États-Unis qui a un bureau principal à New York et une succursale à San Francisco.

    Environnement existant
    Système de traitement des paiements

    Contoso héberge un système de traitement des paiements stratégique dans son centre de données de New York. Le système comporte trois niveaux : une application Web frontale, une API Web de niveau intermédiaire et un magasin de données principal implémenté en tant que base de données Microsoft SQL Server 2014. Tous les serveurs exécutent Windows Server 2012 R2.

    Les composants frontaux et intermédiaires sont hébergés à l'aide de Microsoft Internet Information Services (IIS). Le code de l'application est écrit en C# et ASP.NET.
    L'API de niveau intermédiaire utilise Entity Framework pour communiquer avec la base de données SQL Server. La maintenance de la base de données est effectuée à l'aide des travaux de l'Agent SQL Server.
    La base de données fait actuellement 2 To et ne devrait pas dépasser 3 To.

    Le système de traitement des paiements a les exigences de conformité suivantes :
    -Crypter les données en transit et au repos. Seuls les composants frontaux et intermédiaires doivent pouvoir accéder aux clés de chiffrement qui protègent le magasin de données.
    -Conservez les sauvegardes des données dans deux emplacements physiques distincts distants d'au moins 200 milles et pouvant être restaurés jusqu'à sept ans.
    -Prise en charge du blocage du trafic entrant et sortant en fonction de l'adresse IP source, de l'adresse IP de destination et du numéro de port.
    -Collectez les journaux de sécurité Windows de tous les serveurs de niveau intermédiaire et conservez les journaux pendant une période de sept ans.
    -Inspectez le trafic entrant et sortant du niveau frontal en utilisant des appliances réseau hautement disponibles.
    -Autoriser uniquement tous les accès à tous les niveaux du réseau interne de Contoso.

    Les sauvegardes sur bande sont configurées à l'aide d'un déploiement sur site de Microsoft System Center Data Protection Manager (DPM), puis expédiées hors site pour un stockage à long terme.

    Système de requête de transaction historique
    Contoso a récemment migré une charge de travail stratégique vers Azure. La charge de travail contient un service web .NET pour interroger les données de transaction historiques résidant dans Azure Table Storage. Le service Web .NET est accessible à partir d'une application cliente développée en interne et exécutée sur les ordinateurs clients du bureau de New York.
    Les données dans le stockage de la table sont de 50 Go et ne devraient pas augmenter.

    Questions d'actualité
    L'équipe informatique de Contoso découvre des performances médiocres du système de requête de transaction historique, car les requêtes provoquent fréquemment des analyses de table.

    Conditions
    Changements prévus
    Contoso prévoit d'implémenter les modifications suivantes :
    -Migrez le système de traitement des paiements vers Azure.
    -Migrez les données de transaction historiques vers Azure Cosmos DB pour résoudre les problèmes de performances.

    Exigences de migration
    Contoso identifie les exigences générales de migration suivantes :
    -Les services d'infrastructure doivent rester disponibles en cas de défaillance d'une région ou d'un centre de données.
    -Le basculement doit se produire sans aucune intervention administrative.
    - Dans la mesure du possible, les services managés Azure doivent être utilisés pour minimiser les frais généraux de gestion.
    - Dans la mesure du possible, les coûts doivent être minimisés.

    Contoso identifie les exigences suivantes pour le système de traitement des paiements :

    -En cas de défaillance d'un centre de données, assurez-vous que le système de traitement des paiements reste disponible sans aucune intervention administrative.
    -Le niveau intermédiaire et le frontal Web doivent continuer à fonctionner sans aucune configuration supplémentaire.
    -Assurez-vous que le nombre de nœuds de calcul des niveaux frontal et intermédiaire du système de traitement des paiements peut augmenter ou diminuer automatiquement en fonction de l'utilisation du processeur.
    -Assurez-vous que chaque niveau du système de traitement des paiements est soumis à un accord de niveau de service (SLA) de 99,99 % de disponibilité.
    -Minimiser l'effort requis pour modifier l'API de niveau intermédiaire et le niveau principal du système de traitement des paiements.
    -Le système de traitement des paiements doit pouvoir utiliser des tables de regroupement et de jointure sur des colonnes cryptées.
    -Générer des alertes lorsque des tentatives de connexion non autorisées se produisent sur les machines virtuelles de niveau intermédiaire.
    -S'assurer que le système de traitement des paiements conserve son statut de conformité actuel.
    -Hébergez le niveau intermédiaire du système de traitement des paiements sur une machine virtuelle

    Contoso identifie les exigences suivantes pour le système de requête de transaction historique :

    -Minimiser l'utilisation des services d'infrastructure sur site.
    -Minimiser l'effort requis pour modifier le service Web .NET interrogeant Azure Cosmos DB.
    -Minimiser la fréquence des analyses de table.
    -Si une région échoue, assurez-vous que le système de requête de transaction historique reste disponible sans aucune intervention administrative.

    Exigences de sécurité de l'information
    L'équipe de sécurité informatique veut s'assurer que la gestion des identités est effectuée à l'aide d'Active Directory. Les hachages de mot de passe doivent être stockés sur site uniquement.

    L'accès à tous les systèmes critiques pour l'entreprise doit reposer sur les informations d'identification Active Directory. Toute tentative d'authentification suspecte doit déclencher automatiquement une invite d'authentification multifacteur.

    Vous devez recommander une solution de sauvegarde pour le magasin de données du système de traitement des paiements.

    Que devez-vous inclure dans la recommandation ?

    Contoso, Ltd, est une société de services financiers basée aux États-Unis qui a un bureau principal à New York et une succursale à San Francisco.

    Environnement existant
    Système de traitement des paiements

    Contoso héberge un système de traitement des paiements stratégique dans son centre de données de New York. Le système comporte trois niveaux : une application Web frontale, une API Web de niveau intermédiaire et un magasin de données principal implémenté en tant que base de données Microsoft SQL Server 2014. Tous les serveurs exécutent Windows Server 2012 R2.

    Les composants frontaux et intermédiaires sont hébergés à l'aide de Microsoft Internet Information Services (IIS). Le code de l'application est écrit en C# et ASP.NET.
    L'API de niveau intermédiaire utilise Entity Framework pour communiquer avec la base de données SQL Server. La maintenance de la base de données est effectuée à l'aide des travaux de l'Agent SQL Server.
    La base de données fait actuellement 2 To et ne devrait pas dépasser 3 To.

    Le système de traitement des paiements présente les exigences de conformité suivantes :
    -Crypter les données en transit et au repos. Seuls les composants frontaux et intermédiaires doivent pouvoir accéder aux clés de chiffrement qui protègent le magasin de données.
    -Conservez les sauvegardes des données dans deux emplacements physiques distincts distants d'au moins 200 milles et pouvant être restaurés jusqu'à sept ans.
    -Prise en charge du blocage du trafic entrant et sortant en fonction de l'adresse IP source, de l'adresse IP de destination et du numéro de port.
    -Collectez les journaux de sécurité Windows de tous les serveurs de niveau intermédiaire et conservez les journaux pendant une période de sept ans.
    -Inspectez le trafic entrant et sortant du niveau frontal en utilisant des appliances réseau hautement disponibles.
    -Autoriser uniquement tous les accès à tous les niveaux à partir du réseau interne de Contoso.

    Les sauvegardes sur bande sont configurées à l'aide d'un déploiement sur site de Microsoft System Center Data Protection Manager (DPM), puis expédiées hors site pour un stockage à long terme.

    Système de requête de transaction historique
    Contoso a récemment migré une charge de travail stratégique vers Azure. La charge de travail contient un service web .NET pour interroger les données de transaction historiques résidant dans Azure Table Storage. Le service Web .NET est accessible à partir d'une application cliente développée en interne et exécutée sur les ordinateurs clients du bureau de New York.
    Les données dans le stockage de la table sont de 50 Go et ne devraient pas augmenter.

    Questions d'actualité
    L'équipe informatique de Contoso découvre les performances médiocres du système de requête de transaction historique, car les requêtes provoquent fréquemment des analyses de table.

    Conditions
    Changements prévus
    Contoso prévoit d'implémenter les modifications suivantes :
    -Migrez le système de traitement des paiements vers Azure.
    -Migrez les données de transaction historiques vers Azure Cosmos DB pour résoudre les problèmes de performances.

    Exigences de migration
    Contoso identifie les exigences générales de migration suivantes :
    -Les services d'infrastructure doivent rester disponibles en cas de défaillance d'une région ou d'un centre de données.
    -Le basculement doit se produire sans aucune intervention administrative.
    - Dans la mesure du possible, les services managés Azure doivent être utilisés pour minimiser les frais généraux de gestion.
    - Dans la mesure du possible, les coûts doivent être minimisés.

    Contoso identifie les exigences suivantes pour le système de traitement des paiements :

    -En cas de défaillance d'un centre de données, assurez-vous que le système de traitement des paiements reste disponible sans aucune intervention administrative.
    -Le niveau intermédiaire et le frontal Web doivent continuer à fonctionner sans aucune configuration supplémentaire.
    -Assurez-vous que le nombre de nœuds de calcul des niveaux frontal et intermédiaire du système de traitement des paiements peut augmenter ou diminuer automatiquement en fonction de l'utilisation du processeur.
    -Assurez-vous que chaque niveau du système de traitement des paiements est soumis à un accord de niveau de service (SLA) de 99,99 % de disponibilité.
    -Minimiser l'effort requis pour modifier l'API de niveau intermédiaire et le niveau principal du système de traitement des paiements.
    -Le système de traitement des paiements doit pouvoir utiliser des tables de regroupement et de jointure sur des colonnes cryptées.
    -Générer des alertes lorsque des tentatives de connexion non autorisées se produisent sur les machines virtuelles de niveau intermédiaire.
    -S'assurer que le système de traitement des paiements conserve son statut de conformité actuel.
    -Hébergez le niveau intermédiaire du système de traitement des paiements sur une machine virtuelle

    Contoso identifie les exigences suivantes pour le système de requête de transaction historique :

    -Minimiser l'utilisation des services d'infrastructure sur site.
    -Minimiser l'effort requis pour modifier le service Web .NET interrogeant Azure Cosmos DB.
    -Minimiser la fréquence des analyses de table.
    -Si une région échoue, assurez-vous que le système de requête de transaction historique reste disponible sans aucune intervention administrative.

    Exigences de sécurité de l'information
    L'équipe de sécurité informatique veut s'assurer que la gestion des identités est effectuée à l'aide d'Active Directory. Les hachages de mot de passe doivent être stockés sur site uniquement.

    L'accès à tous les systèmes critiques pour l'entreprise doit reposer sur les informations d'identification Active Directory. Toute tentative d'authentification suspecte doit déclencher automatiquement une invite d'authentification multifacteur.

    Vous devez recommander une solution de calcul pour le niveau intermédiaire du système de traitement des paiements.


    Voir la vidéo: QGIS Tutorials 004 TD 1 1 Intro jointures calculs et requetes