Simple and secure by Design but Business compliant [Benoît SAUTIERE / MVP]

Simple, yes, Secure Maybe, by design for sure, Business compliant always

Common Tasks

Recent Posts

Tags

Community

Email Notifications

Blogs

Archives

Microsoft n'oublie pas la sécurité de ses OS "Legacy"

Avec le cycle "Rapid release" de Microsoft ces derniers temps pour les produits "On premise", on pourrait penser que Microsoft oublie un peu ses systèmes "Legacy". On parle ici de Windows 7 et Windows Server 2008 R2, des OS pas si vieux que cela. Pourtant entre temps, on a déjà eu droit à :

  • Windows 8 / Windows 2012
  • Windows 8.1 / Windows Server 2012 R2
  • Et bientôt Windows 10 preview / Windows Server 10 preview

Donc oui, Windows 7, c'est super véritablement un OS "Legacy" pourtant, il a encore une belle vie devant lui.

    clip_image001

Même si Microsoft pousse en avant ses nouveaux systèmes d'exploitation et les nouvelles fonctionnalités de sécurité, il n'en oublie pas moins les systèmes "legacy". Ce mois-ci, dans le cadre du processus de livraison mensuel des correctifs, Microsoft a mis à disposition :

Initialement, ce sont des fonctionnalités de sécurité qui sont disponibles que depuis Windows 8. C'est un mouvement intéressant de la part de Microsoft, l'éditeur n'oublie pas le système d'exploitation les systèmes d'exploitation les plus déployés.

 

Note : En date du 17/10/2014, Microsoft a retiré le correctif KB2949927. Il semblerait qu'il soit source de problèmes rencontrés par certains utilisateurs suite à son installation. On attendra donc un peu avant de pouvoir le déployer.

 

BenoîtS - Simple and secure by design but business compliant

Windows Azure Pack–Les APIs publiques des locataires

Attention, âmes sensibles, arrêtez vous ici. j’y ai laissé une boite d’aspirine et des nuits sans sommeil. Si vous n’êtes qu’un locataire d’une plateforme Windows Azure Pack, passez votre chemin. Par contre, les exploitants sont invités à rester enfermé dans la salle des tortures de mon donjon avec moi.

Maintenant qu'on a quelque chose de présentable du point de vue end-user, intéressons-nous à ce que nous présentons sous la moquette. Le portail, c'est bien mais pour nos clients, des services cloud, c'est bien plus qu'un portail, c'est aussi un jeu d'API exposé pour consommer les services. C'est un sujet que j'avais volontairement exclus du billet précédent car je voulais y consacrer un billet pour explorer à la fois la partie serveur mais aussi cliente. On verra qu'il y a beaucoup de parallèles avec son grand frère.

 

Partons de l'expérience de notre locataire

Lorsque nos locataires se connectent sur le portail, voilà l'interface qui leur est présentée. S'il dispose déjà d'un compte sur la plateforme, il peut s'authentifier. Les mécanismes d'authentifications feront l'objet de plusieurs billets (c'est presque un monde à part).

clip_image001

Pour ceux qui se posent la question et ne peuvent pas attendre les prochains billets, ce compte a été créé par WAP dans sa base SQL. Ce ne sont pas des comptes AD. Coté utilisateur, on peut aussi lui proposer de créer son propre compte. Celui-ci ne sera actif qu'après validation.

clip_image002

C'est un choix du fournisseur de la plateforme de Windows Azure Pack. Plus généralement, Windows Azure Pack propose des fonctionnalités pour gérer le cycle de vie des comptes de ses locataires (réinitialisation de mot de passe, vérification de compte, …).

clip_image003

A mon sens, ce n'est pas une bonne idée de laisser les utilisateurs se créer leurs propres comptes ainsi. Les informations fournies par l'utilisateur sont très minimalistes. En tant que fournisseurs de service, on ne dispose pas assez d'informations pour savoir à qui adresser la facture. Des mécanismes de notification peuvent être activés (envoi de mail de confirmation, …). Bref, c'est pas si mal que cela pour une V1. J'ai hâte de voir la V.Next.

clip_image004

Dans le cas présent, j'ai déjà un locataire (oui il a fuit lâchement mais on le torturera plus tard, …) sur ma plateforme, et il a souscrit à un plan.

clip_image005

Nous avons donc un client provisionné, il peut utiliser son portail ou accéder directement à l'API publique lui permettant de manipuler son tenant.

 

Un peu de travail coté client avant de commencer

Si Windows Azure Pack est le petit frère de Microsoft Azure, c'est pas pour rien. Il réutilise déjà la même plateforme pour installer ses prérequis : Le web Plateform Installer. S'il est pas déjà installé, c'est disponible à cette adresse dans Microsoft Azure. Dans la section "Command-Line Tools", il y a une sous-section Windows PowerShell. Y a plus qu'à cliquer sur Install.

clip_image006

Avec un peu de patience (surtout vi vous avez un débit en download proche du néant), ça fini par arriver.

clip_image007

On passe par cet installer pour installer l'API PowerShell de Microsoft. Elle inclus celle de Windows Azure Pack, on verra plus loin que c'est un sous-ensemble.

clip_image008

Dans ma liste de course, un seul élément : Microsoft Azure PowerShell. La taille du download peut varier en fonction de l'évolution de l'API mise à disposition par Microsoft (oui elle évolue vite) et des autres prérequis qui peuvent être nécessaires (Framework Dot.Net 4.0).

clip_image009

Même si c'est pas indiqué dans l'interface, il y a du monde dans les prérequis, donc il faut prendre son mal en patience.

clip_image010

Le processus d'installation est direct, pas de questions superficielles. Jusqu'à maintenant, c'est de l'Azure-like.

clip_image011

Au terme de l'installation, on peut nous demander de redémarrer notre poste de travail. En même temps, vu le nombre de composants installées, c'est normal. Attention, si un redémarrage est nécessaire, c'est que peut être des composants vont continuer à s'installer après.

clip_image012

Après redémarrage, on constatera que le module demandé est bien installé.

clip_image013

Au final, voilà la liste des composants installé sur le poste de travail de mon locataire.

clip_image014

Un rapide tour du propriétaire nous confirme que Windows Azure Pack a bien Microsoft Azure comme parent. Cela veut dire qu'ils auront beaucoup de choses en commun.

clip_image015

A ce stade, pas possible d'aller plus loin et pour cause, l'accès au TenantAPI nous sera refusé. What? Ouvrez la boite d’aspirine et avalez la tout de suite. Bienvenu dans la salle de torture de mon donjon.

 

Les APIs du tenant

C'est maintenant que ça se complique car elles sont deux et il n'y en a qu'une qui nous intéresse tout de suite, c'est la TenantPublicAPI. C'est un composant de Windows Azure Pack. A ce titre, il dispose donc d'un namespace que nous pouvons explorer avec le module PowerShell que nous connaissons déjà.

clip_image016

La différence entre TenantAPI et TenantPublicAPI tiens au fait que l'une est censé être exposée sur Internet, l'autre non. Donc c'est TenantPublicAPI qui nous intéresse. Comme pour les autres modules, il est configuré pour utiliser un certificat auto-signé et un port exotique. La commande PowerShell Get-MgmtSvcFQDN nous le confirmera. Coté IIS, on a bien un site web MgmtSvc-TenantAPI.

clip_image017

Vu l'expérience précédente avec les deux portails, on se doute bien de ce qu'on va trouver dans IIS (c'est toujours aussi moche).

clip_image018

Pas la peine de faire un dessin. Le certificat auto-signé du Web Service devra être remplacé avec un certificat délivré par une autorité reconnue par nos futurs locataires. Comme pour le portail des locataires et le TenantAuthSite, c'est un composant que nous devrons exposer sur Internet. Dans ma maquette, tous les composants de Windows Azure Pack sont installés sur la même plateforme. La bonne pratique serait de localiser les modules TenantAuthSite, TenantPortal et TenantPublicAPI en DMZ, sur un même serveur. D'un point de vue sécurité, l'erreur est de localiser le TenantAPI et le TenantPublicAPI sur la même machine exposée sur Internet. Pour faire simple, on va conserver la même adresse IP ainsi que le port exotique. Dans mon DNS interne, j'ai donc créé l'entrée suivante : TenantPublicAPI.WindowsAzurePack.Lan et demandé le certificat ci-dessous :

clip_image019

Ce certificat sera utilisé pour remplacer le certificat existant sur le binding tout en conservant le port par défaut (30006).

clip_image020

Note : Redémarrer le site web est encore essentiel. On va écraser le binding actuel, le TenantPublicAPI ne répondra plus.

Les puristes de IIS me reprocheront de ne pas utiliser la fonctionnalité Server Name Indication (SNI) disponible depuis IIS 8.0. Certes, cela permet de binder plusieurs certificats sur une même adresse IP en conservant le port 443 plus "user-friendly" mais dès lorsqu'on va faire du scale-out avec Windows Azure Pack, on va finir par dédier un serveur et donc une adresse IP. En plus, cela implique que les navigateurs Internet de vos clients le supporte (impose l'usage de TLS). Enfin, avec la haute disponibilité, est-ce que votre matériel supporte le SNI? Au final, même si cela fonctionne, c'est imposer une forte contrainte d'accès à notre service Cloud. Voulez-vous vous priver d'une partie de vos futurs locataires? Au passage, offrez une boite d’aspirine à votre équipe réseau. Elle en aura besoin lorsqu’on commencera à parler haute disponibilité Sourire.

Nous revoyons la commande Set-MgmtSvcFqdn que nous avions déjà utilisée. C'est pas plus compliqué que cela. Vu qu'on a déjà reconfiguré le TenantAuthSite,

clip_image021

Note : Ne pas oublier de redémarrer le Web Service.

Voilà pour l'API exposée à nos futurs locataires. Passons maintenant à la TenantAPI. Microsoft a séparé l'API dédiée au tenants en deux parties pour isoler certaines fonctions, pour que celles-ci ne soient pas accessibles depuis Internet.

clip_image022

Allons l'explorer un peu la configuration de ce namespace avec la commande Get-MgmtSvcFQDN :

clip_image023

Il opère donc sur le port 30005 et utilise un certificat auto-signé. On va donc avoir une nouvel enregistrement DNS tenantapi.windowsazurepack.lan, donc un nouveau certificat issu de mon autorité de certification interne.

clip_image024

Dans la console IIS, on va remplacer le certificat auto-signé tout en conservant le port 30005.

clip_image025

Note : On n'oublie pas de redémarrer le site web pour que la configuration soit active.

Encore une fois, il faut aussi actualiser l'information dans la base de données de Windows Azure Pack avec la commande Set-MgmtSvcFqdn que nous avions déjà utilisée.

clip_image026

 

Y a des détails qui changent tout

On est prêt coté serveur. Pourtant, il reste un truc qui me chiffonne. Comment Windows Azure Pack pouvait-il accepter de fonctionner avec des certificats auto-signés. Y avait forcément un truc sous la moquette. Dans le billet sur le Best-Practice Analyzer de Windows Azure Pack, on avait mis le doigt sur un sujet important :

clip_image027

Y a des résidus. OK, on pourrait directement attaquer les fichiers de configuration IIS ou utiliser le module Powershell WebAdministration pour corriger le problème. C'est faisable mais pas élégant. En plus Windows Azure Pack à mieux à proposer. Revoyons un peu la liste des commandes mises à disposition par le module de configuration de Windows Azure Pack.

clip_image028

Explorons un peu la configuration de nos deux namespaces du moment (TenantAPI et PublicTenantAPI), on a des choses à voir.

clip_image029

On va commencer par reconfigurer le namespace TenantAPI pour bien vérifier les certificats SSL qui lui sont présentés.

clip_image030

Idem pour le TenantPublicAPI.

clip_image031

Là où cela devient intéressant, c'est que ce paramétrage des namespaces a été poussé sur tous les serveurs raccordés à notre infrastructure Windows Azure Pack. C'est donc un moyen très efficace de propager des paramétrages quel que soit la taille de notre infrastructure.

 

Back to client-side

Coté Windows Azure Pack, c'est bon. Revenons à notre locataire qui veut utiliser le module PowerShell de Microsoft Azure pour piloter les actions dans son tenant. Pour simplifier les choses, mon utilisateur de test est déjà enregistré et a souscrit à un plan. Dans son portail, il n'y a pas grand-chose. On retrouve des rubriques que nous connaissons déjà dans le portail de son grand frère.

clip_image032

Note : Je suis sur un client qui reconnait l'autorité de certification émettrice du certificat Wapcloud.Windowsazurepack.lan et en mesure de récupérer sa CRL. Sinon, c’est tout de suite moins fun Sourire.

Comme pour Microsoft Azure, ce qui nous intéresse c'est le fichier XML PublishSettings.XML. Dans Microsoft Azure, c'est disponible à cette adresse https://windows.azure.com/download/publishprofile.aspx. Dans Windows Azure Pack, c'est le même principe, y a juste l'adresse qui change. Dans ma maquette, il est disponible à l'adresse suivante https://wapcloud.windowsazurepack.lan/publishsettings.

clip_image033

Si on regarde le contenu, on retrouve beaucoup d'éléments que nous connaissons déjà. On constate aussi qu'il était temps de modifier l'URL de Service Management (TenantPublicAPI).

clip_image034

Passons maintenant au plat de résistance, le module PowerShell. Comme indiqué, les commandes relatives à Windows Azure Pack sont un sous-ensemble de celles de Microsoft Azure.

clip_image035

Avec Microsoft Azure, on utiliserait la commande Import-AzurePublishSettingsFile pour se connecter à notre tenant. Avec Windows Azure Pack, c'est presque cela : Import-WAPackPublishSettingsFile.

clip_image036

Ce fichier contenait un peu plus d'informations que prévu. Il contenait un certificat installé dans notre magasin personnel (avec sa clé privée). Cherchez pas, c'est encore un auto-signé.

clip_image037

C'est ce même certificat que nous retrouvons dans le portail du locataire dans la section "Management certificates". Nous conservons la clé privée. Coté Windows Azure Pack, il n'y a que la clé publique de référencée.

clip_image038

Note : Vu ce que contient mon fichier publishsettings, la recommandation est de le supprimer dès que l'importation a été réalisée.

 

Ca y est, on a fini. Bienvenu dans ton cloud locataire (oui j’ai osé la faire Tire la langue).

 

Même si j’ai clos ce sujet, je suis pas à l’abris d’en découvrir encore sur les API dédiées aux locataires. Le billet sera donc actualisé en fonction des découvertes. Faites les stocks de boite d’aspirine.

Félicitations à ceux qui sont arrivés au terme de ce billet. Ils méritent le badge “Windows Azure Pack survivor”. cependant, vous êtes encore loin de devenir le maitre du donjon. Il reste beaucoup de choses à voir dans la salle des tortures, … Sournois

 

BenoîtS - Simple and Secure by design but business compliant

Windows Azure Pack Best Practice Analyzer

Une petite pause dans ma quête de Windows Azure Pack. Avant que ça pique trop les yeux et que cela devienne réellement une prise de tête,je cherche toujours à savoir si "out-of the box", il n'y avait pas un peu d'aide intégrée (le Update-Help c'est magique mais y a pas que Powershell dans la vie). Avec mon installation par défaut de Windows Azure Pack, cela devait être le cas puisqu'on avait un module "Microsoft Best Practice Analyzer" installé par défaut.

clip_image001

Il ne me manque donc que de quoi tirer profit de cette aide en installant le Microsoft Baseline Configuration Analyzer.

clip_image002

Bien évidemment, il n'est pas installé par défaut. Une fois installé, il détecte automatiquement le module d'analyse de configuration de Windows Azure Pack. A noter que si nous avions une installation distribuée de la bête, il faudra donc installer le MBCA sur tous les hôtes concernés.

clip_image003

Une fois l'analyse terminée, les précieux conseils sont prodigués.

clip_image004

Dans la liste des conseils, il y a des évidences :

  • Remplacer les certificats auto-signés et reconfigurer WAP c'est bien, c'est mieux si on supprimait aussi les certificats auto-signés
  • Installer tous les modules sur le même serveur, c'est le mal incarné

Mais il y a aussi de précieux conseils :

  • Remplacer les certificats auto-signés c'est bien mais si en plus on supprimait le paramètre DisableSSLCertValidation de la configuration IIS ce serait mieux
  • Conserver SSL V2, c'est un crime (sic)

Le produit facilite aussi grandement la recherche des configurations "exotiques". Dans l'illustration ci-dessous, on retrouve bien l'utilisation de la désactivation de de la vérification de certificats SSL activée.

clip_image005

Au passage, si descendre dans les entrailles de la bête ne vous effraie pas, le WAPTrace mis à disposition par Microsoft est très pratique. Attention, ça va piquer les yeux. C'est des Web Services qui causent entre eux.

 

Bref, y a de quoi encore occuper des longues soirées d’hivers avant d’arriver au bout de la bête.

 

BenoîtS - Simple and secure by design but business compliant

Some new DirectAccess unsupported scenarios

I was involved in some DirectAccess pre-sale & projects with One-Time Password feature. For a while we have a dedicated Technet web page for special cases / requests or scenarios DirectAccess Unsupported Configurations. I used to have a look at it some time to time to check if I missed something. Today, I was surprised to  discover new section related to OTP scenarios :

UNSUPPORTED

I understand for the second one. We must establish a SSL session excluded from the IPSEC tunnel, that is not possible with force tunneling. IMO, force tunneling feature need to be reviewed (a wish for Windows V.Next). From a technical point of view we can replace it with the Web Filtering for DirectAccess users approach.

For the first one, it’s a surprise. I was about to consider the SSL Offload for IP-HTTPS DirectAccess Traffic from Windows 7 Clients using F5 BIG-IP proposed by Richard Hicks for a project of mine including OTP. I will have to forget SSL Offload. In some way it’s logic, we cannot have different way to manage SSL authentication for the same endpoint (ISAPI filter used by OTP and IPHTTPS endpoint).

 

BenoîtS – Simple and Secure by Design but Business compliant.

MVP Enterprise Security MVP renewed, six year now

You will have to support me and my obscure blog post one more year. I was renewed as Enterprise Security MVP one more year. Like last year, I reviewed posts I published this year to look if I reached my objectives.

So expect to see some Windows Azure Pack posts in the next weeks.

 

Benoits – Simple and Secure by design but business compliant

Personnalisation des URL de Windows Azure Pack
    shocking isn't it?

    La première chose qui choque, ce sont les URL en localhost, ports exotiques ainsi que la collection de certificats auto-signés. Ci-dessous ce qu'on peut constater à la première connexion au portail d'administration de Windows Azure Pack.

    clip_image001

    Pour le portail des tenants, c'est pareil, pas vraiment user-firendly pour offrir du service. En même temps, le processus d'installation de Windows Azure Pack est on ne peut plus direct. A part la configuration de la base SQL Server (en mode mixte obligatoirement) et la pass-phrase nécessaire pour accéder à la configuration de Windows Azure Pack, il n'y a aucune question sur les certificats ou URL à utiliser. Le sujet n'étant pas si simple, je me suis inspiré de l'excellent billet Windows Azure Pack - Reconfigure portal names, ports and use trusted certificates. Le seul défaut, c'est que ça va direct à l'essentiel, sans expliquer pourquoi on doit en passer par là, pourquoi c'est si compliqué.

    Si on relit mon billet Quelques notes sur Windows Azure Pack, Windows Azure Pack n'est qu'un assemblages de Web Services au-dessus desquels on trouve deux portails. Dans le contexte de ce billet, on va se focaliser sur les sites web & Web services suivants:

  • WAP Tenant Portal Service (MgmtSvc-TenantSite): Hosts the WAP Tenant Portal
  • WAP Tenant Authentication Service (MgmtSvc-AuthSite): Hosts the authentication for tenants
  • WAP Admin Portal Service (MgmtSvc-WindowsAdminSite): Hosts the Admin Portal
  • WAP Admin Authentication Service (MgmtSvc-WindowsAuthSite): Hosts the Admin Authentication
  • Donc on devine qu'à un moment ou un autre, il faudra traiter le cas de certificats auto-signés restant.

    Situation de départ

    Dans une installation par défaut, on utilise des certificats auto-signés et pas qu'un peu.

    clip_image002

    Bref, pas glop. On va revoir tout ça et commencer par utiliser les URL un peu plus parlantes. Dans le contexte de ce billet, on va mettre en place de véritables certificats et utiliser des ports moins exotiques que ceux utilisés à la fin de l'installation comme on peut le constater ci-dessous :

    clip_image003

    Mais pourquoi Microsoft a-t-il fait si compliqué?

    C'est simple pourtant. Windows Azure Pack est entièrement modulaire. On peut donc déployer :

  • Tous ses modules sur un même serveur (le cas de ce billet)
  • Les répartir sur plusieurs pour la haute disponibilité (ça chatouille)
  • Séparer les rôles pour assurer l'isolation (là ça commence à piquer)
  • Séparer les rôles pour assurer l'isolation et assurer la haute disponibilité (mode hardcore gamer)
  • Le processus d'installation par défaut configure tous les modules pour utiliser localhost et des certificats auto-signé (un par usage). D’où le nombre élevé de certificats sur la plateforme. Personnellement, je trouve l'approche excellente, reste à améliorer le processus d'installation pour configurer les différents modules pendant l'installation. Vu qu'on va personnaliser des modules, pas possible de faire cela depuis le site web d'administration (on va rapidement scier la branche sur laquelle on est assise), il faut donc tout faire en PowerShell.

    Plusieurs processus d'authentification

    On a deux populations (Admin & tenant) qui accèdent à des portails bien distincts. On part du principe que :

  • Les locataires doivent pouvoir accéder à leur portail depuis l'extérieur (internet)
  • Les administrateurs de la plateforme qui doivent pouvoir administrer depuis le réseau interne
  • Dans les deux cas, Microsoft a utilisé une approche modulaire et distingué :

  • Le portail en lui-même qui va exploiter une module d'authentification
  • Le module d'authentification lui-même qui peut utiliser plusieurs fournisseurs d'authentification
  • Un Web Service offrant les API propre à chaque usage
  • On ne peut pas segmenter plus. Quelque part, on peut comparer Windows Azure Pack avec Mindcraft. On va tous avoir les mêmes briques et pourtant en faire des univers totalement différents PAAS, IAAS, …

    Notre cible

    La cible, c'est d'avoir des URL plus user-friendly pour les portails d'administration et celui destiné aux locataires. C'est le minimum. Dans le tableau ci-dessous la configuration que nous allons mettre en place.

    Module WAP Nouvelle URL Port

    WAP Admin Portal

    wapadmin.WindowsAzurePack.Lan 443

    WAP Tenant Portal

    wapcloud.WindowsAzurePack.Lan 443

    WAP Tenant Auth

    wapcloud.WindowsAzurePack.Lan 444

    Là où cela se complique, c'est que chaque portail utilise son propre module d'authentification qui va lui-même rediriger vers le portail initial suite à une authentification validée. Ça peut sembler compliqué comme cela mais c'est la modularité de Windows Azure Pack qui veut ça et ça fait sa force car :

  • Les deux portails sont distincts, ce qui est une bonne chose du point de vue de la sécurité
  • Chaque portail peut avoir sa propre politique d'authentification (ADFS pour les locataires et ADFS +MFA pour les administrateurs)

 

    On a besoin de certificats y a un docteur dans la salle?

    Docteur PKI? Nous utiliserons une autorité de certification reconnue à la fois de l'infrastructure Windows Azure Pack et des locataires. Dans la vrai vie, le besoin de certificats publics (reconnus de tous) se limite aux modules exposés sur Internet. Cela concernerait donc les modules suivants:

  • Le WAP Tenant Portal
  • Le WAP Tenant Auth
  • Dans notre contexte, c'est simple, on a besoin de trois certificats pour les FQDN suivants :

  • WAPADMIN.WINDOWSAZUREPACK.LAN
  • WAPCLOUD.WINDOWSAZUREPACK.LAN
  • WAP01.WINDOWSAZUREPACK.LAN
  • La seule subtilité à prendre en compte à ce niveau, c'est la haute disponibilité (future?) de ces composants. Si vous prévoyez de faire évoluer votre plateforme vers la haute disponibilité, il faudra donc être capable d'exporter le certificat avec la clé privée. Une configuration à ne pas oublier dans le paramétrage du gabarit de certificat car c'est pas par défaut.

    Pour le certificat WAPADMIN.WINDOWSAZUREPACK.LAN, le docteur PKI utilise simplement la console IIS pour générer son ordonnance. C'est un certificat à usage interne, il peut donc être délivré par mon autorité de certification interne.

    clip_image004

    Le certificat WAP01.WINDOWSAZUREPACK.LAN correspond au nom de mon serveur WAP. C'est vers lui que seront redirigées les demandes d'authentification en provenance du portail des administrateurs de Windows Azure Pack. Il n'est pas nécessaire qu'il soit délivré par une autorité de certification reconnue par tous les navigateurs car nous partons du principe que ce portail n'a pas à être exposé sur Internet.

    clip_image005

    Enfin, le certificat WAPCLOUD.WINDOWSAZUREPACK.LAN sera utilisé à la fois par le portail d'authentification des locataires mais aussi par le web service chargé de leur authentification. Comme le portail des locataires et le web service d'authentification sont hébergés sur le même serveur, ils partageront le même certificat, restons simple.

    clip_image006

    Au final, voilà à quoi ressemble le magasin personnel de certificats de mon serveur WAP. Un vrai bordel. Va y avoir beaucoup de travail pour remettre cela au propre.

    clip_image007

    A ce stade, autant vous avertir, les deux portails vont vite devenir inutilisables, ce qui est logique vu qu'on modifie les noms et les ports pour lesquels ils répondent. Pour cette raison, toute cette configuration ne peut être réalisée qu'en PowerShell.

     

    Commençons par le portail des administrateurs de Windows Azure Pack

    C'est un site web dans IIS, donc simplement en changeant le binding, on devrait y arriver. Dans la console IIS, c'est le site web MgmtSvc-AdminSite. A ce stade, il répond en HTTPS avec un certificat auto-signé et en plus sur le port 30091. Plus moche c'est pas possible. On va donc s'assurer que ce portail réponde en utilisant une URL plus user-friendly : wapadmin.windowsazurepack.lan et utiliser le certificat que nous avons demandé.

    clip_image008

    Note : Ne pas oublier de redémarrer le site web. Immédiatement, on constatera que le portail n'est plus utilisable, on verra pourquoi un peu plus loin.

     

    Continuons avec le Web service d'authentification associé

    WAP? Ben oui, Windows Azure Pack est totalement modulaire, au point de séparer le portail des fonctions d'authentifications. On le approfondira ce point plus tard mais le portail sollicite le Web Service MgmtSvc-WindowsAuthSite dédié pour l'authentification des utilisateurs du portail d'administration de Windows Azure Pack. Etant donné que cela donne accès aux privilèges les plus élevés de la plateforme, c'est pas le portail accessible par monsieur tout le monde qui consomme du cloud. La recommandation serait même de ne pas l'exposer sur Internet. Pour cette raison, je n'ai pas personnalisé l'URL (cela aurait été nécessaire dans un scénario de HA), ni changé le port par défaut. De toute façon vu que c'est pas visible des utilisateurs consommateurs du service, ce n'est pas essentiel à mes yeux.

    clip_image009

    Note : Ici encore, il faut redémarrer le Web Service pour qu'il prenne en compte la nouvelle configuration.

     

    Fracassons maintenant le portail des locataires

    Maintenant qu'on a fracassé le portail des administrateurs de la plateforme, autant continuer avec le portail des locataires et foutre le bordel jusqu'au bout. C'est donc le site MgmtSvc-TenantSite dans la console IIS. Par défaut, il utilisait aussi un certificat auto-signé et un 30081 comme port exotique.

    clip_image010

    Note : On n'oublie pas de redémarrer le site web pour être sûr que le portail ne fonctionne plus.

     

    Achevons le dernier Web Service

    Pour le portail des locataires, la fonction est elle-aussi externalisée dans le Web Service MgmtSvc-AuthSite. D'un point de vue technique, c'est intéressant car on peut proposer deux politiques d'authentification distincts utilisant des technologies différentes. Ici, c'est le Web service vers lequel les locataires sont redirigés pour s'authentifier. Il sera donc exposé sur Internet (mais pas directement, on a le Web Application Proxy pour cela, un autre WAP). Initialement, le Web Service utilise un certificat auto-signé au nom du serveur sur lequel le module est installé et utilise le port 30071. Du point du vue des futurs consommateurs du service, c'est tout sauf user-friendly. On va donc utiliser la même URL (et donc le même certificat) que pour le portail et utiliser le port 444.

    clip_image011

    Note : On n'oublie pas de redémarrer le site web pour être sûr que le portail ne fonctionne plus. A ce stade, le commandant sylvestre a atteint son objectif.

    Now fun begins, Time to dive into Windows Azure Pack Admin API

    Bizarrement, à ce stade, plus rien ne fonctionne. Et pour cause, même si on a changé les bindings dans IIS, les différents composants n'en savent rien. La configuration stockées dans la base de données de Windows Azure pack doit aussi être actualisée. Passons donc du côté obscur de Windows Azure Pack avec le module PowerShell MgmtSvcConfig.

    clip_image012

    Rien qu'en parcourant la liste des commandes associées à ce module, on repère tout de suite que certaines vont occasionner de sérieux maux de tête, voire des "nervous breakdown" comme ils disaient dans les tontons flingueurs. C'est bien d'avoir la liste des commandes mais on veut reconfigurer des modules de Windows Azure Pack, plus précisément des Namespaces. Voyons la liste des namespaces que nous pouvons gérer avec la commande Get-MgmtsvcNamespace :

    clip_image013

    Ça commence à causer. Dans la liste des namespaces, on retrouve certaines notions que nous avons déjà vu et d'autres que nous ne connaissons pas encore. C'est normal, Windows Azure Pack est totalement modulaire. Lorsqu'on ajoute un nouveau module, on a donc un nouveau namespace. Ça commence à devenir intéressant car Microsoft propose une API unifiée pour gérer tous les namespaces même si ça concerne MySQL (What?).

    Avant de se lancer dans la reconfiguration à tout va, essayons de comprendre comment fonctionne le processus d'authentification du portail d'administration de Windows Azure Pack. Par défaut, le processus d'authentification utilisé par le Web Service dédié au portail d'administration utilisera l'authentification Windows intégrée. Certes nous avons uniquement changé les bindings dans IIS mais vu que tous les modules doivent communiquer entre eux, il faut bien que l'information soit stockée à un emplacement (La base SQL de Windows Azure Pack).

    La commande Powershell Get-MgmtSvcFQDN permet de connaitre les informations de configuration pour le namespace AdminSite. Si on compare avec ce que nous avons maintenant dans IIS, effectivement nous avons un problème.

    clip_image014

    L'AdminSite va devoir solliciter le web service d'authentification et ce dernier devra renvoyer l'utilisateur au portail une fois authentifié. Le problème, c'est que le Web Service va utiliser l'information dans la base SQL pour déterminer où renvoyer l'information. Une actualisation du namespace s'impose pour référencer la nouvelle URL ainsi que le port à utiliser. La commande PowerShell Set-MgmtSvcFqdn est faite pour cela.

    clip_image015

    Le portail, c'est ce qu'il y a de plus visible du point de vue des administrateurs de Windows Azure Pack. Pourtant, il y a aussi le Web service dédié à l'authentification. Lorsqu'ils vont tenter d'accéder au portail, la première chose que celui-ci va faire sera de les rediriger vers le Web Service. C'est un RelyingParty, on va causer gestion d'identité (sic). La commande Get-MgmtSvcRelyingPartySettings permet d'explorer le paramétrage du namespace Admin. Le web service est configuré pour utiliser un certificat auto-signé (correspondant au nom du serveur Windows Azure Pack sur lequel il est installé) et un port exotique : 30071.

    clip_image016

    Bref, ici encore c'est un peu bancal. On va donc l'aider un peu en reconfigurant le RelyingParty pour utiliser un nouveau port 30072 et au passage utiliser le nouveau certificat, le tout avec un petit Set-MgmtSvcRelyingPartySettings.

    clip_image017

    j'ai perdu personne? Donc l'administrateur s'est connecté au site d'administration, lequel l'a redirigé vers le web service d'authentification. Après authentification, il faut le renvoyer à l'envoyeur vers le portail d'administration de Windows Azure pack. Et vous croyez qu'il va renvoyer vers qui? Cette fois c'est au fournisseur d'identité que nous devons nous adresser avec la commande Get-MgmtSvcIdentityProviderSettings.

    clip_image018

    Il renvoie bien vers notre serveur mais notre portail d'administration ne répond plus à cette adresse. Maintenant c'est WAPADMIN.WINDOWSAZUREPACK.LAN. Bref, il faut lui aussi l'aider un peu pour lui indiquer la bonne URL et le bon port. A ce stade, il est essentiel de disposer d'un accès à la base de données de Windows Azure Pack et de la commande Set-MgmtSvcIdentityProviderSettings.

    clip_image019

    Pour une raison que j'ignore, la commande de fonctionne que si on lui adjoint le paramètre DisableCertificateValidation. Sans lui, la commande ne passe pas. Après une recherche rapide, le paramètre est nécessaire uniquement si on utilise des certificats auto-signés

    clip_image020

    A mon niveau, je ne suis pas encore capable de déterminer si c'est un problème de ma configuration ou un effet de bord des certificats auto-signés qui pullulent sur l'environnement. Mais, je prends quand même les paris pour un effet de bord du à la présence des certificats auto-signés.

    C'est clos pour le portail d'administration de Windows Azure Pack. Intéressons-nous maintenant au portail de locataires. Cela va suivre la même logique ou presque. La subtilité, c'est l'utilisateur. Pour les administrateurs, ce sont des comptes de l'annuaire Active Directory. Pour les locataires, c'est pas si évident que cela. Le portail des locataires va consommer des claims en provenance d'un fournisseur d'authentification qui peut être ADFS ou .Net. Ça ouvre des perspectives. C'est ce dernier qui est configuré par défaut. Plus précisément, c'est le ASP.NET Membership provider. On s'attaquera à celui-là en dernier. Commençons par la gestion des URL du namespace TenantSite. Voyons un peu la configuration par défaut avec la commande Get-MgmtSvcFQDN :

    clip_image021

    On va devoir personnaliser l'URL (WAPCLOUD.WINDOWSAZUREPACK.LAN) et reconfigurer le port par défaut car 30081, c'est tout sauf user-friendly. La commande Set-MgmtSvcFQDN va nous y aider.

    clip_image022

    Le portail, c'est bien mais on sait très bien qu'il y a un web service en charge de l'authentification qui doit être corrigé. C'est ne namespace AuthSite. La commande Get-MgmtSvcFQDN nous révèle la configuration de ce namespace :

    clip_image023

    L'URL et le port par défaut doivent être reconfigurés. Vu que dans ma configuration je n'ai pas séparé le portail et le Web Service d'administration, je peux réutiliser le même FQDN, on va juste utiliser un port différent 444. Un petit coup de Set-MgmtSvcFQDN va régler le problème.

    clip_image024

    Les URL sont normalisées, reste maintenant à traiter la redirection vers le site d'authentification et le retour. Voyons comment le portail gère la redirection vers son RelyingParty avec la commande Get-MgmtSvcrelyingPartySettings.

    clip_image025

    Nous allons donc rediriger vers wapcloud.WindowsAzurepack.lan (pourquoi 444? Tout simplement par ce qu'on a déjà le portail admin sur 443 et que tout est installé sur le même serveur IIS) avec la commande Set-MgmtSvcrelyingPartySettings.

    clip_image026

    Il ne nous reste plus que le fournisseur d'identité, c'est la petite surprise. Un peu plus tôt, j'avais indiqué que par défaut, le module d'authentification du portail des locataires utilisait le fournisseur ASP.NET Membership. C'est juste un nouveau namespace à manipuler : Membership. Voyons à quoi il ressemble avec la commande Get-MGMTSVCIdentityProviderSettings.

    clip_image027

    Reste plus qu'à rediriger vers la source, à savoir wapcloud.windowsazurepack.lan.

    clip_image028

    Ca y est, c’est fini.

     

    Sinon ça marche à la fin?

    Ben oui, on ne se donne pas autant d'effort pour que cela ne fonctionne pas. Ci-dessous le portail de locataires avec une URL nettement plus user-friendly :

    clip_image029

    Et le portail des administrateur de Windows Azure Pack :

    clip_image030

    Windows Azure Pack peut sembler un peu "brut de décoffrage” mais si vous regardez son grand frère Windows Microsoft, c'est exactement la même chose. Lorsque de nouvelles fonctionnalités sont annoncées, elles sont utilisables en premier lieu en PowerShell avant d'être disponible dans l'interface graphique et c’est lui aussi un produit hautement modulaire.

     

    Prochaine étape cortex?

    C'est de dominer le monde minus, offrir des services cloud et dominer le monde minus. Plus sérieusement, on va passer un peu de temps pour exposer le portail des locataires sur Internet et travailler un peu les mécaniques d'authentification.

     

    Que les API du Windows Azure Pack soient avec vous

     

    BenoîtS - Simple and secure by design but Business compliant

Petite KB pour les upgrade de domaine W2K3 vers W2K12 R2

Back to basics. C’est la saison des projets d’upgrade des infrastructures basées sur Windows 2003. l’OS a presque dix ans. Dans le cadre d’un projet de mise à niveau des infrastructure d’annuaire, nous aurons donc des contrôleurs de domaine Windows 2003 qui devront coexister avec des contrôleurs de domaine Windows Server 2012 R2. Selon le technet, cela ne devrait pas poser de problème.

Pourtant, l’équipe en charge du support Active Directory avait publié ce billet en Juillet 2014 : It turns out that weird things can happen when you mix Windows Server 2003 and Windows Server 2012 R2 domain controllers. La coexistence entre les deux générations de contrôleurs de domaine posait problème au niveau de Kerberos. D’un coté Windows Server 2012 R2 ne supporte plus DES (par défaut) et Windows Server 2003 ignore les nouveaux algorithmes proposés par Windows Server 2012 R2. Bref, on avait une certaine cacophonie au niveau de Kerberos qui pouvait conduire à l’impossibilité de changer le mot de passe des systèmes raccordés au domaine. Pour adresser cette problématique, Microsoft proposait une méthode de contournement (en attendant de finaliser le démantèlement des contrôleurs de domaines Windows 2003).

Depuis fin Aout, la méthode de contournement proposé par Microsoft n’est plus d’actualité puisqu’un correctifs est enfin disponible : KB2989971 - Can't log on after changing machine account password in mixed Windows Server 2012 R2 and Windows Server 2003 environment. A installer sur tous vos contrôleurs de domaine Windows Server 2012 R2.

 

benoîtS – Simple and Secure by Design but Business compliant

Quelques notes sur Windows Azure Pack

Depuis fin 2013, je suis tombé dans le monde de Windows Azure Pack. C'est un peu comme DirectAccess, un grand jeu de lego, sauf qu'il y a bien plus de briques, donc c'est plus amusant. Bref, c'était fait pour moi. Windows Azure Pack est un composant de la vision Cloud OS de Microsoft. J'y ai passé beaucoup de temps mais pas encore eu réellement le temps de tout synthétiser. Le but de ce premier billet est de synthétiser le contenu éparpillé dans mes nombreux OneNote sur su sujet.

The Cloud OS

clip_image001

L'idée est d'avoir une plateforme commune pour l'hébergement et le développement de services Cloud à base de Windows Microsoft Azure. Avec l'approche Private Cloud Fast track program, on utilisait les composants de la gamme System Center pour transformer le Datacenter en Cloud privé que l'on pouvait étendre par la suite à Windows Microsoft Azure. Cette approche du Cloud Hybride montrait à quel point Windows Microsoft Azure est différent des produits de la gamme System Center. Avec Windows Azure Pack, ce sont des composants Windows Microsoft Azure qui font le chemin inverse vers les entreprises et des hébergeurs pour mettre à disposition un certain nombre de fonctionnalités de Windows Microsoft Azure.

Cette approche permet aux clients de disposer d'une socle commun "Windows Microsoft Azure" que celui-ci soit :

  • Hébergé “on premise”
  • Hébergé chez un hébergeur
  • Hébergé dans Windows Microsoft Azure

 

Windows Azure Pack est une plateforme Cloud évolutive proposant plusieurs services directement inspirés de Windows Microsoft Azure :

  • Pour l'utilisateur final, Windows Azure Pack offre une interface utilisateur unifiée très proche du portail Windows Microsoft Azure, qui peut être étendu par ajout d'extensions. La localisation des ressources gérées importe peu.
  • Pour un DBA, il a la possibilité d'héberger ses bases de données SQL/MYSQL "on premise", chez un hébergeur ou même dans Windows Microsoft Azure avec la capacité de les déplacer librement. Ces ressources peuvent être mises à disposition d'utilisateur par simple souscription à un contrat. C'est un service dont l'usage est mesurable et donc facturable.
  • Pour un développeur web, c'est une plateforme PAAS hautement disponible pour de l'hébergement de sites web / Web Services.
  • C'est aussi une offre IAAS d'infrastructure proposant l'hébergement de machines virtuelles Windows ou Linux inspiré de ce que propose Windows Microsoft Azure.

 

Modularité extrême

Lors de l'installation, on comprend que Windows Azure Pack n'est pas un nouveau composant de la gamme System Center. Il vient bien d'un monde différent ou on assemble des Web Services. Cela ne l'empêche pas de coexister avec les composants de la gamme System Center.

clip_image002

 

Web Services & Json tu causeras

Windows Azure Pack est totalement modulaire et repose sur des Web Services qui communiquent entre eux. Certes tous ces Web services peuvent cohabiter sur une même machine mais dans le cadre d'un environnement de production on s'efforcera de les répartir dans différentes zones et d'assurer leur haute disponibilité avec du HLB.

clip_image003

 

Je vois des certificats partout

Qui dit Cloud & Web Services dit certificat et donc souffrance (ou fun, c'est selon). Plus on s'amusera (oui c'est fun) à isoler différents rôles et assurer la disponibilité, plus on aura de certificats à gérer. Dans l'illustration ci-dessous, la version simpliste avec tous les composants mutualisés sur un seul et unique serveur. Oui on dénombre bien quatorze certificats auto signés.

clip_image004

Cela veut dire qu'à un moment on va devoir les remplacer, et reconfigurer les web services et Windows Azure Pack pour les utiliser. C'est la partie la plus fun du setup de la plateforme.

 

On causera de bases de données

La modularité de Windows Azure Pack implique un certain nombre de bases de données. Certes beaucoup moins que le nombre de certificats ou de Web services mais cela impliquera une petite réflexion quant à la disponibilité et la localisation de ce service.

clip_image005

 

Un peu de découpage réseau

Même si tous les composants de Windows Azure Pack peuvent coexister sur un même serveur, ce n'est pas la configuration recommandée pour des raisons sécurité mais aussi haute performance. Tout comme Windows Microsoft Azure, tous les composants ne nous sont pas visibles de l'extérieur. L'infrastructure Windows Azure Pack doit être découpée en zones réseau. On peut déjà identifier les principales zones :

  • Public facing
  • Privilegied Services
  • Identity
  • Database

La zone réseau "public facing" est dédiée aux services en relation directe avec nos locataires (tenants). Windows Azure Pack offre :

  • Un portail utilisateur très proche du portail Windows Microsoft Azure
  • Un Web Service en charge de l'authentification des locataires (dont ADFS peut faire partie)
  • Un Web service fournissant toutes les API "publiques" nécessaires au bon fonctionnement de ces services

La zone réseau "Privilegied services" n'est pas censé être visible des utilisateurs du service mais de ses exploitants. On retrouvera donc :

  • Un portail Administrateurs lui aussi très proche du portail Windows Microsoft Azure
  • Un Web Services en charge de l'authentification de nos administrateurs
  • Un Web Service fournissant toutes les API nécessaires au bon fonctionnement de ces services (il fournira le support de PowerShell pour permettre à nos locataire de gérer leurs ressources)
  • Un Web service fournissant toutes les API "privé" nécessaires au bon fonctionnement de ces services

 

La zone réseau "Identity" va contenir deux services critiques : Active Directory et ADFSv3. Ce dernier sera utilisé depuis la zone "Public facing" pour chalenger l'authentification des locataires. Enfin, reste une dernière zone pour héberger nos bases de données. Tous nos composants du Windows Azure Pack, ADFS et d'autres ont besoin d'un service de base de données hautement disponible. Autant avoir une zone réseau dédié à cet usage pour consolider nos bases de données sur un cluster. En plus cela permettra de préparer l'introduction des composants de la gamme System Center 2012 R2.

 

Ton lab tu étendras

Si tous les composants de Windows Azure Pack peuvent être hébergés sur une même machine, ce n'est pas la configuration recommandé pour les environnements de Production. Pour commencer, voilà ci-dessous ce que serait un déploiement minimaliste avec la haute disponibilité (sic) :

clip_image006

On pourrait penser qu'il est simple de séparer tous ces composants mais ce n'est pas le cas, pour plusieurs raisons :

  • Le processus d'installation utilise "localhost" dans l'URL de tous les Web Services. Il faudra donc reconfigurer des URL : Windows Azure Pack changing the default URLs.
  • Si tous les composants sont installé sur un même hôte les certificats auto-signés ne sont pas un problème. Dès lors qu'on va séparer les rôles, il faudra reconfigurer les Web Services et Windows Azure Pack pour utiliser des certificats délivrés par une autorité de certification.
  • Enfin, c'est plus présentable pour l'utilisateur de présenter des URL propres, utilisant toutes le port 443 et non un port situé dans la plage de ports dynamique.

Ça commence à piquer les yeux. Pas de problème, on peut monter en charge et découper par rôle au sein de Windows Azure Pack. Maintenant on est presque au complet :

clip_image007

On notera au passage qu'à ce stade, on ne parle pas d'extensions additionnelles (Web Sites, Virtual machines) voire même des composants de la gamme System Center dont on aura besoin et pour lesquels il faudra assurer aussi la disponibilité. Avant de vous lancer dans la haute disponibilité, la lecture ci-dessous est vivement conseillée :

Windows Azure Pack High Availability – Lessons Learned.

 

Pour héberger des services clés en main

C'est la force de Windows Azure Pack. Beaucoup d'extensions sont déjà disponibles. On évite donc de réinventer la roue pour se focaliser sur le service à offrir aux utilisateurs :

  • Web sites : Un service de publication de site web très proche de celui disponible sur Azure
  • Services bus : Un service d'échange de message pour applications
  • MS SQL extension : Un service d'hébergement de bases SQL
  • MY SQL extension : Un service d'hébergement de bases My SQL
  • MY Cloud : Un service d'hébergement de machine virtuelle basé sur SCVMM
  • Cloud Cruiser : Un service tiers dédié au reporting & billing des services consommés par nos locataires
  • Grid-pro : Une passerelle vers Service Manager

Après, rien de vous empêche de développer vos propres extensions.

 

Service Management Automation

Le Cloud ne serait pas possible sans une bonne dose d'industrialisation. Avec Windows Azure Pack, Microsoft livre Service Management Automation, une solution d'orchestration totalement intégrée qui permet d'exploiter les évènements remontés par les différents composants (inscription d'un utilisateur, souscription à un plan, …) pour déclencher des actions reposant sur des Workflow PowerShell. Deux exemples parlants :

  • Créer automatiquement le VM Network ainsi que le contrôleur de domaine lors de la création d'un nouveau tenant. L'idée étant de lui pré-provisionner les briques minimales pour héberger son propre environnement. La première brique étant un annuaire Active Directory. Après, rien de nous empêche de provisionner automatiquement d'autres services.
  • Installer automatiquement un agent SCOM sur toute machine virtuelle nouvellement déployée par un locataire.

D'ailleurs, on notera que Windows Microsoft Azure propose désormais le même service sous la dénomination Microsoft Azure Automation.

 

ADFS et Windows Azure Pack

A un moment, il faudra bien parler d'authentification, que ce soit pour les locataires ou les administrateurs de la plateforme. Pour les locataires, l'usage d'ADFS s'impose de lui-même. Les lectures suivantes sont vivement conseillées ainsi que de prendre son temps :

Pour les administrateurs du service, on considère qu'ils utiliseront par défaut une authentification intégrée Windows. Or, un peu d'authentification forte, cela ferait pas de mal. Pour cela, on a Multi-Factor Authentication qu’il est possible d’intégrer à Windows Azure Pack :

 

Service Provider Foundation

Lorsqu'on voudra faire du IAAS, il faudra communiquer avec Virtual Machine Manager. Dans sa version actuelle (2012 R2), il n'est pas possible de consommer du SCVMM directement depuis Windows Azure Pack car le premier utilise uniquement des API Rest (oData), ce que le second ne comprend pas. De plus, pour consommer des ressources dans SCVMM, il faudra bien une identité au sens Active Directory pour séparer les usages entre les différents Clouds. Le Service Provider Foundation permet donc d'exposer les services de SCVMM (jusqu'à 5 instances de SCVMM) à Windows Azure Pack. De plus le SPF permettra de mesurer l'usage du service IAAS contribuant ainsi à rendre le service mesurable et facturable, comme tout bon service Cloud. Quelques lectures sur ce sujet :

 

Les extensions de Windows Azure Pack

Windows Azure Pack est modulaire. On peut donc simplement ajouter de nouvelles extensions pour proposer de nouveaux services :

 

Un peu de lecture

A ce stade, je suis resté volontairement très "high level". Le sujet étant très vaste, ci-dessous quelques lectures qui m'ont beaucoup aidé sur le sujet :

 

Quelques pointeurs pour commencer

Quelques session du TechEd America 2014

 

Quelques outils bien pratiques

Pour finir, quelques blogs de MVP bien utiles

 

Je retourne étendre mon lab.

 

BenoîtS - Simple and Secure by design but Business compliant

Solve W2K12R2 DirectAccess OTP activation problem with Powershell

I was working on a DirectAccess POC for a customer of mine a few months ago. Now it’s time to go in production and moving from Windows 2012 to Windows Server 2012 R2. I was rebuilding my lab and have a closer look at KB2883952 to avoid most of problems. This time, problem is not in the list. I was not able to configure OTP authentication for DirectAccess because no capable ADCS can be used to provide required certificates.

0

Not logic, my lab worked like a charm in Windows Server 2012, so ADCS role configuration was good. Because it’s only a prerequisite check, let’s try to configure OTP scenario using the Enable-DAOTPAuthentication PowerShell commandlet and surprised, it worked !

1

Even if it worked from the PowerShell commandlet, the console does not recognize ADCS as compatible but it’s no longer blocking in the configuration process.

2

PowerShell rules!

 

BenoîtS – Simple and secure by design but Business compliant

August 2014 update rollup for Windows 8.1 what’s new for DirectAccess

There is nothing to do in august, except being in vacation. It’s not the case for Microsoft folks who just released the August rollup for Windows 8.1/RT/Windows Server 2012 R2.

If we take a look at the related KB2975719, we will discover that’s it include improvements but also bug fix, one two of them is are related to DirectAccess :

  • KB2966087 : You intermittently cannot connect to the DirectAccess server by using the IP-HTTPS adapter in Windows 8.1 and Windows Server 2012 R2.
  • KB2984374 : Connect to incorrect entry point when Windows 8.1 or Windows Server 2012 R2-based computer wakes from sleep or hibernate (Thank you Jason, I missed it)

So we have something to deploy in august. Don’t wait and update your DirectAccess clients

 

BenoîtS – Simple and Secure by Design but Business compliant

Windows Remote Assistance between DirectAccess clients made easy and simple

Remote Management is one of the top feature provided by DirectAccess. By default a DirectAccess client is able to reach internal resources such as SCCM server but the contrary is much more difficult as it require an IPv6 connectivity from end to end. Initiating a remote assistance (MSRA) from a helpdesk station located on LAN is much more complicated. Microsoft recommendation about ISATAP is to do not deploy it at enterprise scale level but limit it to only required hosts. I strongly recommend the Limiting ISATAP Services to DirectAccess Manage Out Clients from Jason Jones to understand initial configuration. If someday you wish to become a DirectAccess Jedi master have a look at my series of blog post to establish secure communication for Windows Remote Assistance :

 

Core of the problem

It's cool to have Windows Remote Assistance for DirectAccess clients but it works because we have a built-in ISATAP router included with our DirectAccess Gateway. In some scenarios, feature will no longer be available. Have a look at the result of an HLB deployment scenario.

clip_image001

According to this excellent article we have two choices :

  • Place an external load balancer that supports ISATAP on the internal network and enable ISATAP on either DirectAccess servers
  • Disable ISATAP completely which then disables the “manage-out” functionality of DirectAccess.

Note that ISATAP routing capability is also unavailable in multi-site scenario.

Let's analyze these options :

  • Option 1 : Having a load balancer that support ISATAP is not unrealistic at all but enabling ISATAP router on only one node is not. If that DirectAccess gateway happened to fail, ISATAP routing would stop too (SPOF Hunter)
  • Option 2 : If you are here, you're looking for a solution to this problem, so abandon is not an option

 

We need a third option. I tried multiple options. Even a complete season of Doctor who did not provide me inspiration. If even the Doctor does not have the solution who will?

clip_image002

Two seasons of Doctor who were required to see the beginning of the solution.

 

What my blog say?

I used so sign my blog post by "Simple and Secure by Design but Business compliant". Too complicated does not means impossible. Let's see the problem from another point of view. Until now we considered remote management as a IPv6 flow from an internal IPv6 capable client connecting to a DirectAccess client connected on Internet. That solution provide end to end IPv6 connectivity. That's right but that's not the only case. Just consider two DirectAccess clients connected on Internet. They both have IPv6 addresses. Would it be impossible to have two DirectAccess clients communicating together? Doctor, an advice? A screw-driver?

 

Are DirectAccess clients able to communicate each other?

If we just test with Resolve-DNSName PowerShell commandlet, a DirectAccess client is able to resolve DirectAccess names of other DirectAccess clients.

clip_image003

So if required network flow are correctly configured (never forget your NAT-Transversal configuration for incoming network flow), it should be OK. But each time we try to establish communication between DirectAccess clients it seems to fail. Why would two IPv6 hosts that seems to be located on the same network would be unable to communicate? Can we get the IPv6 prefix used to generate IPHTTPS addresses to check?

clip_image004

Correct, they depend on the same subnet (logic). So why two IPv6 hosts located on the same IPv6 network would be unable to communicate using global unicast addresses?

clip_image005

 

Two hosts located on the same IPv6 Subnet should be using Link local addresses to communicate? Because we have a DNS response with a Global Unicast Address, DirectAccess tunnels try to route our traffic to the internal network. What would happen if we try to communicate with the Link-local address. Here is the Link-local address of the interface of W82.DirectAccessLab.Lan :

clip_image006

And here is the result from W81.DirectAccesslab.Lan

clip_image007

 

You're skeptical, need more evidence? OK, let's go deep dive into the IPv6 routing

clip_image008

TRACERT.EXE reveal a direct communication without usage of the gateway, and the Get-NetRoute Powershell command validate that any FE80 prefix have the same destination (same subnet). We got it.

 

Wait a minute, What append to Security?

Good question. Have a look in the connection security rules node in your Windows Firewall console of a DirectAccess client :

clip_image009

Now you understand. Communication between DirectAccess clients are not protected by IPSEC rules. But you're a Jedi master now, you were well trained with the DirectAccess remote management, from Padawan to Jedi Knight blog post series.

 

Show me your skill Jedi

If we can secure communication from internal IPv6 host to DirectAccess clients connected on Internet, it would not be difficult do to the same with two DirectAccess clients. All start with an isolation rule to create an IPSEC transport.

clip_image010

 

That will request authentication for any inbound/outbound communication (same rule for all DirectAccess clients whatever which one will initiate communication)

clip_image011

 

This rule will require some advanced authentication (just like DirectAccess IPSEC tunnels rules).

clip_image012

 

To make it simple, we will request dual authentication based on Kerberos protocol.

clip_image013

 

And this rule will only apply to public and private firewall profiles, we don't need this extra-level of security on internal network.

clip_image014

 

At last we finally put a name on it.

clip_image015

 

Because you're a Jedi master seating at the Jedi council, you filter the remote scope to only link local scope. We have here an extra-layer of isolation.

clip_image016

 

We have an IPSEC transport. Next point is to selected protocols to be configured for secure communication. Let's have a look at protocol definition of the Remote Assistance feature. So inbound rules, outbound rules, but some of them are more interesting as they only apply to DirectAccess (public profile). If you remember an old blog post we can enhance user experience of DirectAccess by forcing the public profile for the Windows firewall for any newly identified network. This is helpful to be sure that users cannot consider a new network as private.

clip_image017

 

So we only need to secure communication for incoming protocol related to the public firewall profile. So two inbound rules to reconfigure. Don't forget to enable Remote assistance and enable the required incoming firewall rules, especially the public rules.

clip_image018

 

Secure communication will mean authenticated and encrypted. Because connection must be secure, it will use our tunnel so only limit IPv6 for Windows Remote Assistance.

clip_image019

 

And we will be limiting our public incoming firewall rules to only a limited population represented by an Active Directory Security group. Only support team will be able to respond to a Windows Remote Assistance initiated by a DirectAccess client.

clip_image020

Now Windows Remote assistance between DirectAccess clients should be operational. Just try to send invitation. Network traffic between DirectAccess clients will be protected by an IPSEC transport. A simple Get-NetIPSECMainModeSA Powershell command will reveal an IPSEC transport between the two DirectAccess clients.

clip_image021

 

Need more proof? OK, let's have a look at established communication, one is interesting. Let's see witch process use it.

clip_image022

 

Now some additional tricks to make it works :

  • KB2665206 : Slow performance when you enable IPsec encryption on a specific TCP port number in Windows 7 or in Windows Server 2008 R2
  • KB2912883 : Remote Assistance connection to a Windows Direct Access client computer fails (Windows 7 & Windows 8)

 

Like a other Doctor use to say. Use it :

useit

 

Now you can call the psychiatrist. I deserve my straitjacket.

 

BenoîtS - Simple and Secure by Design but Business compliant

Pack de mises à jour Orchestrator 2012

C’est la livraison de l’été. Microsoft a mis à disposition les updates rollup pour la gamme System Center. Pour Orchestrator, on est donc maintenant avec :

 

Subtilité, pour Orchestrator 2012 R2, cela comprend aussi Service Management Automation (SMA) qui est livré sur le même média.

 

BenoîtS – Simple and Secure by design but Business compliant

DirectAccess OTP Mystery case solved

Each month, Microsoft provide a bunch of updates for it’s operating systems and this month, the rollup contain an interesting fix for DirectAccess infrastructure. If we have a closer look at updates included we will find this one :

image

As your DirectAccess infrastructure must include a strong authentication mechanism, you will be happy to discover that Microsoft solved the  “0x80040001 OTP mystery case”. At first logon OTP works like a charm but later it stopped working. If we have a look at KB2973071 details, we will discover that the One-Time Password Certificate Enrollment (OTPCE) continued to use the expired certificate for authentication instead of the new one. As I was able to reproduce this with Windows 8.1 and Windows 7, maybe Microsoft provide an Hotfix for the “Legacy Windows 7 operating system”? Bingo : KB2939489.

 

If you want to know more about OTPCE, have a look at the protocol specifications available on MSDN.

 

So don’t forget to add these KB to your DirectAccess KB List.

 

Simple and Secure by design but Business compliant.

Le POC SCSM en prod, pas glop comme idée

Faire un POC en prod, voila une fausse bonne idée. On se dit qu’avec la version d’évaluation et ses 180 jours, on a tout le temps. Si le POC se transforme en production, faudra juste saisir le numéro de licence. Mais que se passe t’il si on dépasse la période d’évaluation avec SCSM?

Coté console SCSM, c’est pas très parlant.

0

 

Même la vue avancée ne nous avance pas plus “Unknow exception”.

1

 

La il faut parcourir le log “Operation Manager” pour découvrir la raison :

2

 

Cela semble clair. Petite recherche rapide chez Microsoft et on trouve l’information ci-dessous :

image

 

Conclusion, le POC en prod pour SCSM, est une véritable fausse bonne idée. Paie ta licence.

 

BenoîtS – Simple and Secure by Design but Business compliant

Multisite DirectAccess scenario in Powershell

Multisite is a very interesting scenario that was complicated to deploy with Windows 7 and Forefront UAG. If this challenging scenario does not scared you, have a look at this Edge Man post. Technically speaking, it was also possible to achieve a “similar” configuration with a Global Server Load Balancing configuration using F5 Big-IP for example. With Forefront UAG 2010, we had load-balancing capabilities with Network Load Balancing and Hardware Load Balancing but it was long to setup. Have a look at my high-availability blog post series if you want to compare to this blog post!

 

In Windows server 2012, multisite will become (this post is written with the Consumer Preview released in February 2012!) a much more easier deployment. What an interesting challenge to deploy it with PowerShell only. First, let’s see my configuration  :

MULTISITEVISIO 

We have two sites having their own Windows 2012 server. The challenge is to setup the DA1 server as a DirectAccess server, convert it to multisite and and add DA2 as a new Entry Point for my Multisite configuration. Now let’s switch to PowerShell!

 

Initial DirectAccess configuration

Let’s start with my first DirectAccess server setup. It’s name is DA1.DirectAccessLab.Lan we start with the role installation :

Add-WindowsFeature –Name DirectAccess-VPN –IncludeManagementTools

ADDFEATURE0

 

In order to be sure that everything is operational, let’s check it with a single PowerShell command : Install-RemoteAccess –Prerequisite

ADDFEATURE1

 

I will need an IPHTTPS certificate on DA1.DirectAccessLab.Lan. Public name record in my certificate will be DA1.DirectAccessLab.Lan. Let’s check that my certificate is present in the computer store with the following command :

$IPHTTPS = (Get-ChildItem Cert:\\LocalMachine\My | Where {$_.Subject -like "CN=DA1.DirectAccessLab.Fr*"})

Write-Host $IPHTTPS

IPHTTPS1

 

Now, it’s time to configure our first DirectAccess server with a single PowerShell command :

Install-RemoteAccess -DAInstallType FullInstall -ConnectToAddress DA1.DIRECTACCESSLAB.FR -ClientGPOName "DirectAccesslab.Lan\DirectAccess Clients GPO" -ServerGPOName "DirectAccesslab.Lan\DirectAccess Servers GPO"-InternalInterface LAN-InternetInterface INTERNET -NLSURL https://nls.directaccesslab.lan –Force –PassThru

INSTALLREMOTEACCESS0

 

Server-side configuration is almost terminated. We need to configure Certification Authority to be used for IPSEC tunnels authentication. It is mandatory for multisite deployments, just like having a real IPHTTPS certificate for each entry point. The following PowerShell command will configure this :

$CA = (Get-ChildItem Cert:\\LocalMachine\Root | Where {$_.Subject -like "CN=INET*"})

Write-Host $CA

Set-Daserver -IPSecRootCertificate $CA -PassThru

FINALIZESERVER1

 

Now let’s switch to the client-side configuration with the Following PowerShell commands :

Add-DAClient –SecurityGroupNameList “DirectAccesslab.Lan\DA Clients”

Remove-DAClient –SecurityGroupNameList “DirectAccesslab.Lan\Domain Computers”

Set-DAClient –OnlyRemoteComputers Disabled

Get-DAClient

CLIENTSIDE

 

Client-side configuration is almost complete, we just need to configure some settings for end-user experience for the Network Connectivity Assistant. PowerShell commands bellow will configure it with an HTTP type probe located on a domain controller : 

Set-DAClientExperienceConfiguration -PolicyStore "DIRECTACCESSLAB.LAN\DirectAccess Clients GPO" -UserInterface $True -SupportEmail HelpDesk@DirectAccesslab.fr -CorporateResources {HTTP:http:dc.directaccesslab.lan} -PreferLocalNamesAllowed $True -FriendlyName "DirectAccess Connection" -PassThru

SETDACLIENTEXPERIENCE

 

Our first DirectAccess server is now operational. Let’s check that with a Get-RemoteAccessHealth command :

GET-REMOTEACCESSHEALTH0

 

If you need more explanations on this part, have a look at my DirectAccess in Powershell blog post.  Now we are ready for Multisite!

 

 

Enabling Multisite

We have a standalone server that must be converted as the first entry point of a Multi-site DirectAccess configuration. Each DirectAccess Server (or High-available group of DirectAccess servers) is considered as a DirectAccess Entry point. Let’s convert to Multi-Site :

Enable-DAMultiSite -EntryPointName "EMEA Headquarter" -ComputerName DA1.DirectAccesslab.Lan -ManualEntryPointSelectionAllowed Enabled -Name "DirectAccesslab Multi-Site Infrastructure" -PassThru – Force

ENABLEMULTISITE

 

Multi-site configuration is enabled with a single entry point named “EMEA Headquarter”. The  Get-DAEntryPoint command will provide some details on this entry point  :

GETDAENTRYPOINT1

 

Not many information. This entry point is not GSLB enabled and include a single server. Let’s have a look at this entry point with the Get-DAServer PowerShell command :

Get-DAServer -EntryPoint "EMEA Headquarter"

GETDAENTRYPOINT2

 

We have the same information as in standalone configuration. From a server point of view, there is not much more difference. At this point our only requirements are :

  • Do not use self-signed certificate for IPHTTPS
  • Enable computer certificates

 

By now we have operational Multisite DirectAccess infrastructure And that's all for Multisite activation!

 

Adding a new entry point

Now come the most interesting part of this blog post : How to add a second entry point remotely. At the beginning of this step, my DA2.DirectAccessLab.Lan server is :

  • Joined to the DirectAccessLab.Lan Domain with a LAN named interface
  • Configured with a public interface named INTERNET with a public IP address
  • Having a public IPHTTPS certificate with DA2.DirectAccessLab.fr as subject name

 

Here are the only prerequisites that wont be performed remotely! Just like our first DirectAccess server, we need to install roles. Let’s use PowerShell remoting capabilities : Add-WindowsFeature –Name DirectAccess-VPN –IncludeManagementTools -ComputerName DA2.DirectAccesslab.Lan

ADDFEATURE2

 

And check it remotely : Install-RemoteAccess –Prerequisite –ComputerName DA2.DirectAccesslab.Lan

ADDFEATURE3

 

Before performing the magic trick, we must be sure that’s my IPHTTPS certificate for DA2.DirectAccessLab.Fr is present on my remote server :

$IPHTTPS = Invoke-Command –ComputerName DA2.DirectAccessLab.Lan –ScriptBlock {(Get-ChildItem Cert:\LocalMachine\My | Where {$_.Subject –Like “CN=DA2.DirectAccessLab.Fr*”})}

Write-Host $IPHTTPS

IPHTTPS2

 

And now, the magic trick. How to add a new DirectAccess Entry Point in an exiting Multi-site configuration remotely. As long as all prerequisites are already present, it’s a simple PowerShell Command :

Add-DAEntryPoint -Name "Backup Site" -ConnectToAddress DA2.DIRECTACCESSLAB.FR -InternalInterface LAN -InternetInterface INTERNET -ServerGPOName "DirectAccessLab.Lan\DirectAccess Backup Servers GPO" -RemoteAccessServer DA2.DirectAccessLab.Lan –PassThru -Force

ADDDAENTRYPOINT2

 

One thing we can notice is that we need an additional GPO to configure our new server. Each Entry point must have it’s own dedicated GPO. By now, our DirectAccess multi-site infrastructure have two entry point. The Get-DAMultiSite also report that users will be able to select the entry point they want to use. Windows 8 is able to connect to the first available entry point, but it’s not capable to really detect witch one is the closest from the client. Global Server Load Balancing feature was designed for that!

GETDAMULTISITE

 

If we take a look at our new entry point configuration with a Get-DAServer –EntryPoint “Backup Site” PowerShell command we can notice that there a much less information than for the first entry point. Information such as Internal Interface, InternetInterface or SSLCertificate are not provided. That’s must be a bug in the Consumer Preview version because these information are available if you run the same command on the remote server! That’s not a bug, it’s by design. Theses information will be available if you use the same Powershell CommandLet querying the server name and not the entry point.

GETDASERVERBACKUP

 

Let check everything

Everything seems to be operational on my first entry point. Some services are disabled but it’s normal (no 6to4 or Teredo support, no management server declared, no more OTP, …).

Get-RemoteAccessHealth –EntryPoint “EMEA Headquarter”

REMOTEACCESSHEALTH1

 

But on my second entry point we can notice one minor difference with ISATAP. My DA2.DirectAccessLab.Lan is not considered as an ISATAP router. It’s only an ISATAP client from my DA1.DirectAccessLab.Lan server.

Get-RemoteAccessHealth –EntryPoint “Backup Site”

REMOTEACCESSHEALTH2

 

In my opinion, it’s a bug on my lab. During DA2.DirectAccessLab.Lan configuration, my server already had an ISATAP interface properly configured. That’s must be why there is no ISATAP router on my server. This should not append in production environment (My lab need to be fixed on this point!)

 

And now from the client-side perspective

From a Windows 8 point of view, a DirectAccess Multi-site infrastructure is just two URL, one for each Entry point. So Multi-site only rely on IPHTTPS transition protocol. That’s why Teredo support is not active on my infrastructure (and because each entry point have only one IPv4 public address!). Windows 7 only support one URL for IPHTTPS interface, that’s why legacy operating systems cant use Multi-site.

Get-NetIPHTTPSConfiguration

GETNETIPHTTPSCONFIGURATION

 

It’s cool to have two entry point, but witch one is currently used? Simple : Get-NetIPHTTPSState

GETNETIPHTTPSSTATE

 

Back to server-side

Multi-site infrastructure is now operational. We need more than an active IPHTTPS interface to validate that point. We need to be able to track IPSEC sessions :

Get-RemoteAccessStatistics | Format-List

Get-RemoteAccessStatisticsSummary | Format-List

FINALSTATS

 

At last, the console view

Now we have an operational DirectAccess infrastructure with Multi-site capabilities. From the console point of view, here what’s it look like :

CONSOLEVIEW

 

Conclusion

I’m sure this deployment process can be fully automated (With PowerShell jobs). If you compare with my high-availability blog post series on Forefront UAG 2012, it will be now more easier to deploy DirectAccess in a high availability scenario and avoiding complex networking issues with Windows Server 2012. Infrastructure described in this post is not compatible with legacy clients (yes Windows 7 is a legacy client!) but there only few changes to allow these clients to connect to an entry point.

 

BenoîtS – Simple and Secure by Design but Windows 8 compliant!

More Posts Next page »