Simple and secure by Design but Business compliant [Benoît SAUTIERE / MVP]

Simple, yes, Secure Maybe, by design for sure, Business compliant always

Common Tasks

Recent Posts



Email Notifications



Solve W2K12R2 DirectAccess OTP activation problem with Powershell

I was working on a DirectAccess POC for a customer of mine a few months ago. Now it’s time to go in production and moving from Windows 2012 to Windows Server 2012 R2. I was rebuilding my lab and have a closer look at KB2883952 to avoid most of problems. This time, problem is not in the list. I was not able to configure OTP authentication for DirectAccess because no capable ADCS can be used to provide required certificates.


Not logic, my lab worked like a charm in Windows Server 2012, so ADCS role configuration was good. Because it’s only a prerequisite check, let’s try to configure OTP scenario using the Enable-DAOTPAuthentication PowerShell commandlet and surprised, it worked !


Even if it worked from the PowerShell commandlet, the console does not recognize ADCS as compatible but it’s no longer blocking in the configuration process.


PowerShell rules!


BenoîtS – Simple and secure by design but Business compliant

August 2014 update rollup for Windows 8.1 what’s new for DirectAccess

There is nothing to do in august, except being in vacation. It’s not the case for Microsoft folks who just released the August rollup for Windows 8.1/RT/Windows Server 2012 R2.

If we take a look at the related KB2975719, we will discover that’s it include improvements but also bug fix, one two of them is are related to DirectAccess :

  • KB2966087 : You intermittently cannot connect to the DirectAccess server by using the IP-HTTPS adapter in Windows 8.1 and Windows Server 2012 R2.
  • KB2984374 : Connect to incorrect entry point when Windows 8.1 or Windows Server 2012 R2-based computer wakes from sleep or hibernate (Thank you Jason, I missed it)

So we have something to deploy in august. Don’t wait and update your DirectAccess clients


BenoîtS – Simple and Secure by Design but Business compliant

Windows Remote Assistance between DirectAccess clients made easy and simple

Remote Management is one of the top feature provided by DirectAccess. By default a DirectAccess client is able to reach internal resources such as SCCM server but the contrary is much more difficult as it require an IPv6 connectivity from end to end. Initiating a remote assistance (MSRA) from a helpdesk station located on LAN is much more complicated. Microsoft recommendation about ISATAP is to do not deploy it at enterprise scale level but limit it to only required hosts. I strongly recommend the Limiting ISATAP Services to DirectAccess Manage Out Clients from Jason Jones to understand initial configuration. If someday you wish to become a DirectAccess Jedi master have a look at my series of blog post to establish secure communication for Windows Remote Assistance :


Core of the problem

It's cool to have Windows Remote Assistance for DirectAccess clients but it works because we have a built-in ISATAP router included with our DirectAccess Gateway. In some scenarios, feature will no longer be available. Have a look at the result of an HLB deployment scenario.


According to this excellent article we have two choices :

  • Place an external load balancer that supports ISATAP on the internal network and enable ISATAP on either DirectAccess servers
  • Disable ISATAP completely which then disables the “manage-out” functionality of DirectAccess.

Note that ISATAP routing capability is also unavailable in multi-site scenario.

Let's analyze these options :

  • Option 1 : Having a load balancer that support ISATAP is not unrealistic at all but enabling ISATAP router on only one node is not. If that DirectAccess gateway happened to fail, ISATAP routing would stop too (SPOF Hunter)
  • Option 2 : If you are here, you're looking for a solution to this problem, so abandon is not an option


We need a third option. I tried multiple options. Even a complete season of Doctor who did not provide me inspiration. If even the Doctor does not have the solution who will?


Two seasons of Doctor who were required to see the beginning of the solution.


What my blog say?

I used so sign my blog post by "Simple and Secure by Design but Business compliant". Too complicated does not means impossible. Let's see the problem from another point of view. Until now we considered remote management as a IPv6 flow from an internal IPv6 capable client connecting to a DirectAccess client connected on Internet. That solution provide end to end IPv6 connectivity. That's right but that's not the only case. Just consider two DirectAccess clients connected on Internet. They both have IPv6 addresses. Would it be impossible to have two DirectAccess clients communicating together? Doctor, an advice? A screw-driver?


Are DirectAccess clients able to communicate each other?

If we just test with Resolve-DNSName PowerShell commandlet, a DirectAccess client is able to resolve DirectAccess names of other DirectAccess clients.


So if required network flow are correctly configured (never forget your NAT-Transversal configuration for incoming network flow), it should be OK. But each time we try to establish communication between DirectAccess clients it seems to fail. Why would two IPv6 hosts that seems to be located on the same network would be unable to communicate? Can we get the IPv6 prefix used to generate IPHTTPS addresses to check?


Correct, they depend on the same subnet (logic). So why two IPv6 hosts located on the same IPv6 network would be unable to communicate using global unicast addresses?



Two hosts located on the same IPv6 Subnet should be using Link local addresses to communicate? Because we have a DNS response with a Global Unicast Address, DirectAccess tunnels try to route our traffic to the internal network. What would happen if we try to communicate with the Link-local address. Here is the Link-local address of the interface of W82.DirectAccessLab.Lan :


And here is the result from W81.DirectAccesslab.Lan



You're skeptical, need more evidence? OK, let's go deep dive into the IPv6 routing


TRACERT.EXE reveal a direct communication without usage of the gateway, and the Get-NetRoute Powershell command validate that any FE80 prefix have the same destination (same subnet). We got it.


Wait a minute, What append to Security?

Good question. Have a look in the connection security rules node in your Windows Firewall console of a DirectAccess client :


Now you understand. Communication between DirectAccess clients are not protected by IPSEC rules. But you're a Jedi master now, you were well trained with the DirectAccess remote management, from Padawan to Jedi Knight blog post series.


Show me your skill Jedi

If we can secure communication from internal IPv6 host to DirectAccess clients connected on Internet, it would not be difficult do to the same with two DirectAccess clients. All start with an isolation rule to create an IPSEC transport.



That will request authentication for any inbound/outbound communication (same rule for all DirectAccess clients whatever which one will initiate communication)



This rule will require some advanced authentication (just like DirectAccess IPSEC tunnels rules).



To make it simple, we will request dual authentication based on Kerberos protocol.



And this rule will only apply to public and private firewall profiles, we don't need this extra-level of security on internal network.



At last we finally put a name on it.



Because you're a Jedi master seating at the Jedi council, you filter the remote scope to only link local scope. We have here an extra-layer of isolation.



We have an IPSEC transport. Next point is to selected protocols to be configured for secure communication. Let's have a look at protocol definition of the Remote Assistance feature. So inbound rules, outbound rules, but some of them are more interesting as they only apply to DirectAccess (public profile). If you remember an old blog post we can enhance user experience of DirectAccess by forcing the public profile for the Windows firewall for any newly identified network. This is helpful to be sure that users cannot consider a new network as private.



So we only need to secure communication for incoming protocol related to the public firewall profile. So two inbound rules to reconfigure. Don't forget to enable Remote assistance and enable the required incoming firewall rules, especially the public rules.



Secure communication will mean authenticated and encrypted. Because connection must be secure, it will use our tunnel so only limit IPv6 for Windows Remote Assistance.



And we will be limiting our public incoming firewall rules to only a limited population represented by an Active Directory Security group. Only support team will be able to respond to a Windows Remote Assistance initiated by a DirectAccess client.


Now Windows Remote assistance between DirectAccess clients should be operational. Just try to send invitation. Network traffic between DirectAccess clients will be protected by an IPSEC transport. A simple Get-NetIPSECMainModeSA Powershell command will reveal an IPSEC transport between the two DirectAccess clients.



Need more proof? OK, let's have a look at established communication, one is interesting. Let's see witch process use it.



Now some additional tricks to make it works :

  • KB2665206 : Slow performance when you enable IPsec encryption on a specific TCP port number in Windows 7 or in Windows Server 2008 R2
  • KB2912883 : Remote Assistance connection to a Windows Direct Access client computer fails (Windows 7 & Windows 8)


Like a other Doctor use to say. Use it :



Now you can call the psychiatrist. I deserve my straitjacket.


BenoîtS - Simple and Secure by Design but Business compliant

Pack de mises à jour Orchestrator 2012

C’est la livraison de l’été. Microsoft a mis à disposition les updates rollup pour la gamme System Center. Pour Orchestrator, on est donc maintenant avec :


Subtilité, pour Orchestrator 2012 R2, cela comprend aussi Service Management Automation (SMA) qui est livré sur le même média.


BenoîtS – Simple and Secure by design but Business compliant

DirectAccess OTP Mystery case solved

Each month, Microsoft provide a bunch of updates for it’s operating systems and this month, the rollup contain an interesting fix for DirectAccess infrastructure. If we have a closer look at updates included we will find this one :


As your DirectAccess infrastructure must include a strong authentication mechanism, you will be happy to discover that Microsoft solved the  “0x80040001 OTP mystery case”. At first logon OTP works like a charm but later it stopped working. If we have a look at KB2973071 details, we will discover that the One-Time Password Certificate Enrollment (OTPCE) continued to use the expired certificate for authentication instead of the new one. As I was able to reproduce this with Windows 8.1 and Windows 7, maybe Microsoft provide an Hotfix for the “Legacy Windows 7 operating system”? Bingo : KB2939489.


If you want to know more about OTPCE, have a look at the protocol specifications available on MSDN.


So don’t forget to add these KB to your DirectAccess KB List.


Simple and Secure by design but Business compliant.

Le POC SCSM en prod, pas glop comme idée

Faire un POC en prod, voila une fausse bonne idée. On se dit qu’avec la version d’évaluation et ses 180 jours, on a tout le temps. Si le POC se transforme en production, faudra juste saisir le numéro de licence. Mais que se passe t’il si on dépasse la période d’évaluation avec SCSM?

Coté console SCSM, c’est pas très parlant.



Même la vue avancée ne nous avance pas plus “Unknow exception”.



La il faut parcourir le log “Operation Manager” pour découvrir la raison :



Cela semble clair. Petite recherche rapide chez Microsoft et on trouve l’information ci-dessous :



Conclusion, le POC en prod pour SCSM, est une véritable fausse bonne idée. Paie ta licence.


BenoîtS – Simple and Secure by Design but Business compliant

Multisite DirectAccess scenario in Powershell

Multisite is a very interesting scenario that was complicated to deploy with Windows 7 and Forefront UAG. If this challenging scenario does not scared you, have a look at this Edge Man post. Technically speaking, it was also possible to achieve a “similar” configuration with a Global Server Load Balancing configuration using F5 Big-IP for example. With Forefront UAG 2010, we had load-balancing capabilities with Network Load Balancing and Hardware Load Balancing but it was long to setup. Have a look at my high-availability blog post series if you want to compare to this blog post!


In Windows server 2012, multisite will become (this post is written with the Consumer Preview released in February 2012!) a much more easier deployment. What an interesting challenge to deploy it with PowerShell only. First, let’s see my configuration  :


We have two sites having their own Windows 2012 server. The challenge is to setup the DA1 server as a DirectAccess server, convert it to multisite and and add DA2 as a new Entry Point for my Multisite configuration. Now let’s switch to PowerShell!


Initial DirectAccess configuration

Let’s start with my first DirectAccess server setup. It’s name is DA1.DirectAccessLab.Lan we start with the role installation :

Add-WindowsFeature –Name DirectAccess-VPN –IncludeManagementTools



In order to be sure that everything is operational, let’s check it with a single PowerShell command : Install-RemoteAccess –Prerequisite



I will need an IPHTTPS certificate on DA1.DirectAccessLab.Lan. Public name record in my certificate will be DA1.DirectAccessLab.Lan. Let’s check that my certificate is present in the computer store with the following command :

$IPHTTPS = (Get-ChildItem Cert:\\LocalMachine\My | Where {$_.Subject -like "CN=DA1.DirectAccessLab.Fr*"})

Write-Host $IPHTTPS



Now, it’s time to configure our first DirectAccess server with a single PowerShell command :

Install-RemoteAccess -DAInstallType FullInstall -ConnectToAddress DA1.DIRECTACCESSLAB.FR -ClientGPOName "DirectAccesslab.Lan\DirectAccess Clients GPO" -ServerGPOName "DirectAccesslab.Lan\DirectAccess Servers GPO"-InternalInterface LAN-InternetInterface INTERNET -NLSURL https://nls.directaccesslab.lan –Force –PassThru



Server-side configuration is almost terminated. We need to configure Certification Authority to be used for IPSEC tunnels authentication. It is mandatory for multisite deployments, just like having a real IPHTTPS certificate for each entry point. The following PowerShell command will configure this :

$CA = (Get-ChildItem Cert:\\LocalMachine\Root | Where {$_.Subject -like "CN=INET*"})

Write-Host $CA

Set-Daserver -IPSecRootCertificate $CA -PassThru



Now let’s switch to the client-side configuration with the Following PowerShell commands :

Add-DAClient –SecurityGroupNameList “DirectAccesslab.Lan\DA Clients”

Remove-DAClient –SecurityGroupNameList “DirectAccesslab.Lan\Domain Computers”

Set-DAClient –OnlyRemoteComputers Disabled




Client-side configuration is almost complete, we just need to configure some settings for end-user experience for the Network Connectivity Assistant. PowerShell commands bellow will configure it with an HTTP type probe located on a domain controller : 

Set-DAClientExperienceConfiguration -PolicyStore "DIRECTACCESSLAB.LAN\DirectAccess Clients GPO" -UserInterface $True -SupportEmail -CorporateResources {HTTP:http:dc.directaccesslab.lan} -PreferLocalNamesAllowed $True -FriendlyName "DirectAccess Connection" -PassThru



Our first DirectAccess server is now operational. Let’s check that with a Get-RemoteAccessHealth command :



If you need more explanations on this part, have a look at my DirectAccess in Powershell blog post.  Now we are ready for Multisite!



Enabling Multisite

We have a standalone server that must be converted as the first entry point of a Multi-site DirectAccess configuration. Each DirectAccess Server (or High-available group of DirectAccess servers) is considered as a DirectAccess Entry point. Let’s convert to Multi-Site :

Enable-DAMultiSite -EntryPointName "EMEA Headquarter" -ComputerName DA1.DirectAccesslab.Lan -ManualEntryPointSelectionAllowed Enabled -Name "DirectAccesslab Multi-Site Infrastructure" -PassThru – Force



Multi-site configuration is enabled with a single entry point named “EMEA Headquarter”. The  Get-DAEntryPoint command will provide some details on this entry point  :



Not many information. This entry point is not GSLB enabled and include a single server. Let’s have a look at this entry point with the Get-DAServer PowerShell command :

Get-DAServer -EntryPoint "EMEA Headquarter"



We have the same information as in standalone configuration. From a server point of view, there is not much more difference. At this point our only requirements are :

  • Do not use self-signed certificate for IPHTTPS
  • Enable computer certificates


By now we have operational Multisite DirectAccess infrastructure And that's all for Multisite activation!


Adding a new entry point

Now come the most interesting part of this blog post : How to add a second entry point remotely. At the beginning of this step, my DA2.DirectAccessLab.Lan server is :

  • Joined to the DirectAccessLab.Lan Domain with a LAN named interface
  • Configured with a public interface named INTERNET with a public IP address
  • Having a public IPHTTPS certificate with as subject name


Here are the only prerequisites that wont be performed remotely! Just like our first DirectAccess server, we need to install roles. Let’s use PowerShell remoting capabilities : Add-WindowsFeature –Name DirectAccess-VPN –IncludeManagementTools -ComputerName DA2.DirectAccesslab.Lan



And check it remotely : Install-RemoteAccess –Prerequisite –ComputerName DA2.DirectAccesslab.Lan



Before performing the magic trick, we must be sure that’s my IPHTTPS certificate for DA2.DirectAccessLab.Fr is present on my remote server :

$IPHTTPS = Invoke-Command –ComputerName DA2.DirectAccessLab.Lan –ScriptBlock {(Get-ChildItem Cert:\LocalMachine\My | Where {$_.Subject –Like “CN=DA2.DirectAccessLab.Fr*”})}

Write-Host $IPHTTPS



And now, the magic trick. How to add a new DirectAccess Entry Point in an exiting Multi-site configuration remotely. As long as all prerequisites are already present, it’s a simple PowerShell Command :

Add-DAEntryPoint -Name "Backup Site" -ConnectToAddress DA2.DIRECTACCESSLAB.FR -InternalInterface LAN -InternetInterface INTERNET -ServerGPOName "DirectAccessLab.Lan\DirectAccess Backup Servers GPO" -RemoteAccessServer DA2.DirectAccessLab.Lan –PassThru -Force



One thing we can notice is that we need an additional GPO to configure our new server. Each Entry point must have it’s own dedicated GPO. By now, our DirectAccess multi-site infrastructure have two entry point. The Get-DAMultiSite also report that users will be able to select the entry point they want to use. Windows 8 is able to connect to the first available entry point, but it’s not capable to really detect witch one is the closest from the client. Global Server Load Balancing feature was designed for that!



If we take a look at our new entry point configuration with a Get-DAServer –EntryPoint “Backup Site” PowerShell command we can notice that there a much less information than for the first entry point. Information such as Internal Interface, InternetInterface or SSLCertificate are not provided. That’s must be a bug in the Consumer Preview version because these information are available if you run the same command on the remote server! That’s not a bug, it’s by design. Theses information will be available if you use the same Powershell CommandLet querying the server name and not the entry point.



Let check everything

Everything seems to be operational on my first entry point. Some services are disabled but it’s normal (no 6to4 or Teredo support, no management server declared, no more OTP, …).

Get-RemoteAccessHealth –EntryPoint “EMEA Headquarter”



But on my second entry point we can notice one minor difference with ISATAP. My DA2.DirectAccessLab.Lan is not considered as an ISATAP router. It’s only an ISATAP client from my DA1.DirectAccessLab.Lan server.

Get-RemoteAccessHealth –EntryPoint “Backup Site”



In my opinion, it’s a bug on my lab. During DA2.DirectAccessLab.Lan configuration, my server already had an ISATAP interface properly configured. That’s must be why there is no ISATAP router on my server. This should not append in production environment (My lab need to be fixed on this point!)


And now from the client-side perspective

From a Windows 8 point of view, a DirectAccess Multi-site infrastructure is just two URL, one for each Entry point. So Multi-site only rely on IPHTTPS transition protocol. That’s why Teredo support is not active on my infrastructure (and because each entry point have only one IPv4 public address!). Windows 7 only support one URL for IPHTTPS interface, that’s why legacy operating systems cant use Multi-site.




It’s cool to have two entry point, but witch one is currently used? Simple : Get-NetIPHTTPSState



Back to server-side

Multi-site infrastructure is now operational. We need more than an active IPHTTPS interface to validate that point. We need to be able to track IPSEC sessions :

Get-RemoteAccessStatistics | Format-List

Get-RemoteAccessStatisticsSummary | Format-List



At last, the console view

Now we have an operational DirectAccess infrastructure with Multi-site capabilities. From the console point of view, here what’s it look like :




I’m sure this deployment process can be fully automated (With PowerShell jobs). If you compare with my high-availability blog post series on Forefront UAG 2012, it will be now more easier to deploy DirectAccess in a high availability scenario and avoiding complex networking issues with Windows Server 2012. Infrastructure described in this post is not compatible with legacy clients (yes Windows 7 is a legacy client!) but there only few changes to allow these clients to connect to an entry point.


BenoîtS – Simple and Secure by Design but Windows 8 compliant!

MS14-025: Vulnerability in Group Policy Preferences could allow elevation of privilege

Les GPO de préférences sont une évolution intéressante des GPO introduite avec Windows 2008. Cependant, il y a une petite faiblesse que Microsoft a enfin corrigé. Les GPO de préférences peuvent être utilisées pour créer/ mettre à jour des comptes de services sur les systèmes gérés. Problème, il faut bien stocker le mot de passe dans la GPO. Avec un peu de recherche dans le répertoire SYSVOL d’une GPO utilisant la fonctionnalité incriminée, on trouve le fichier GROUPS.XML :


Déjà en 2009, l’équipe Group Policy reconnaissait que les mots de passe manipulés par les GPO de préférence étaient plus “masqués” que “chiffrés” et qu’il fallait bien évaluer le risque. A la vue de l’illustration ci-dessus, on pourrait penser que le mot de passe est bien chiffré. Vrai, il est chiffré en AES 256 et faux car la clé est disponible sur le MSDNGêné. Pour vous en convaincre, exécutez le script Get-SettingsWithCPassword.ps1 mis à disposition avec la KB2962486 (il faut toujours lire un KB jusqu’au bout).


Dans l’illustration ci-dessus le script a identifié une GPO avec un mot de passe masqué. Il a juste été nécessaire d’accéder à mon répertoire SYSVOL ou a une sauvegarde des GPO. Pour rappel toute GPO est librement accessible en lecture par défaut. 

Installer la KB2962486 ne fait que bloquer l’usage de la fonctionnalité, cela ne fait pas le ménage à votre place (d’ou l’intérêt de lire une KB jusqu’au bout). Le problème, c’est qu’il y a des développeurs Powershell talentueux qui ont développé des scripts plus complet, voire même trop  :


Dans l’exemple ci-dessus, le script va jusqu’à révéler le mot de passe associé au compte “SECOURS_ADM”. Pour rappel, cette information est en libre accès (sauf si on retire le droit “read” sur la GPO pour les utilisateurs).

Que fait la KB alors? Ben elle corrige l’interface d’édition des stratégies de groupe de préférence pour nous empêcher d’utiliser la fonctionnalité.


C’est bien mais pour cela, il faut s’assurer de patcher tous les systèmes sur lesquels un administrateur utilisera l’éditeur de stratégies de groupes pour manipuler son contenu. Cela implique donc de patcher :

  • Les contrôleurs de domaine (GPMC est nativement installé)
  • Les serveurs membres (GPMC est potentiellement installé)
  • Les stations de travail (GPMC peut être installé si les RSAT sont installés)


En conclusion :

  • Abandonnez immédiatement l’utilisation des GPO de préférence pour manipuler les comptes & mots de passe
  • Faites la chasse aux stratégies de groupe utilisant cette fonctionnalité
  • Installez le correctifs sur tous les systèmes ou GPMC est potentiellement installé (pour éviter qu’un Administrateur ne recréé une GPO de préférence avec un mot de passe)
  • Formez vos Admins pour ne plus utiliser cette fonctionnalité!


Enfin, si c’est pour gérer le mot de passe Administrateur local de vos stations de travail, la solution ADMPWD est faite pour cela.


BenoitS – Simple and Secure by Design but Business compliant

Un peu de process d'ADMPWD dans ce monde de cloud (5/5)

Je sais très bien qu'au fur et à mesure de cette série de billet, j'ai perdu beaucoup de lecteurs à chaque étape, je m'en excuse. Pour les survivants, c'est la meilleure partie, à savoir comment appeler notre Runbook Orchestrator d'interface avec SCSM depuis SCSM. Pour les autres un petit interlude est nécessaire avant de reprendre et de se dire que je suis loin d'atteindre son niveau pour écrire des tutos pareils!


Vous êtes convaincus maintenant? Doumé, allons-y.

Commençons par les bas-fonds. Si on doit manipuler des objets extérieurs à Service Manager, il faut les référencer dans la CMDB. Orchestrator étant un produit de la gamme System Center, il y a donc un connecteur dans Service Manager. Il faut juste s'assurer que celui-ci a bien importé nos Runbook. Par défaut, il réalise cette opération selon un cycle de 24 heures et importe les Runbook qui ont été "Check-in". Histoire de ne pas attendre, on va lui forcer la main avec un peu de Powershell et quelques Commandlet issus du module de Service Manager.


Cette fois, c'était les dernières commandes Powershell dans ce monde de cloud. Le lien entre Orchestrator et Service Manager se fait au travers de la classe d'objets "Runbook Automation Activity" de la CMDB. On peut constater que tous les Runbook développés sont visibles. Celui qui nous intéresse, c'est celui en charge de l'interface avec SCSM (la seconde version).


Pour ce Runbook, j'ai créé un objet de classe "Runbook Automation Activity" dans la CMDB.


La caractéristique la plus importante pour un "Runbook Automation Activity", c'est la case d'option "Is ready for Automation" qui doit obligatoirement être cochée si on veut voir le Runbook être exécuté.


Lors du processus d'import, SCSM a clairement identifié les paramètres en entrée et en sortie. Dans notre cas, un seul paramètre en entrée nommé "ActivityID". Il faut juste faire le mapping entre un attribut de la CMDB et ce que nous allons passer en paramètre d'entrée à notre Runbook.


J'ai retenu de passer l'identifiant unique (le SC Object GUID) de l'objet "Runbook Automation Activity" qui sera créé lors de l'exécution de la "Service Request".


L'interface avec le Runbook est maintenant terminée. Il faut juste un appelant. Cet appel sera réalisé au travers d'une "Service Request" que nous allons créer sous forme de template.


Un objet "Service Request" est un ensemble d'activité qui sera réalisée. Cela peut contenir des activités de type "Runbook automation Activity", "Review Activity" (validation) ou même "Manual activity"). L'interface principale ne nous apprend pas grand-chose.


Par contre dans l'onglet "Activity", on retrouve bien notre template d'objet "Runbook Automation Activity" qui sera créé lors de l'exécution de la "Service Request".


Dernier étage, les interfaces. Par soucis de simplification, nous ne parlerons que de "Request Offering".


Une "Request Offering" est l'objet que nous voyons dans le portail. Il fait référence à une "Service Request" mais aussi aux paramètres à passer et l'interface utilisateur à mettre en place.


Passons justement aux saisies demandées par l'utilisateur. Pour notre requête, nous avons juste besoin d'un compte ordinateur que nous allons proposer parmi une liste d'objets issus de la CMDB.


Là je vais perdre du monde (Doumé, …). Qu'est-ce que c'est que la classe Cloud Services Extended Virtual machine (Advanced)? OK, cela aurait été plus simple de choisir la classe "Windows computers" ou "Windows Computers (Advanced)" qui référence les objets ordinateurs du domaine importés dans la CMDB. Oui mais je voulais ne filtrer que les objets déployés avec le Cloud Services Process Pack. En plus, je voulais pouvoir identifier le propriétaire de ces machines virtuelles.


Pour mon filtre, j'ai retenu de n'afficher que les systèmes qui :

  • Ont été installé à l'aide du Cloud Services process Pack (donc provisionnés via une requête et associé à un contrat lui-même lié à un tenant pour pouvoir facturer)
  • Sont référencés comme actifs (donc non archivés dans la library de SCVMM)
  • Et dont l'utilisateur propriétaire correspond à celui qui exécute la requête dans le portail

C'est là qu'on découvre la magie du token. Merci à l'équipe produit SCSM pour ce billet qui a éclairé beaucoup de choses.


Le filtre est en place, ne reste plus qu'à définir les informations qui seront affichées à l'utilisateur dans le portail SCSM concernant cette classe d'objets, le nom de cet objet sera amplement suffisant.


On comprend l'intérêt des deux premières options, par contre, c'est un peu plus complexe pour les deux autres. C'est un peu plus subtil. Attention, c'est uniquement si vous voulez comprendre tous les mécanismes. Pour faire plus court, voilà les parties intéressantes:

  • Add user-selected objects to template object as related items: If this field is checked, the portal will create System.WorkItemRelatesToConfigItem or System.WorkItemRelatesToWorkItem relationship instances to link each of the objects selected by the user to the target instance specified in the drop-down immediately beneath the check box. The appropriate relationship is selected based on the type of object being displayed in the Query Results control. The instances available in the drop-down include the target template instance selected for the Request Offering and any of its embedded activities.
  • Add user-selected objects to template object as affected configuration items: This field is enabled only if the objects being displayed in the Query Results control inherit from Configuration Item (System.ConfigItem). If this field is checked, the portal will create System.WorkItemAboutConfigItem relationship instances to link each of the objects selected by the user to the target instance selected in the drop-down. The instances available in the drop-down include the target instance and any of its embedded activities.


Félicitations à ceux qui sont arrivés jusque-là. Je sais parfaitement que vous n'êtes pas si nombreux que cela. Maintenant que vous avez un exemple concret de ce qu'on peut faire avec Service Manager, il se peut que vous en vouliez encore plus, voire même tenter d'étendre à d'autres briques du système d'information. Si c'est le cas, c'est normal, vous commencez à penser industrialisation du SI. Vous vous rapprochez des nuages.

BenoîtS - Simple and Secure by design but business compliant

Un peu de process d'ADMPWD dans ce monde de cloud (4/5)

C'est l'heure des sujets qui piquent mais juste un peu. Mais pourquoi donc ne pas tout faire dans un seul et unique Runbook? C'est une bonne question. Ça m'a pris comme ça. Plus sérieusement, c'est un choix personnel de toujours séparer :

  • Les Runbook d'interfaces avec SCSM
  • Les Runbook au cœur de l'activité
  • Les Runbook "Sub-routines" que j'utilise

De cette manière on évite le Runbook monstrueux impossible à maintenir. Dans le cas présent, nous avons un Runbook d'interface avec SCSM. Il a pour objectif de :

  • Récupérer les informations en provenance de la CMDB
  • Appeler un ou plusieurs Runbook "Sub-Routines"
  • Appeler le Runbook au cœur de l'activité
  • D'appeler un Runbook d'interface avec SCSM permettant de remonter des informations dans la Service Request

Mon Runbook d'interface doit récupérer les paramètres dont a besoin le Runbook que l'on va appeler et retourner un statut suite à l'exécution. Plongeons dans ce Runbook qui finalement n'est pas si compliqué qu'il n'y parait :


Pour ceux qui avaient esquivé la série A la surface d'un service dans System Center Service Manager, petit rappel. D'un point de vue technique, Service Manager va créer un objet "Runbook Automation Activity" qui va référencer les paramètres à passer sous forme de liaisons. Nous allons passer l'identifiant unique de cet objet en paramètre du Runbook ("SC Object Guid" le bien nommé). Ce choix me permettra d'utiliser l'IDP SCSM d'Orchestrator pour illustrer quelques manipulations de base de la CMDB. Donc revenons à notre Runbook d'interface. Il commence par une activité qui référence notre seul et unique paramètre.


Pour les plus curieux, voilà un objet "Runbook Automation Activity" ainsi que l'identifiant unique de l'objet RBA qui est passé en paramètre. Le Fameux "SC Object Guid" que nous allons revoir souvent.


Justement cet identifiant, nous allons l'utiliser immédiatement pour identifier notre paramètre, à savoir la machine virtuelle pour laquelle nous allons demander de révéler le mot de passe Administrateur. On va exploiter le potentiel de la CMDB. Au lieu de simplement coder le nom de la VM "en dur" dans l'objet "Runbook Automation Activity", on exploite les relations entre les objets et c'est plus classe. Dans le cas présent, lors de la création de l'objet "Runbook Automation Activity", une relation a été créée avec le paramètre qui n'est autre qu'un objet de la classe "Virtual Machine".


A noter que je suis parti du principe qu'il n'y avait qu'une seule relation, donc un seul paramètre. Si on autorisait la sélection multiple dans la "Request Offering" de SCSM, il faudrait en tenir compte pour traiter chaque cas. Dans le cas qui nous occupe, j'exploite un attribut de la relation pour déterminer qu'il n'y a qu'un seul objet en sortie de cette activité. Si ce n'est pas le cas, le Runbook sort en erreur.

A ce stade, nous avons la référence d'un objet de la classe "Virtual Machine", allons chercher des informations sur cet objet dans la CMDB avec l'activité "Get Object". <Mode Astuce SCSM ON> Nous faisons référence à un paramètre en relation avec une autre classe. Donc l'identifiant unique que nous cherchons (le "SC Object GUID") est référencé dans l'attribut Related Objet GUID" <Mode Astuce SCSM Off>.


Nous avons tous les paramètres ou presque. Au final, on doit dévoiler le mot de passe administrateur de la machine virtuelle que nous venons d'identifier. Encore faut-il savoir à qui envoyer un mail. Facile me direz-vous, dans la "Service Request", on a nécessairement cette information dans l'attribut "Created by user". C'est vrai, nous y reviendrons. Pour l'instant, nous allons appeler un Runbook qui va se charger pour nous de retrouver cette information à l'aide de l'identifiant de l'objet "Runbook Automation Activity" passé en paramètre.


Si on arrive ici, c'est qu'on a toutes les informations pour appeler le Runbook que nous avons développé dans le billet précédent. En retour, le Runbook nous retournera une variable indiquant le bon déroulement de l'exécution (OK, NOK).


Cette variable est importante car à ce stade de notre Runbook nous devons prendre une décision. Si le service a été correctement rendu, alors nous pouvons poursuivre dans une branche (OK). Si ce n'est pas le cas, c'est l'autre branche (NOK). Dans les deux cas, on appelle un Runbook qui va se charger de remonter un statut dans la "Service Request" avant de terminer le Runbook d'interface avec SCSM.


Maintenant que les grandes lignes sont tracées, penchons-nous sur les petits détails pour comprendre deux tours de magie utilisés. Commençons par comprendre comment on retrouve l'utilisateur initiateur de la "Service Request" dans SCSM. La méthode la plus basique aurait été de passer l'information en paramètre (d’où la V1 de la "Request Offering"). Or, cette information est présente dans la CMDB, encore faut-il faire son chemin pour y accéder. J'ai volontairement créé un Runbook dédié pour cela (Runbook "Sub-routine"). Ici encore, c'est une histoire de relation mais avec un objet de la classe "Service Request", lequel a lui-même une relation avec un objet de la classe "User" que nous allons identifier pour enfin en extraire son adresse de messagerie.


Je ne détaille plus le pourquoi mais nous repartons de notre identifiant unique de l'objet "Runbook Automation Activity", c'est notre point d'entrée dans la CMDB.


Cette fois, la relation concerne un objet de la classe "Service Request". Sauf que sur ma maquette qui a déjà beaucoup vécu, j'ai intégré quelques personnalisations de CMDB. J'utilise donc mon extension de la classe "Service Request" que j'ai nommé "My Service Request".


On remarquera que j'ai volontairement fait l'impasse sur la gestion d'erreur. Il y a forcément un objet de la classe "My Service Request" que nous allons identifier à l'aide de son identifiant "SC Object Guid" référencé dans l'attribut" Related Object Guid". Ça commence à rentrer maintenant?


Etage "Service Request", direction "Created user". Ici encore, c'est une relation avec un objet de la classe "Active Directory User". Jusqu'ici, rien de bien compliqué.


C'est en sortie de cette activité que cela se complique (Ce n’est pas la faute à Powershell). En retour, nous n'avons pas un objet en relation mais deux. On s'en rend compte lors qu'on regarde le détail de l'exécution de l'activité. Problème, comment identifier l'un ou l'autre.


C'est une bonne piste, maintenant, faut faire le tri. Pour cela, il a été nécessaire d'utiliser le débogueur pour clairement identifier les différents "Related Object Guid" en question. Avec un peu de persévérance, on finit par comprendre la différence :


Nous avons deux relations :

  • La première pour l'utilisateur qui a créé la requête
  • La seconde pour l'utilisateur à qui on a affecté la requête (notion d'analyste dans SCSM)

Ce qui nous intéresse, c'est le premier. Pour filtrer uniquement celui-ci, nous allons jouer sur les propriétés "Include" et Exclude" de la relation. Même les liaisons entre les activités ont des propriétés que l'on peut configurer (sic). J'ai donc indiqué que nous ne retenons les objets que si l'activité "Get-Relation" s'est déroulée avec succès ou que celle-ci nous désigne bien un attribut dont la valeur est "Created By user".


Au contraire, je veux exclure, tout objet pour lequel la valeur de ce même attribut n'est pas celle attendue.


La gestion des propriétés "include" et "exclude" est importante dans Orchestrator car c'est grâce à elles que l'on va introduire la gestion d'erreur au sein de nos Runbooks. Il faut donc s'assurer de bien les configurer. Dès lors qu'on est assuré d'avoir la référence au bon objet, allons rechercher ses caractéristiques avec une activité "Get-Object".


Nous avons maintenant toutes les informations pour retourner l'adresse mail de l'utilisateur créateur de la "Service Request" en résultat de Runbook. On notera que si cette information est dans la CMDB, c'est que le connecteur Active Directory en a importé l'objet et la majeure partie de ses propriétés.

Second tour de magie, utilisé : La mise à jour de la "Service Request" en fonction du résultat du Runbook. C'est ce qui permettra d'informer l'utilisateur que sa requête a été traitée avec succès. Le cas échéant d'indiquer l'erreur rencontrée. Vous reprendrez bien un petit Runbook pour la route? Sans Powershell ajouté!


Notre Runbook attend deux paramètres en entrée, à savoir l'identifiant du Runbook Automation Activity qui sera notre point de départ pour remonter vers la "Service Request" ainsi que l'information que nous allons inscrire comme résultat de la "Service Request".


On ne change pas une méthode qui gagne en recherchant l'objet "Service Request" en relation avec notre objet "Runbook Automation Activity".


Je sais qu'il y a nécessairement qu'une seule relation, donc pas la peine de tester, allons à l'essentiel en mettant à jour objet "Service Request" dans la CMDB. La mécanique est maintenant rodée, on va juste passer un peu de temps sur les attributs que l'on met à jour.


Pour le second, rien de bien sorcier, c'est du texte qui est issu d'un retour du Runbook qui a révélé le mot de passe Administrateur de notre serveur. Pour le premier par contre, c'est un peu plus subtile. Dans la "Service Request", cet attribut n'accepte que des valeurs définies dans une liste SCSM (encore un objet dans la CMDB) nommée "Service Request Implementation results".


C'est ce contenu qu'Orchestrator nous propose. J'ai donc deux Runbooks. Le premier pour indiquer que tout s'est déroulé avec succès et le second pour indiquer qu'une erreur est survenu lors de l'exécution. Au passage deux piqures de rappel sur le sujet pour éviter les déconvenues suite à une installation malencontreuse d'Orchestrator sur un système autre qu’US :

Vous lisez encore? Bien, reste plus maintenant qu'à mettre tout cela en musique dans Service Manager. Courage, plus qu'un seul billet à supporter.

BenoitS - Simple and Secure by Design but business compliant

Un peu de process d'ADMPWD dans ce monde de cloud (1/5)

ADMPWD, répond à une problématique bien connue. Maintenant qu'on a l'essentiel, passons à l'étape suivante : construire des processus autour. Historiquement, on ne voulait jamais donner le compte administrateur local de nos stations de travail/serveur car, il risquait d'être identique sur un grand nombre de serveurs. Avec ADMPWD, on a résolu ce problème. Voyons comment faire en sorte de pouvoir communiquer le mot de passe Administrateur local d'un système en s'assurant que cette information ne soit valable pour une durée limitée dans le temps (vous avez dit magie?).

Dans l'idée, c'est de faire appel à ADMPWD pour lui imposer de changer de mot de passe plus rapidement que ce qu'il a été prévu. De cette manière, même si on communique le mot de passe que nous avons extrait de l'annuaire Active Directory, sa durée de vie sera limitée. Dans le cadre de ce billet, j'ai volontairement retenu une durée de 24 heures. Le composant ADMPWD installé sur mes serveurs réévalue le besoin de changer le mot de passe du compte administrateur local selon les conditions suivantes :

  • Cycliquement toutes les 90/120 minutes
  • manuellement en exécutant Invoke-GPUPDATE / GPUPDATE.EXE
  • Au démarrage du système d'exploitation

Donc en configurant une date d'expiration à 24 heures , nous sommes presque assurés qu'au bout de 24heures + 120 minutes le processus de rafraichissement des stratégie de groupe aura eu lieu et ADMPWD réalisé le changement de mot de passe. Et comme la sécurité n'est rien sans de bons processus pour l'encadrer, je n’ai pas résisté à la tentation de développer une “Request Offering” SCSM pour : 

  • Révéler le mot de passe administrateur local d'un serveur
  • En s'assurant que ce mot de passe ne soit utilisable que pendant une période de 24 heures
  • Que le mot de passe soit communiqué au demandeur par mail

Qui dit SCSM, dit obligatoirement Orchestrator et Powershell, le tiercé gagnant. Les bases sont posées voyons comment le mettre en musique. Pour simplifier l'approche et la lecture, c'est non pas un billet mais plusieurs qui seront nécessaires. Commençons par les fondations avec le Runbook chargé des opérations techniques :

Pour ceux qui ont suivi la série "A la surface d'un service dans System Center Service Manager", on est dans la même approche, peut-être un peu plus simple, mais ça c'est by designTire la langue. En plus, c’est toujours Secure”".

BenoîtS - Simple and Secure by Design but Business compliant

Un peu de process d'ADMPWD dans ce monde de cloud (3/5)

On a plongé tête baissée dans Orchestrator. Pourtant, avant de de se perdre dans les méandres d’Orchestrator et SCSM, ce serait bien de comprendre à quoi cela va ressembler à la fin. Au passage, cela permettra d'introduire quelques sujets de fonds. Donc billet un peu plus léger pour cette fois.

Pour cette série de billets, j'ai fait bien plus simple que pour la série "A la surface d'un service dans System Center Service Manager", pas de "Service Offering", donc toutes les Request Offering sont directement accessibles depuis la vue "List view" dans le portail SCSM (j'ai dit léger non?). J'ai nommé ma Request Offering "Disclose local Administrator Password (V2)". Le développement de mon service s'est fait par itération successive. On n'arrive que très rarement au résultat escompté du premier coup.


C'est une étape obligatoire dans le portail SCSM. L'idée générale est de pouvoir communiquer autour de la Request Offering avec les différents éléments qui peuvent s'y rapporter (articles de la bases de connaissance associés, autres “Request Offering” proposés dans le même Service Offering, …). Pour faire simple, la WebPart est tel que, on n'y changera rien.


Nous arrivons au cœur de la Request Offering. Pour quel serveur va-t-on demander de dévoiler le mot de passe administrateur local? On verra plus tard que cette liste de serveurs n'est pas construite par hasard. Ne sont affichés que les serveurs que j'ai commandé dans mon Cloud Services Process pack. Dans la construction de ma "Request Offering", j'ai retenu qu'on ne puisse sélectionner qu'un seul serveur. D'un point de vue technique il est bien entendu possible d'autoriser une sélection multiple, c'est juste coté Orchestrator que cela va se compliquer (billet simple).


Par contre, on ne voit pas encore comment cette liste a été construite. Toutes ces machines virtuelles sont-elles les miennes? Allons voir les propriétés de l'objet sélectionné. Ce que nous allons voir est la vue consolidées des informations contenues dans la CMDB de Service Manager. Déjà premier constat, l'objet présente des informations en provenance de plusieurs classes d'objets, dont "VirtualMachines". L'objet sélectionné est bien un objet de la classe "virtualmachine" mais aussi un objet de la classe "Cloud Services Virtual Machine". Cette classe d'objets a été introduite par le Cloud Services Process Pack pour assurer la mise à disposition et gestion de machines virtuelles. L'intérêt est de pouvoir identifier le propriétaire de la machine virtuelle.


Ce qu'on peut aussi remarquer ici, ce sont les éléments de configuration issus de la CMDB qui sont en relation avec mon objet sélectionné.


Le premier désigne le contrat de souscription de ressources auquel est associé la machine virtuelle (Il faut bien être capable de tracer/facturer l'utilisation des ressources). C'est un élément apporté par le Cloud Services Process Pack.


Mais aussi le propriétaire associé à la ressource. C'est cette information que nous utiliserons lors de l'intégration avec SCSM.


En passant par la relation, je retrouve le propriétaire associé à l'objet. Pour finir, une étape obligatoire du portail SCSM pour rappeler les choix de l'utilisateur avant de commencer le traitement de la "Request Offering".


Maintenant, plus moyen de revenir en arrière, le traitement a commencé. Dans SCSM les choses sérieuses commencent. La "Request Offering" que nous avons appelé fait référence à une "Service Request" qui elle-même référence une ou plusieurs activités à traiter. Dans notre cas, il n'y en a qu'une seule et c'est même une activité de type "Runbook Automation Activity".


Le portail SCSM permet de suivre l'avancement de notre "Request Offering". Dans l'illustration ci-dessous, notre requête est indiquée comme étant en cours de traitement, et qu'elle ne fait appel qu'à une seule activité, plus précisément une "Runbook Automation Activity". Cette dernière indique un état "In Progress". Ce sont donc deux objets qui ont un statut bien distinct (Une "Service Request" peut faire appel à plusieurs "Activity").


Quelques temps plus tard, le "Runbook Automation Activity" indique un état "Completed", tout comme la "Request Offering". C'est un sujet que nous allons revoir plus tard.


Passons de l'autre côté pour voir ce que nous ne voyons pas depuis le portail. Lorsqu'on consulte le détail de la "Service Request" générée, on peut constater la présence de notes additionnelles indiquant la date de fin de validité du mot de passe que nous venons de relever. On verra dans le billet suivant que c'est le travail d'un de mes Runbook Orchestrator de remonter cette information au niveau de la "Service Request" ainsi que le bon déroulement ou non des activités réalisées.


Ma maquette étant quelque peu limitées en terme de capacités (32Go de mémoire, on fait plus rien avec ça mon bon monsieur), pas possible de présenter le mail reçu dans un beau client de messagerie. On se contentera de sa version brute de fonderie dans la file d'attente SMTP. Pour faire cela bien, il aurait été nécessaire de mettre en place le connecteur Exchange de SCSM 2012.


Pour les sceptiques, il reste possible d'aller voir ce qui se passe sous la moquette et plus précisément dans l'annuaire Active Directory. Avec le CommandLet Get-ADObject du module Active Directory on est capable de récupérer toutes les informations dont les deux attributs qui nous intéressent :

  • Ms-Mcs-AdmPwd
  • Ms-Mcs-AdmPwdExpirationTime


C'est ce dernier attribut qui va nous intéresser. Comme toutes les dates, elles sont exprimées au format UTC. Il aurait été possible de réaliser cette conversion directement, sans l'étape intermédiaire mais cela rend le code un peu plus complexe (Powershell oui mais simple, j'avais promis).

Jusque-là je ne dois avoir perdu personne. Pour le prochain billet, ça va se corser puisqu'on va aborder le sujet de l'intégration SCSM avec Orchestrator (sic). Courage, le pire est à venir.

BenoîtS - Simple and Secure by Design but Business compliant.

Un peu de process d'ADMPWD dans ce monde de cloud (2/5)

Après le teaser, rentrons directement dans le vif du sujet avec le Runbook au cœur de tout cela. Une activité de début et trois activités de fin pour traiter :

  • Le compte ordinateur qui n'existe pas
  • Le succès de l'opération
  • Une erreur dans le traitement

Minimaliste certes mais avec une gestion d'erreur quand même.


Notre Runbook a un début. Cette activité permet de référencer les paramètres qui sont attendus pour l'exécution. Dans notre cas, nous avons besoin :

  • De l'ordinateur pour lequel on désire révéler le mot de passe
  • De l'adresse de messagerie à laquelle on doit envoyer le mot de passe


Pour pouvoir accéder au mot de passe, nous allons utiliser une activité de l'Integration Pack Active Directory et rechercher un objet bien particulier et retourner toutes les informations le concernant (d’où le "Return Distinguished Names Only" configuré à "False").


Pour cela encore faut-ll préciser quel objet désire t'on rechercher. Dans notre cas, le filtrage s'effectue sur le "Common Name" en utilisant le paramètre passé en paramètre notre Runbook.


C'est maintenant que ça commence à piquer. Une petite pointe de Powershell. Le problème, c'est que l'éditeur proposé par l'activité Powershell n'est pas des plus ergonomiques. <Mode capitaine Haddock activé>. Donc à la demande générale quelques lignes de Powershell dans ce monde de clouds. Premier truc, je n’ai volontairement pas utilisé les commandlet Powershell livrées avec le composant ADMPWD. Pourquoi? Pour rester indépendant. En plus, on peut simplement exploiter le CommandLet ActiveDirectory et arriver au même résultat. Enfin, on s'évite de gérer le problème de Framework Dot.Net 4.0 dans Orchestrator avec le module ADMPWD. <Mode capitaine Haddock désactivé>.


Le script se décompose en deux parties. La première réalise un invoke-command pour récupérer le contenu de l'attribut "MS-mcs-AdmPwd". C'est lui qui contient le mot de passe. Pour ceux qui ont lu le billet "ADMPWD une solution de gestion du mot de passe administrateur local de vos systèmes Windows", cet attribut ne m'est accessible que par ce que le compte de service utilisé par Orchestrator est membre des groupes de sécurité nécessaires.


En retour d'exécution, on obtient le mot de passe demandé. C'est une information que nous allons passer à l'activité suivante du Runbook. La seconde partie du script va elle configurer une nouvelle date d'expiration dans l'attribut "ms-mcs-AdmPwdExpirationTime". Cette information sera retournée comme second paramètre de l'activité Powershell. Pour rappel, dans mon cas, j'ai ajouté 24 heures à la date courante.


Si on veut récupérer deux paramètres, encore faut-il les avoir préalablement déclarés dans l'activité Powershell.


Le job est fait, reste plus qu'à communiquer l'information. Pour des raisons de simplicité, j'ai utilisé l'activité "Send Mail" disponible nativement qui va générer le message correctement formaté à destination de l'adresse mail indiquée en paramètre de notre Runbook.


Reste plus qu'à référencer le serveur de messagerie à utiliser ainsi que l'adresse mail à utiliser pour envoyer le message. Ma maquette étant assez limitée, j'ai volontairement installé le moteur SMTP de IIS sur mon serveur Orchestrator.


Job is done. A ce stade, si tout s'est bien déroulé, on arrive à l'activité "success", laquelle retourne "OK" comme valeur de retour du Runbook. Voilà pour la partie simple.

A partir de maintenant, on s'attaque au gros du sujet. Jusque-là je ne pense avoir perdu personne. Ce n'était que quelques lignes de Powershell et une pointe d'Orchestrator dans ce monde de cloud. Il restera un peu de Powershell dans la suite des billets mais juste quelques commandes isolées. Maintenant, direction les nuages avec SCSM et Orchestrator.


BenoîtS - Simple and Secure by Design but Business compliant

Disconnect DirectAccess in Windows 8.x while on LAN

A small blog post to relay an interesing post from Richard Hicks. Microsoft just published an update applicable to Windows 8.x DirectAccess clients to solve an interesting problem When the DirectAccess clients are not able to reach the Network Location server While on LAN. As they are not able to reach NLS, they try to enable DirectAccess while on LAN. Users can wait for a while.


After you apply the update, your users will be able to disconnect from DirectAccess in such situation.



Thank you Richard for pointing that out.


BenoîtS – Simple and Secure by design but business compliant.

Windows to go, pas que pour les Geek

Etre Geek, c'est aussi identifier des solutions innovantes qui peuvent apporter un véritable plus dans les projets. Dans le cas présent, les projets de migration de poste de travail. Sur ce point, grand merci à Stanislas Quastana pour la solution SPYRUS WorkSafe Pro :


Cette solution ne doit pas être considérée comme un produit pout "Geek" mais comme un véritable Solution Accelerator pour les projets de migration vers Windows 8. Tout projet de migration vers Windows 8 va impérativement devoir adresser des sujets autour :

  • De la compatibilité applicative
  • Du packaging des applications
  • L'introduction de la virtualisation applicative
  • Introduire de nouvelles fonctionnalités sécurité (Bitlocker, DirectAccess, Smartcard, …)

Par expérience, quel que soit la qualité des intervenants impliqués dans un projet de migration de poste de travail, on tombe invariablement sur la capacité à mettre à disposition les packages applicatifs validés pour pouvoir délivrer le nouveau poste de travail vers Windows 8.1. C'est le principal frein aux projets de migration. Au final, le projet prend du retard, avec risque de ne pas être en capacité de répondre aux exigences business à la source du projet (on ne fait pas de projet pour le plaisir de faire un projet). Un business case a été monté, il est censé avoir mis en évidence des quickwins et donc des réductions de couts.

La solution de SPYRUS (lien) intègre à la fois :

  • Une clé USB prévue pour l'usage Windows To go
  • Assez de capacité pour héberger applications et données utilisateur si nécessaire
  • Une carte à puce intégrée (plus besoin de lecteur)

De mon point de vue, inscrire cette solution dans le cadre d'un projet de migration vers Windows 8.1 doit être pris au sérieux. Le plus grand frein à l'adoption d'un nouveau système d'exploitation dans l'entreprise c'est la disponibilité des applications sur la nouvelle plateforme. Migrer un utilisateur sans ses applications n'a pas de sens. Tout projet de migration de poste de travail doit être en mesure de réduire la phase de coexistence au plus court pour éviter :

  • La double gestion (et donc les double couts)
  • Un allongement de la durée du projet (et donc de son cout)
  • Proposer un retour arrière pour les erreurs de migration (mais pas trop sinon on prend du retard et ça coute cher)
  • La solution du double poste physique qui est un gouffre économique

C'est là que Windows to Go prend tout son intérêt. L'utilisateur en demandant toujours plus, il est prêt à adopter un nouveau système d'exploitation (en changent de PC, cela va de soi) si toutes ses applications sont disponibles.

Dans le cadre d’un projet de migration de postes, la solution de SPYRUS une solution intéressante pour assurer la coexistence entre le legacy et le futur poste de travail. Si toutes les applications ne sont pas encore packagées sous Windows 8, on peut au moins proposer deux postes de travail à l’utilisateur grâce à Windows To go. Certes cela a un cout mais on est capable de rapidement embarquer des utilisateurs et donc accélérer la migration. En plus, cela permet de dissocier les problématiques :

  • On est capable de déployer le nouveau poste de travail rapidement
  • On est capable de maintenir l'accès au poste "legacy" pour certaines applications (un reboot et on retrouve l'ancien poste)
  • C'est l'utilisateur qui peut décider de sa date de migration
  • On peut proposer de l'authentification forte en avance de phase sur les postes "legacy"
  • La migration des données locales est facilité (plus de transfert réseau, c'est que du local)

Lorsqu'on inscrit cette solution dans un projet poste de travail, on peut proposer quelques scénarios intéressants dont l'onboarding rapide :

  1. La mise à disposition de la clé Windows To Go par courrier, y compris à domicile
  2. L'utilisateur connecte la clé Windows To Go à son poste de travail Legacy et démarre Windows 8
  3. L'utilisateur contacte le support pour réaliser l'Offline domain Join en DirectAccess (ben quoi, il fallait bien le caser celui-là)
  4. L'utilisateur réaliser l'enrôlement de sa carte à puce
  5. Installation des applications MSI/APP-V via SCCM même à domicile (Viva DirectAccess)

De là, l'utilisateur a un poste de travail opérationnel sous Windows 8.1 tout en ayant la possibilité de revenir sur son poste "Legacy" en un simple reboot. La majorité des postes de travail étant aujourd'hui des portables, on facilite grandement la migration de ces populations qui ne sont pas souvent dans les locaux de l'entreprise.

Dès lors que toutes les applications ont été validées, l'utilisateur peut passer au bureau pour prendre livraison de son nouveau poste de travail. Si on a bien pensé la gestion de la localisation des données utilisateurs, la migration de celles-ci consistera à réaliser un simple USMT de Windows 8.1 vers Windows 8.1. A la première ouverture de session l'utilisateur récupère donc toutes ses données ainsi que ses applications (SCCM 2012 est user-centric), il n'a plus besoin de la clé SPYRUS, il est possible de recycler celle-ci pour l'onboarding d'autres utilisateurs.

Au final, Windows To Go simplifie grandement la migration vers Windows 8.1, tout en proposant à l'utilisateur d'être early-adopter en toute sécurité. Il existe bien d'autres scénarios d'usages :

  • La mise à disposition d'un poste de travail temporaire en utilisant le portable/tablette personnelle de l'utilisateur
  • Du BYOD maîtrisé (matériel de l'utilisateur mais OS/Applications de l'entreprise)
  • Les partenaires intervenant au sein d'une entreprise pour lesquels on devait fournir un PC
  • Les partenaires intervenant en "remote" pour lesquels on devait fournir PC,accès VPN et token pour authentification forte

Windows to go doit dont être vu comme un véritable accélérateur des projets de déploiement de Windows 8.1, en particulier lorsque la migration doit être réalisé.

Quelques articles/bases à relire sur le sujet :

Quelques sessions Techdays pour réfléchir sur le sujet :

Histoire de montrer que c'est si simple, voilà la commande qui a été utilisée pour provisionner ma clé USB


Et l'utilisation du fichier généré sur mon futur poste de travail.


Et au premier logon sur le domaine, j'étais déjà en DirectAccess. La classe non? Geek oui mais Business focus cette foisClignement d'œil.


Au passage, grand merci à Stanislas QUASTANA pour m’avoir fait découvrir la solution et la photo.


BenoîtS - Simple and Secure by Design but Business compliant

More Posts Next page »