Simple and secure by Design but Business compliant [Benoît SAUTIERE / MVP]

Simple, yes, Secure Maybe, by design for sure, Business compliant always

Common Tasks

Recent Posts

Tags

Community

Email Notifications

Blogs

Archives

DirectAccess OTP Mystery case solved

Each month, Microsoft provide a bunch of updates for it’s operating systems and this month, the rollup contain an interesting fix for DirectAccess infrastructure. If we have a closer look at updates included we will find this one :

image

As your DirectAccess infrastructure must include a strong authentication mechanism, you will be happy to discover that Microsoft solved the  “0x80040001 OTP mystery case”. At first logon OTP works like a charm but later it stopped working. If we have a look at KB2973071 details, we will discover that the One-Time Password Certificate Enrollment (OTPCE) continued to use the expired certificate for authentication instead of the new one. As I was able to reproduce this with Windows 8.1 and Windows 7, maybe Microsoft provide an Hotfix for the “Legacy Windows 7 operating system”? Bingo : KB2939489.

 

If you want to know more about OTPCE, have a look at the protocol specifications available on MSDN.

 

So don’t forget to add these KB to your DirectAccess KB List.

 

Simple and Secure by design but Business compliant.

Le POC SCSM en prod, pas glop comme idée

Faire un POC en prod, voila une fausse bonne idée. On se dit qu’avec la version d’évaluation et ses 180 jours, on a tout le temps. Si le POC se transforme en production, faudra juste saisir le numéro de licence. Mais que se passe t’il si on dépasse la période d’évaluation avec SCSM?

Coté console SCSM, c’est pas très parlant.

0

 

Même la vue avancée ne nous avance pas plus “Unknow exception”.

1

 

La il faut parcourir le log “Operation Manager” pour découvrir la raison :

2

 

Cela semble clair. Petite recherche rapide chez Microsoft et on trouve l’information ci-dessous :

image

 

Conclusion, le POC en prod pour SCSM, est une véritable fausse bonne idée. Paie ta licence.

 

BenoîtS – Simple and Secure by Design but Business compliant

Multisite DirectAccess scenario in Powershell

Multisite is a very interesting scenario that was complicated to deploy with Windows 7 and Forefront UAG. If this challenging scenario does not scared you, have a look at this Edge Man post. Technically speaking, it was also possible to achieve a “similar” configuration with a Global Server Load Balancing configuration using F5 Big-IP for example. With Forefront UAG 2010, we had load-balancing capabilities with Network Load Balancing and Hardware Load Balancing but it was long to setup. Have a look at my high-availability blog post series if you want to compare to this blog post!

 

In Windows server 2012, multisite will become (this post is written with the Consumer Preview released in February 2012!) a much more easier deployment. What an interesting challenge to deploy it with PowerShell only. First, let’s see my configuration  :

MULTISITEVISIO 

We have two sites having their own Windows 2012 server. The challenge is to setup the DA1 server as a DirectAccess server, convert it to multisite and and add DA2 as a new Entry Point for my Multisite configuration. Now let’s switch to PowerShell!

 

Initial DirectAccess configuration

Let’s start with my first DirectAccess server setup. It’s name is DA1.DirectAccessLab.Lan we start with the role installation :

Add-WindowsFeature –Name DirectAccess-VPN –IncludeManagementTools

ADDFEATURE0

 

In order to be sure that everything is operational, let’s check it with a single PowerShell command : Install-RemoteAccess –Prerequisite

ADDFEATURE1

 

I will need an IPHTTPS certificate on DA1.DirectAccessLab.Lan. Public name record in my certificate will be DA1.DirectAccessLab.Lan. Let’s check that my certificate is present in the computer store with the following command :

$IPHTTPS = (Get-ChildItem Cert:\\LocalMachine\My | Where {$_.Subject -like "CN=DA1.DirectAccessLab.Fr*"})

Write-Host $IPHTTPS

IPHTTPS1

 

Now, it’s time to configure our first DirectAccess server with a single PowerShell command :

Install-RemoteAccess -DAInstallType FullInstall -ConnectToAddress DA1.DIRECTACCESSLAB.FR -ClientGPOName "DirectAccesslab.Lan\DirectAccess Clients GPO" -ServerGPOName "DirectAccesslab.Lan\DirectAccess Servers GPO"-InternalInterface LAN-InternetInterface INTERNET -NLSURL https://nls.directaccesslab.lan –Force –PassThru

INSTALLREMOTEACCESS0

 

Server-side configuration is almost terminated. We need to configure Certification Authority to be used for IPSEC tunnels authentication. It is mandatory for multisite deployments, just like having a real IPHTTPS certificate for each entry point. The following PowerShell command will configure this :

$CA = (Get-ChildItem Cert:\\LocalMachine\Root | Where {$_.Subject -like "CN=INET*"})

Write-Host $CA

Set-Daserver -IPSecRootCertificate $CA -PassThru

FINALIZESERVER1

 

Now let’s switch to the client-side configuration with the Following PowerShell commands :

Add-DAClient –SecurityGroupNameList “DirectAccesslab.Lan\DA Clients”

Remove-DAClient –SecurityGroupNameList “DirectAccesslab.Lan\Domain Computers”

Set-DAClient –OnlyRemoteComputers Disabled

Get-DAClient

CLIENTSIDE

 

Client-side configuration is almost complete, we just need to configure some settings for end-user experience for the Network Connectivity Assistant. PowerShell commands bellow will configure it with an HTTP type probe located on a domain controller : 

Set-DAClientExperienceConfiguration -PolicyStore "DIRECTACCESSLAB.LAN\DirectAccess Clients GPO" -UserInterface $True -SupportEmail HelpDesk@DirectAccesslab.fr -CorporateResources {HTTP:http:dc.directaccesslab.lan} -PreferLocalNamesAllowed $True -FriendlyName "DirectAccess Connection" -PassThru

SETDACLIENTEXPERIENCE

 

Our first DirectAccess server is now operational. Let’s check that with a Get-RemoteAccessHealth command :

GET-REMOTEACCESSHEALTH0

 

If you need more explanations on this part, have a look at my DirectAccess in Powershell blog post.  Now we are ready for Multisite!

 

 

Enabling Multisite

We have a standalone server that must be converted as the first entry point of a Multi-site DirectAccess configuration. Each DirectAccess Server (or High-available group of DirectAccess servers) is considered as a DirectAccess Entry point. Let’s convert to Multi-Site :

Enable-DAMultiSite -EntryPointName "EMEA Headquarter" -ComputerName DA1.DirectAccesslab.Lan -ManualEntryPointSelectionAllowed Enabled -Name "DirectAccesslab Multi-Site Infrastructure" -PassThru – Force

ENABLEMULTISITE

 

Multi-site configuration is enabled with a single entry point named “EMEA Headquarter”. The  Get-DAEntryPoint command will provide some details on this entry point  :

GETDAENTRYPOINT1

 

Not many information. This entry point is not GSLB enabled and include a single server. Let’s have a look at this entry point with the Get-DAServer PowerShell command :

Get-DAServer -EntryPoint "EMEA Headquarter"

GETDAENTRYPOINT2

 

We have the same information as in standalone configuration. From a server point of view, there is not much more difference. At this point our only requirements are :

  • Do not use self-signed certificate for IPHTTPS
  • Enable computer certificates

 

By now we have operational Multisite DirectAccess infrastructure And that's all for Multisite activation!

 

Adding a new entry point

Now come the most interesting part of this blog post : How to add a second entry point remotely. At the beginning of this step, my DA2.DirectAccessLab.Lan server is :

  • Joined to the DirectAccessLab.Lan Domain with a LAN named interface
  • Configured with a public interface named INTERNET with a public IP address
  • Having a public IPHTTPS certificate with DA2.DirectAccessLab.fr as subject name

 

Here are the only prerequisites that wont be performed remotely! Just like our first DirectAccess server, we need to install roles. Let’s use PowerShell remoting capabilities : Add-WindowsFeature –Name DirectAccess-VPN –IncludeManagementTools -ComputerName DA2.DirectAccesslab.Lan

ADDFEATURE2

 

And check it remotely : Install-RemoteAccess –Prerequisite –ComputerName DA2.DirectAccesslab.Lan

ADDFEATURE3

 

Before performing the magic trick, we must be sure that’s my IPHTTPS certificate for DA2.DirectAccessLab.Fr is present on my remote server :

$IPHTTPS = Invoke-Command –ComputerName DA2.DirectAccessLab.Lan –ScriptBlock {(Get-ChildItem Cert:\LocalMachine\My | Where {$_.Subject –Like “CN=DA2.DirectAccessLab.Fr*”})}

Write-Host $IPHTTPS

IPHTTPS2

 

And now, the magic trick. How to add a new DirectAccess Entry Point in an exiting Multi-site configuration remotely. As long as all prerequisites are already present, it’s a simple PowerShell Command :

Add-DAEntryPoint -Name "Backup Site" -ConnectToAddress DA2.DIRECTACCESSLAB.FR -InternalInterface LAN -InternetInterface INTERNET -ServerGPOName "DirectAccessLab.Lan\DirectAccess Backup Servers GPO" -RemoteAccessServer DA2.DirectAccessLab.Lan –PassThru -Force

ADDDAENTRYPOINT2

 

One thing we can notice is that we need an additional GPO to configure our new server. Each Entry point must have it’s own dedicated GPO. By now, our DirectAccess multi-site infrastructure have two entry point. The Get-DAMultiSite also report that users will be able to select the entry point they want to use. Windows 8 is able to connect to the first available entry point, but it’s not capable to really detect witch one is the closest from the client. Global Server Load Balancing feature was designed for that!

GETDAMULTISITE

 

If we take a look at our new entry point configuration with a Get-DAServer –EntryPoint “Backup Site” PowerShell command we can notice that there a much less information than for the first entry point. Information such as Internal Interface, InternetInterface or SSLCertificate are not provided. That’s must be a bug in the Consumer Preview version because these information are available if you run the same command on the remote server! That’s not a bug, it’s by design. Theses information will be available if you use the same Powershell CommandLet querying the server name and not the entry point.

GETDASERVERBACKUP

 

Let check everything

Everything seems to be operational on my first entry point. Some services are disabled but it’s normal (no 6to4 or Teredo support, no management server declared, no more OTP, …).

Get-RemoteAccessHealth –EntryPoint “EMEA Headquarter”

REMOTEACCESSHEALTH1

 

But on my second entry point we can notice one minor difference with ISATAP. My DA2.DirectAccessLab.Lan is not considered as an ISATAP router. It’s only an ISATAP client from my DA1.DirectAccessLab.Lan server.

Get-RemoteAccessHealth –EntryPoint “Backup Site”

REMOTEACCESSHEALTH2

 

In my opinion, it’s a bug on my lab. During DA2.DirectAccessLab.Lan configuration, my server already had an ISATAP interface properly configured. That’s must be why there is no ISATAP router on my server. This should not append in production environment (My lab need to be fixed on this point!)

 

And now from the client-side perspective

From a Windows 8 point of view, a DirectAccess Multi-site infrastructure is just two URL, one for each Entry point. So Multi-site only rely on IPHTTPS transition protocol. That’s why Teredo support is not active on my infrastructure (and because each entry point have only one IPv4 public address!). Windows 7 only support one URL for IPHTTPS interface, that’s why legacy operating systems cant use Multi-site.

Get-NetIPHTTPSConfiguration

GETNETIPHTTPSCONFIGURATION

 

It’s cool to have two entry point, but witch one is currently used? Simple : Get-NetIPHTTPSState

GETNETIPHTTPSSTATE

 

Back to server-side

Multi-site infrastructure is now operational. We need more than an active IPHTTPS interface to validate that point. We need to be able to track IPSEC sessions :

Get-RemoteAccessStatistics | Format-List

Get-RemoteAccessStatisticsSummary | Format-List

FINALSTATS

 

At last, the console view

Now we have an operational DirectAccess infrastructure with Multi-site capabilities. From the console point of view, here what’s it look like :

CONSOLEVIEW

 

Conclusion

I’m sure this deployment process can be fully automated (With PowerShell jobs). If you compare with my high-availability blog post series on Forefront UAG 2012, it will be now more easier to deploy DirectAccess in a high availability scenario and avoiding complex networking issues with Windows Server 2012. Infrastructure described in this post is not compatible with legacy clients (yes Windows 7 is a legacy client!) but there only few changes to allow these clients to connect to an entry point.

 

BenoîtS – Simple and Secure by Design but Windows 8 compliant!

MS14-025: Vulnerability in Group Policy Preferences could allow elevation of privilege

Les GPO de préférences sont une évolution intéressante des GPO introduite avec Windows 2008. Cependant, il y a une petite faiblesse que Microsoft a enfin corrigé. Les GPO de préférences peuvent être utilisées pour créer/ mettre à jour des comptes de services sur les systèmes gérés. Problème, il faut bien stocker le mot de passe dans la GPO. Avec un peu de recherche dans le répertoire SYSVOL d’une GPO utilisant la fonctionnalité incriminée, on trouve le fichier GROUPS.XML :

INITIALDISCLOSE

Déjà en 2009, l’équipe Group Policy reconnaissait que les mots de passe manipulés par les GPO de préférence étaient plus “masqués” que “chiffrés” et qu’il fallait bien évaluer le risque. A la vue de l’illustration ci-dessus, on pourrait penser que le mot de passe est bien chiffré. Vrai, il est chiffré en AES 256 et faux car la clé est disponible sur le MSDNGêné. Pour vous en convaincre, exécutez le script Get-SettingsWithCPassword.ps1 mis à disposition avec la KB2962486 (il faut toujours lire un KB jusqu’au bout).

DISCLOSE1

Dans l’illustration ci-dessus le script a identifié une GPO avec un mot de passe masqué. Il a juste été nécessaire d’accéder à mon répertoire SYSVOL ou a une sauvegarde des GPO. Pour rappel toute GPO est librement accessible en lecture par défaut. 

Installer la KB2962486 ne fait que bloquer l’usage de la fonctionnalité, cela ne fait pas le ménage à votre place (d’ou l’intérêt de lire une KB jusqu’au bout). Le problème, c’est qu’il y a des développeurs Powershell talentueux qui ont développé des scripts plus complet, voire même trop  :

FINALDISCLOSE

Dans l’exemple ci-dessus, le script va jusqu’à révéler le mot de passe associé au compte “SECOURS_ADM”. Pour rappel, cette information est en libre accès (sauf si on retire le droit “read” sur la GPO pour les utilisateurs).

Que fait la KB alors? Ben elle corrige l’interface d’édition des stratégies de groupe de préférence pour nous empêcher d’utiliser la fonctionnalité.

NEW

C’est bien mais pour cela, il faut s’assurer de patcher tous les systèmes sur lesquels un administrateur utilisera l’éditeur de stratégies de groupes pour manipuler son contenu. Cela implique donc de patcher :

  • Les contrôleurs de domaine (GPMC est nativement installé)
  • Les serveurs membres (GPMC est potentiellement installé)
  • Les stations de travail (GPMC peut être installé si les RSAT sont installés)

 

En conclusion :

  • Abandonnez immédiatement l’utilisation des GPO de préférence pour manipuler les comptes & mots de passe
  • Faites la chasse aux stratégies de groupe utilisant cette fonctionnalité
  • Installez le correctifs sur tous les systèmes ou GPMC est potentiellement installé (pour éviter qu’un Administrateur ne recréé une GPO de préférence avec un mot de passe)
  • Formez vos Admins pour ne plus utiliser cette fonctionnalité!

 

Enfin, si c’est pour gérer le mot de passe Administrateur local de vos stations de travail, la solution ADMPWD est faite pour cela.

 

BenoitS – Simple and Secure by Design but Business compliant

Un peu de process d'ADMPWD dans ce monde de cloud (5/5)

Je sais très bien qu'au fur et à mesure de cette série de billet, j'ai perdu beaucoup de lecteurs à chaque étape, je m'en excuse. Pour les survivants, c'est la meilleure partie, à savoir comment appeler notre Runbook Orchestrator d'interface avec SCSM depuis SCSM. Pour les autres un petit interlude est nécessaire avant de reprendre et de se dire que je suis loin d'atteindre son niveau pour écrire des tutos pareils!

clip_image002

Vous êtes convaincus maintenant? Doumé, allons-y.

Commençons par les bas-fonds. Si on doit manipuler des objets extérieurs à Service Manager, il faut les référencer dans la CMDB. Orchestrator étant un produit de la gamme System Center, il y a donc un connecteur dans Service Manager. Il faut juste s'assurer que celui-ci a bien importé nos Runbook. Par défaut, il réalise cette opération selon un cycle de 24 heures et importe les Runbook qui ont été "Check-in". Histoire de ne pas attendre, on va lui forcer la main avec un peu de Powershell et quelques Commandlet issus du module de Service Manager.

clip_image004

Cette fois, c'était les dernières commandes Powershell dans ce monde de cloud. Le lien entre Orchestrator et Service Manager se fait au travers de la classe d'objets "Runbook Automation Activity" de la CMDB. On peut constater que tous les Runbook développés sont visibles. Celui qui nous intéresse, c'est celui en charge de l'interface avec SCSM (la seconde version).

clip_image005

Pour ce Runbook, j'ai créé un objet de classe "Runbook Automation Activity" dans la CMDB.

clip_image006

La caractéristique la plus importante pour un "Runbook Automation Activity", c'est la case d'option "Is ready for Automation" qui doit obligatoirement être cochée si on veut voir le Runbook être exécuté.

clip_image008

Lors du processus d'import, SCSM a clairement identifié les paramètres en entrée et en sortie. Dans notre cas, un seul paramètre en entrée nommé "ActivityID". Il faut juste faire le mapping entre un attribut de la CMDB et ce que nous allons passer en paramètre d'entrée à notre Runbook.

clip_image010

J'ai retenu de passer l'identifiant unique (le SC Object GUID) de l'objet "Runbook Automation Activity" qui sera créé lors de l'exécution de la "Service Request".

clip_image012

L'interface avec le Runbook est maintenant terminée. Il faut juste un appelant. Cet appel sera réalisé au travers d'une "Service Request" que nous allons créer sous forme de template.

clip_image013

Un objet "Service Request" est un ensemble d'activité qui sera réalisée. Cela peut contenir des activités de type "Runbook automation Activity", "Review Activity" (validation) ou même "Manual activity"). L'interface principale ne nous apprend pas grand-chose.

clip_image015

Par contre dans l'onglet "Activity", on retrouve bien notre template d'objet "Runbook Automation Activity" qui sera créé lors de l'exécution de la "Service Request".

clip_image017

Dernier étage, les interfaces. Par soucis de simplification, nous ne parlerons que de "Request Offering".

clip_image018

Une "Request Offering" est l'objet que nous voyons dans le portail. Il fait référence à une "Service Request" mais aussi aux paramètres à passer et l'interface utilisateur à mettre en place.

clip_image020

Passons justement aux saisies demandées par l'utilisateur. Pour notre requête, nous avons juste besoin d'un compte ordinateur que nous allons proposer parmi une liste d'objets issus de la CMDB.

clip_image022

Là je vais perdre du monde (Doumé, …). Qu'est-ce que c'est que la classe Cloud Services Extended Virtual machine (Advanced)? OK, cela aurait été plus simple de choisir la classe "Windows computers" ou "Windows Computers (Advanced)" qui référence les objets ordinateurs du domaine importés dans la CMDB. Oui mais je voulais ne filtrer que les objets déployés avec le Cloud Services Process Pack. En plus, je voulais pouvoir identifier le propriétaire de ces machines virtuelles.

clip_image024

Pour mon filtre, j'ai retenu de n'afficher que les systèmes qui :

  • Ont été installé à l'aide du Cloud Services process Pack (donc provisionnés via une requête et associé à un contrat lui-même lié à un tenant pour pouvoir facturer)
  • Sont référencés comme actifs (donc non archivés dans la library de SCVMM)
  • Et dont l'utilisateur propriétaire correspond à celui qui exécute la requête dans le portail

C'est là qu'on découvre la magie du token. Merci à l'équipe produit SCSM pour ce billet qui a éclairé beaucoup de choses.

clip_image026

Le filtre est en place, ne reste plus qu'à définir les informations qui seront affichées à l'utilisateur dans le portail SCSM concernant cette classe d'objets, le nom de cet objet sera amplement suffisant.

clip_image028

On comprend l'intérêt des deux premières options, par contre, c'est un peu plus complexe pour les deux autres. C'est un peu plus subtil. Attention, c'est uniquement si vous voulez comprendre tous les mécanismes. Pour faire plus court, voilà les parties intéressantes:

  • Add user-selected objects to template object as related items: If this field is checked, the portal will create System.WorkItemRelatesToConfigItem or System.WorkItemRelatesToWorkItem relationship instances to link each of the objects selected by the user to the target instance specified in the drop-down immediately beneath the check box. The appropriate relationship is selected based on the type of object being displayed in the Query Results control. The instances available in the drop-down include the target template instance selected for the Request Offering and any of its embedded activities.
  • Add user-selected objects to template object as affected configuration items: This field is enabled only if the objects being displayed in the Query Results control inherit from Configuration Item (System.ConfigItem). If this field is checked, the portal will create System.WorkItemAboutConfigItem relationship instances to link each of the objects selected by the user to the target instance selected in the drop-down. The instances available in the drop-down include the target instance and any of its embedded activities.

clip_image030

Félicitations à ceux qui sont arrivés jusque-là. Je sais parfaitement que vous n'êtes pas si nombreux que cela. Maintenant que vous avez un exemple concret de ce qu'on peut faire avec Service Manager, il se peut que vous en vouliez encore plus, voire même tenter d'étendre à d'autres briques du système d'information. Si c'est le cas, c'est normal, vous commencez à penser industrialisation du SI. Vous vous rapprochez des nuages.

BenoîtS - Simple and Secure by design but business compliant

Un peu de process d'ADMPWD dans ce monde de cloud (4/5)

C'est l'heure des sujets qui piquent mais juste un peu. Mais pourquoi donc ne pas tout faire dans un seul et unique Runbook? C'est une bonne question. Ça m'a pris comme ça. Plus sérieusement, c'est un choix personnel de toujours séparer :

  • Les Runbook d'interfaces avec SCSM
  • Les Runbook au cœur de l'activité
  • Les Runbook "Sub-routines" que j'utilise

De cette manière on évite le Runbook monstrueux impossible à maintenir. Dans le cas présent, nous avons un Runbook d'interface avec SCSM. Il a pour objectif de :

  • Récupérer les informations en provenance de la CMDB
  • Appeler un ou plusieurs Runbook "Sub-Routines"
  • Appeler le Runbook au cœur de l'activité
  • D'appeler un Runbook d'interface avec SCSM permettant de remonter des informations dans la Service Request

Mon Runbook d'interface doit récupérer les paramètres dont a besoin le Runbook que l'on va appeler et retourner un statut suite à l'exécution. Plongeons dans ce Runbook qui finalement n'est pas si compliqué qu'il n'y parait :

clip_image002

Pour ceux qui avaient esquivé la série A la surface d'un service dans System Center Service Manager, petit rappel. D'un point de vue technique, Service Manager va créer un objet "Runbook Automation Activity" qui va référencer les paramètres à passer sous forme de liaisons. Nous allons passer l'identifiant unique de cet objet en paramètre du Runbook ("SC Object Guid" le bien nommé). Ce choix me permettra d'utiliser l'IDP SCSM d'Orchestrator pour illustrer quelques manipulations de base de la CMDB. Donc revenons à notre Runbook d'interface. Il commence par une activité qui référence notre seul et unique paramètre.

clip_image004

Pour les plus curieux, voilà un objet "Runbook Automation Activity" ainsi que l'identifiant unique de l'objet RBA qui est passé en paramètre. Le Fameux "SC Object Guid" que nous allons revoir souvent.

clip_image006

Justement cet identifiant, nous allons l'utiliser immédiatement pour identifier notre paramètre, à savoir la machine virtuelle pour laquelle nous allons demander de révéler le mot de passe Administrateur. On va exploiter le potentiel de la CMDB. Au lieu de simplement coder le nom de la VM "en dur" dans l'objet "Runbook Automation Activity", on exploite les relations entre les objets et c'est plus classe. Dans le cas présent, lors de la création de l'objet "Runbook Automation Activity", une relation a été créée avec le paramètre qui n'est autre qu'un objet de la classe "Virtual Machine".

clip_image008

A noter que je suis parti du principe qu'il n'y avait qu'une seule relation, donc un seul paramètre. Si on autorisait la sélection multiple dans la "Request Offering" de SCSM, il faudrait en tenir compte pour traiter chaque cas. Dans le cas qui nous occupe, j'exploite un attribut de la relation pour déterminer qu'il n'y a qu'un seul objet en sortie de cette activité. Si ce n'est pas le cas, le Runbook sort en erreur.

A ce stade, nous avons la référence d'un objet de la classe "Virtual Machine", allons chercher des informations sur cet objet dans la CMDB avec l'activité "Get Object". <Mode Astuce SCSM ON> Nous faisons référence à un paramètre en relation avec une autre classe. Donc l'identifiant unique que nous cherchons (le "SC Object GUID") est référencé dans l'attribut Related Objet GUID" <Mode Astuce SCSM Off>.

clip_image010

Nous avons tous les paramètres ou presque. Au final, on doit dévoiler le mot de passe administrateur de la machine virtuelle que nous venons d'identifier. Encore faut-il savoir à qui envoyer un mail. Facile me direz-vous, dans la "Service Request", on a nécessairement cette information dans l'attribut "Created by user". C'est vrai, nous y reviendrons. Pour l'instant, nous allons appeler un Runbook qui va se charger pour nous de retrouver cette information à l'aide de l'identifiant de l'objet "Runbook Automation Activity" passé en paramètre.

clip_image012

Si on arrive ici, c'est qu'on a toutes les informations pour appeler le Runbook que nous avons développé dans le billet précédent. En retour, le Runbook nous retournera une variable indiquant le bon déroulement de l'exécution (OK, NOK).

clip_image014

Cette variable est importante car à ce stade de notre Runbook nous devons prendre une décision. Si le service a été correctement rendu, alors nous pouvons poursuivre dans une branche (OK). Si ce n'est pas le cas, c'est l'autre branche (NOK). Dans les deux cas, on appelle un Runbook qui va se charger de remonter un statut dans la "Service Request" avant de terminer le Runbook d'interface avec SCSM.

clip_image016

Maintenant que les grandes lignes sont tracées, penchons-nous sur les petits détails pour comprendre deux tours de magie utilisés. Commençons par comprendre comment on retrouve l'utilisateur initiateur de la "Service Request" dans SCSM. La méthode la plus basique aurait été de passer l'information en paramètre (d’où la V1 de la "Request Offering"). Or, cette information est présente dans la CMDB, encore faut-il faire son chemin pour y accéder. J'ai volontairement créé un Runbook dédié pour cela (Runbook "Sub-routine"). Ici encore, c'est une histoire de relation mais avec un objet de la classe "Service Request", lequel a lui-même une relation avec un objet de la classe "User" que nous allons identifier pour enfin en extraire son adresse de messagerie.

clip_image018

Je ne détaille plus le pourquoi mais nous repartons de notre identifiant unique de l'objet "Runbook Automation Activity", c'est notre point d'entrée dans la CMDB.

clip_image020

Cette fois, la relation concerne un objet de la classe "Service Request". Sauf que sur ma maquette qui a déjà beaucoup vécu, j'ai intégré quelques personnalisations de CMDB. J'utilise donc mon extension de la classe "Service Request" que j'ai nommé "My Service Request".

clip_image022

On remarquera que j'ai volontairement fait l'impasse sur la gestion d'erreur. Il y a forcément un objet de la classe "My Service Request" que nous allons identifier à l'aide de son identifiant "SC Object Guid" référencé dans l'attribut" Related Object Guid". Ça commence à rentrer maintenant?

clip_image024

Etage "Service Request", direction "Created user". Ici encore, c'est une relation avec un objet de la classe "Active Directory User". Jusqu'ici, rien de bien compliqué.

clip_image026

C'est en sortie de cette activité que cela se complique (Ce n’est pas la faute à Powershell). En retour, nous n'avons pas un objet en relation mais deux. On s'en rend compte lors qu'on regarde le détail de l'exécution de l'activité. Problème, comment identifier l'un ou l'autre.

clip_image028

C'est une bonne piste, maintenant, faut faire le tri. Pour cela, il a été nécessaire d'utiliser le débogueur pour clairement identifier les différents "Related Object Guid" en question. Avec un peu de persévérance, on finit par comprendre la différence :

clip_image030

Nous avons deux relations :

  • La première pour l'utilisateur qui a créé la requête
  • La seconde pour l'utilisateur à qui on a affecté la requête (notion d'analyste dans SCSM)

Ce qui nous intéresse, c'est le premier. Pour filtrer uniquement celui-ci, nous allons jouer sur les propriétés "Include" et Exclude" de la relation. Même les liaisons entre les activités ont des propriétés que l'on peut configurer (sic). J'ai donc indiqué que nous ne retenons les objets que si l'activité "Get-Relation" s'est déroulée avec succès ou que celle-ci nous désigne bien un attribut dont la valeur est "Created By user".

clip_image032

Au contraire, je veux exclure, tout objet pour lequel la valeur de ce même attribut n'est pas celle attendue.

clip_image034

La gestion des propriétés "include" et "exclude" est importante dans Orchestrator car c'est grâce à elles que l'on va introduire la gestion d'erreur au sein de nos Runbooks. Il faut donc s'assurer de bien les configurer. Dès lors qu'on est assuré d'avoir la référence au bon objet, allons rechercher ses caractéristiques avec une activité "Get-Object".

clip_image036

Nous avons maintenant toutes les informations pour retourner l'adresse mail de l'utilisateur créateur de la "Service Request" en résultat de Runbook. On notera que si cette information est dans la CMDB, c'est que le connecteur Active Directory en a importé l'objet et la majeure partie de ses propriétés.

Second tour de magie, utilisé : La mise à jour de la "Service Request" en fonction du résultat du Runbook. C'est ce qui permettra d'informer l'utilisateur que sa requête a été traitée avec succès. Le cas échéant d'indiquer l'erreur rencontrée. Vous reprendrez bien un petit Runbook pour la route? Sans Powershell ajouté!

clip_image038

Notre Runbook attend deux paramètres en entrée, à savoir l'identifiant du Runbook Automation Activity qui sera notre point de départ pour remonter vers la "Service Request" ainsi que l'information que nous allons inscrire comme résultat de la "Service Request".

clip_image040

On ne change pas une méthode qui gagne en recherchant l'objet "Service Request" en relation avec notre objet "Runbook Automation Activity".

clip_image042

Je sais qu'il y a nécessairement qu'une seule relation, donc pas la peine de tester, allons à l'essentiel en mettant à jour objet "Service Request" dans la CMDB. La mécanique est maintenant rodée, on va juste passer un peu de temps sur les attributs que l'on met à jour.

clip_image044

Pour le second, rien de bien sorcier, c'est du texte qui est issu d'un retour du Runbook qui a révélé le mot de passe Administrateur de notre serveur. Pour le premier par contre, c'est un peu plus subtile. Dans la "Service Request", cet attribut n'accepte que des valeurs définies dans une liste SCSM (encore un objet dans la CMDB) nommée "Service Request Implementation results".

clip_image046

C'est ce contenu qu'Orchestrator nous propose. J'ai donc deux Runbooks. Le premier pour indiquer que tout s'est déroulé avec succès et le second pour indiquer qu'une erreur est survenu lors de l'exécution. Au passage deux piqures de rappel sur le sujet pour éviter les déconvenues suite à une installation malencontreuse d'Orchestrator sur un système autre qu’US :

Vous lisez encore? Bien, reste plus maintenant qu'à mettre tout cela en musique dans Service Manager. Courage, plus qu'un seul billet à supporter.

BenoitS - Simple and Secure by Design but business compliant

Un peu de process d'ADMPWD dans ce monde de cloud (1/5)

ADMPWD, répond à une problématique bien connue. Maintenant qu'on a l'essentiel, passons à l'étape suivante : construire des processus autour. Historiquement, on ne voulait jamais donner le compte administrateur local de nos stations de travail/serveur car, il risquait d'être identique sur un grand nombre de serveurs. Avec ADMPWD, on a résolu ce problème. Voyons comment faire en sorte de pouvoir communiquer le mot de passe Administrateur local d'un système en s'assurant que cette information ne soit valable pour une durée limitée dans le temps (vous avez dit magie?).

Dans l'idée, c'est de faire appel à ADMPWD pour lui imposer de changer de mot de passe plus rapidement que ce qu'il a été prévu. De cette manière, même si on communique le mot de passe que nous avons extrait de l'annuaire Active Directory, sa durée de vie sera limitée. Dans le cadre de ce billet, j'ai volontairement retenu une durée de 24 heures. Le composant ADMPWD installé sur mes serveurs réévalue le besoin de changer le mot de passe du compte administrateur local selon les conditions suivantes :

  • Cycliquement toutes les 90/120 minutes
  • manuellement en exécutant Invoke-GPUPDATE / GPUPDATE.EXE
  • Au démarrage du système d'exploitation

Donc en configurant une date d'expiration à 24 heures , nous sommes presque assurés qu'au bout de 24heures + 120 minutes le processus de rafraichissement des stratégie de groupe aura eu lieu et ADMPWD réalisé le changement de mot de passe. Et comme la sécurité n'est rien sans de bons processus pour l'encadrer, je n’ai pas résisté à la tentation de développer une “Request Offering” SCSM pour : 

  • Révéler le mot de passe administrateur local d'un serveur
  • En s'assurant que ce mot de passe ne soit utilisable que pendant une période de 24 heures
  • Que le mot de passe soit communiqué au demandeur par mail

Qui dit SCSM, dit obligatoirement Orchestrator et Powershell, le tiercé gagnant. Les bases sont posées voyons comment le mettre en musique. Pour simplifier l'approche et la lecture, c'est non pas un billet mais plusieurs qui seront nécessaires. Commençons par les fondations avec le Runbook chargé des opérations techniques :

Pour ceux qui ont suivi la série "A la surface d'un service dans System Center Service Manager", on est dans la même approche, peut-être un peu plus simple, mais ça c'est by designTire la langue. En plus, c’est toujours Secure”".

BenoîtS - Simple and Secure by Design but Business compliant

Un peu de process d'ADMPWD dans ce monde de cloud (3/5)

On a plongé tête baissée dans Orchestrator. Pourtant, avant de de se perdre dans les méandres d’Orchestrator et SCSM, ce serait bien de comprendre à quoi cela va ressembler à la fin. Au passage, cela permettra d'introduire quelques sujets de fonds. Donc billet un peu plus léger pour cette fois.

Pour cette série de billets, j'ai fait bien plus simple que pour la série "A la surface d'un service dans System Center Service Manager", pas de "Service Offering", donc toutes les Request Offering sont directement accessibles depuis la vue "List view" dans le portail SCSM (j'ai dit léger non?). J'ai nommé ma Request Offering "Disclose local Administrator Password (V2)". Le développement de mon service s'est fait par itération successive. On n'arrive que très rarement au résultat escompté du premier coup.

clip_image002

C'est une étape obligatoire dans le portail SCSM. L'idée générale est de pouvoir communiquer autour de la Request Offering avec les différents éléments qui peuvent s'y rapporter (articles de la bases de connaissance associés, autres “Request Offering” proposés dans le même Service Offering, …). Pour faire simple, la WebPart est tel que, on n'y changera rien.

clip_image004

Nous arrivons au cœur de la Request Offering. Pour quel serveur va-t-on demander de dévoiler le mot de passe administrateur local? On verra plus tard que cette liste de serveurs n'est pas construite par hasard. Ne sont affichés que les serveurs que j'ai commandé dans mon Cloud Services Process pack. Dans la construction de ma "Request Offering", j'ai retenu qu'on ne puisse sélectionner qu'un seul serveur. D'un point de vue technique il est bien entendu possible d'autoriser une sélection multiple, c'est juste coté Orchestrator que cela va se compliquer (billet simple).

clip_image006

Par contre, on ne voit pas encore comment cette liste a été construite. Toutes ces machines virtuelles sont-elles les miennes? Allons voir les propriétés de l'objet sélectionné. Ce que nous allons voir est la vue consolidées des informations contenues dans la CMDB de Service Manager. Déjà premier constat, l'objet présente des informations en provenance de plusieurs classes d'objets, dont "VirtualMachines". L'objet sélectionné est bien un objet de la classe "virtualmachine" mais aussi un objet de la classe "Cloud Services Virtual Machine". Cette classe d'objets a été introduite par le Cloud Services Process Pack pour assurer la mise à disposition et gestion de machines virtuelles. L'intérêt est de pouvoir identifier le propriétaire de la machine virtuelle.

clip_image008

Ce qu'on peut aussi remarquer ici, ce sont les éléments de configuration issus de la CMDB qui sont en relation avec mon objet sélectionné.

clip_image010

Le premier désigne le contrat de souscription de ressources auquel est associé la machine virtuelle (Il faut bien être capable de tracer/facturer l'utilisation des ressources). C'est un élément apporté par le Cloud Services Process Pack.

clip_image012

Mais aussi le propriétaire associé à la ressource. C'est cette information que nous utiliserons lors de l'intégration avec SCSM.

clip_image014

En passant par la relation, je retrouve le propriétaire associé à l'objet. Pour finir, une étape obligatoire du portail SCSM pour rappeler les choix de l'utilisateur avant de commencer le traitement de la "Request Offering".

clip_image016

Maintenant, plus moyen de revenir en arrière, le traitement a commencé. Dans SCSM les choses sérieuses commencent. La "Request Offering" que nous avons appelé fait référence à une "Service Request" qui elle-même référence une ou plusieurs activités à traiter. Dans notre cas, il n'y en a qu'une seule et c'est même une activité de type "Runbook Automation Activity".

clip_image018

Le portail SCSM permet de suivre l'avancement de notre "Request Offering". Dans l'illustration ci-dessous, notre requête est indiquée comme étant en cours de traitement, et qu'elle ne fait appel qu'à une seule activité, plus précisément une "Runbook Automation Activity". Cette dernière indique un état "In Progress". Ce sont donc deux objets qui ont un statut bien distinct (Une "Service Request" peut faire appel à plusieurs "Activity").

clip_image020

Quelques temps plus tard, le "Runbook Automation Activity" indique un état "Completed", tout comme la "Request Offering". C'est un sujet que nous allons revoir plus tard.

clip_image022

Passons de l'autre côté pour voir ce que nous ne voyons pas depuis le portail. Lorsqu'on consulte le détail de la "Service Request" générée, on peut constater la présence de notes additionnelles indiquant la date de fin de validité du mot de passe que nous venons de relever. On verra dans le billet suivant que c'est le travail d'un de mes Runbook Orchestrator de remonter cette information au niveau de la "Service Request" ainsi que le bon déroulement ou non des activités réalisées.

clip_image024

Ma maquette étant quelque peu limitées en terme de capacités (32Go de mémoire, on fait plus rien avec ça mon bon monsieur), pas possible de présenter le mail reçu dans un beau client de messagerie. On se contentera de sa version brute de fonderie dans la file d'attente SMTP. Pour faire cela bien, il aurait été nécessaire de mettre en place le connecteur Exchange de SCSM 2012.

clip_image026

Pour les sceptiques, il reste possible d'aller voir ce qui se passe sous la moquette et plus précisément dans l'annuaire Active Directory. Avec le CommandLet Get-ADObject du module Active Directory on est capable de récupérer toutes les informations dont les deux attributs qui nous intéressent :

  • Ms-Mcs-AdmPwd
  • Ms-Mcs-AdmPwdExpirationTime

clip_image028

C'est ce dernier attribut qui va nous intéresser. Comme toutes les dates, elles sont exprimées au format UTC. Il aurait été possible de réaliser cette conversion directement, sans l'étape intermédiaire mais cela rend le code un peu plus complexe (Powershell oui mais simple, j'avais promis).

Jusque-là je ne dois avoir perdu personne. Pour le prochain billet, ça va se corser puisqu'on va aborder le sujet de l'intégration SCSM avec Orchestrator (sic). Courage, le pire est à venir.

BenoîtS - Simple and Secure by Design but Business compliant.

Un peu de process d'ADMPWD dans ce monde de cloud (2/5)

Après le teaser, rentrons directement dans le vif du sujet avec le Runbook au cœur de tout cela. Une activité de début et trois activités de fin pour traiter :

  • Le compte ordinateur qui n'existe pas
  • Le succès de l'opération
  • Une erreur dans le traitement

Minimaliste certes mais avec une gestion d'erreur quand même.

clip_image002

Notre Runbook a un début. Cette activité permet de référencer les paramètres qui sont attendus pour l'exécution. Dans notre cas, nous avons besoin :

  • De l'ordinateur pour lequel on désire révéler le mot de passe
  • De l'adresse de messagerie à laquelle on doit envoyer le mot de passe

clip_image004

Pour pouvoir accéder au mot de passe, nous allons utiliser une activité de l'Integration Pack Active Directory et rechercher un objet bien particulier et retourner toutes les informations le concernant (d’où le "Return Distinguished Names Only" configuré à "False").

clip_image006

Pour cela encore faut-ll préciser quel objet désire t'on rechercher. Dans notre cas, le filtrage s'effectue sur le "Common Name" en utilisant le paramètre passé en paramètre notre Runbook.

clip_image008

C'est maintenant que ça commence à piquer. Une petite pointe de Powershell. Le problème, c'est que l'éditeur proposé par l'activité Powershell n'est pas des plus ergonomiques. <Mode capitaine Haddock activé>. Donc à la demande générale quelques lignes de Powershell dans ce monde de clouds. Premier truc, je n’ai volontairement pas utilisé les commandlet Powershell livrées avec le composant ADMPWD. Pourquoi? Pour rester indépendant. En plus, on peut simplement exploiter le CommandLet ActiveDirectory et arriver au même résultat. Enfin, on s'évite de gérer le problème de Framework Dot.Net 4.0 dans Orchestrator avec le module ADMPWD. <Mode capitaine Haddock désactivé>.

clip_image010

Le script se décompose en deux parties. La première réalise un invoke-command pour récupérer le contenu de l'attribut "MS-mcs-AdmPwd". C'est lui qui contient le mot de passe. Pour ceux qui ont lu le billet "ADMPWD une solution de gestion du mot de passe administrateur local de vos systèmes Windows", cet attribut ne m'est accessible que par ce que le compte de service utilisé par Orchestrator est membre des groupes de sécurité nécessaires.

clip_image012

En retour d'exécution, on obtient le mot de passe demandé. C'est une information que nous allons passer à l'activité suivante du Runbook. La seconde partie du script va elle configurer une nouvelle date d'expiration dans l'attribut "ms-mcs-AdmPwdExpirationTime". Cette information sera retournée comme second paramètre de l'activité Powershell. Pour rappel, dans mon cas, j'ai ajouté 24 heures à la date courante.

clip_image014

Si on veut récupérer deux paramètres, encore faut-il les avoir préalablement déclarés dans l'activité Powershell.

clip_image016

Le job est fait, reste plus qu'à communiquer l'information. Pour des raisons de simplicité, j'ai utilisé l'activité "Send Mail" disponible nativement qui va générer le message correctement formaté à destination de l'adresse mail indiquée en paramètre de notre Runbook.

clip_image018

Reste plus qu'à référencer le serveur de messagerie à utiliser ainsi que l'adresse mail à utiliser pour envoyer le message. Ma maquette étant assez limitée, j'ai volontairement installé le moteur SMTP de IIS sur mon serveur Orchestrator.

clip_image020

Job is done. A ce stade, si tout s'est bien déroulé, on arrive à l'activité "success", laquelle retourne "OK" comme valeur de retour du Runbook. Voilà pour la partie simple.

A partir de maintenant, on s'attaque au gros du sujet. Jusque-là je ne pense avoir perdu personne. Ce n'était que quelques lignes de Powershell et une pointe d'Orchestrator dans ce monde de cloud. Il restera un peu de Powershell dans la suite des billets mais juste quelques commandes isolées. Maintenant, direction les nuages avec SCSM et Orchestrator.

 

BenoîtS - Simple and Secure by Design but Business compliant

Disconnect DirectAccess in Windows 8.x while on LAN

A small blog post to relay an interesing post from Richard Hicks. Microsoft just published an update applicable to Windows 8.x DirectAccess clients to solve an interesting problem When the DirectAccess clients are not able to reach the Network Location server While on LAN. As they are not able to reach NLS, they try to enable DirectAccess while on LAN. Users can wait for a while.

before

After you apply the update, your users will be able to disconnect from DirectAccess in such situation.

After

 

Thank you Richard for pointing that out.

 

BenoîtS – Simple and Secure by design but business compliant.

Windows to go, pas que pour les Geek

Etre Geek, c'est aussi identifier des solutions innovantes qui peuvent apporter un véritable plus dans les projets. Dans le cas présent, les projets de migration de poste de travail. Sur ce point, grand merci à Stanislas Quastana pour la solution SPYRUS WorkSafe Pro :

clip_image001

Cette solution ne doit pas être considérée comme un produit pout "Geek" mais comme un véritable Solution Accelerator pour les projets de migration vers Windows 8. Tout projet de migration vers Windows 8 va impérativement devoir adresser des sujets autour :

  • De la compatibilité applicative
  • Du packaging des applications
  • L'introduction de la virtualisation applicative
  • Introduire de nouvelles fonctionnalités sécurité (Bitlocker, DirectAccess, Smartcard, …)

Par expérience, quel que soit la qualité des intervenants impliqués dans un projet de migration de poste de travail, on tombe invariablement sur la capacité à mettre à disposition les packages applicatifs validés pour pouvoir délivrer le nouveau poste de travail vers Windows 8.1. C'est le principal frein aux projets de migration. Au final, le projet prend du retard, avec risque de ne pas être en capacité de répondre aux exigences business à la source du projet (on ne fait pas de projet pour le plaisir de faire un projet). Un business case a été monté, il est censé avoir mis en évidence des quickwins et donc des réductions de couts.

La solution de SPYRUS (lien) intègre à la fois :

  • Une clé USB prévue pour l'usage Windows To go
  • Assez de capacité pour héberger applications et données utilisateur si nécessaire
  • Une carte à puce intégrée (plus besoin de lecteur)

De mon point de vue, inscrire cette solution dans le cadre d'un projet de migration vers Windows 8.1 doit être pris au sérieux. Le plus grand frein à l'adoption d'un nouveau système d'exploitation dans l'entreprise c'est la disponibilité des applications sur la nouvelle plateforme. Migrer un utilisateur sans ses applications n'a pas de sens. Tout projet de migration de poste de travail doit être en mesure de réduire la phase de coexistence au plus court pour éviter :

  • La double gestion (et donc les double couts)
  • Un allongement de la durée du projet (et donc de son cout)
  • Proposer un retour arrière pour les erreurs de migration (mais pas trop sinon on prend du retard et ça coute cher)
  • La solution du double poste physique qui est un gouffre économique

C'est là que Windows to Go prend tout son intérêt. L'utilisateur en demandant toujours plus, il est prêt à adopter un nouveau système d'exploitation (en changent de PC, cela va de soi) si toutes ses applications sont disponibles.

Dans le cadre d’un projet de migration de postes, la solution de SPYRUS une solution intéressante pour assurer la coexistence entre le legacy et le futur poste de travail. Si toutes les applications ne sont pas encore packagées sous Windows 8, on peut au moins proposer deux postes de travail à l’utilisateur grâce à Windows To go. Certes cela a un cout mais on est capable de rapidement embarquer des utilisateurs et donc accélérer la migration. En plus, cela permet de dissocier les problématiques :

  • On est capable de déployer le nouveau poste de travail rapidement
  • On est capable de maintenir l'accès au poste "legacy" pour certaines applications (un reboot et on retrouve l'ancien poste)
  • C'est l'utilisateur qui peut décider de sa date de migration
  • On peut proposer de l'authentification forte en avance de phase sur les postes "legacy"
  • La migration des données locales est facilité (plus de transfert réseau, c'est que du local)

Lorsqu'on inscrit cette solution dans un projet poste de travail, on peut proposer quelques scénarios intéressants dont l'onboarding rapide :

  1. La mise à disposition de la clé Windows To Go par courrier, y compris à domicile
  2. L'utilisateur connecte la clé Windows To Go à son poste de travail Legacy et démarre Windows 8
  3. L'utilisateur contacte le support pour réaliser l'Offline domain Join en DirectAccess (ben quoi, il fallait bien le caser celui-là)
  4. L'utilisateur réaliser l'enrôlement de sa carte à puce
  5. Installation des applications MSI/APP-V via SCCM même à domicile (Viva DirectAccess)

De là, l'utilisateur a un poste de travail opérationnel sous Windows 8.1 tout en ayant la possibilité de revenir sur son poste "Legacy" en un simple reboot. La majorité des postes de travail étant aujourd'hui des portables, on facilite grandement la migration de ces populations qui ne sont pas souvent dans les locaux de l'entreprise.

Dès lors que toutes les applications ont été validées, l'utilisateur peut passer au bureau pour prendre livraison de son nouveau poste de travail. Si on a bien pensé la gestion de la localisation des données utilisateurs, la migration de celles-ci consistera à réaliser un simple USMT de Windows 8.1 vers Windows 8.1. A la première ouverture de session l'utilisateur récupère donc toutes ses données ainsi que ses applications (SCCM 2012 est user-centric), il n'a plus besoin de la clé SPYRUS, il est possible de recycler celle-ci pour l'onboarding d'autres utilisateurs.

Au final, Windows To Go simplifie grandement la migration vers Windows 8.1, tout en proposant à l'utilisateur d'être early-adopter en toute sécurité. Il existe bien d'autres scénarios d'usages :

  • La mise à disposition d'un poste de travail temporaire en utilisant le portable/tablette personnelle de l'utilisateur
  • Du BYOD maîtrisé (matériel de l'utilisateur mais OS/Applications de l'entreprise)
  • Les partenaires intervenant au sein d'une entreprise pour lesquels on devait fournir un PC
  • Les partenaires intervenant en "remote" pour lesquels on devait fournir PC,accès VPN et token pour authentification forte

Windows to go doit dont être vu comme un véritable accélérateur des projets de déploiement de Windows 8.1, en particulier lorsque la migration doit être réalisé.

Quelques articles/bases à relire sur le sujet :

Quelques sessions Techdays pour réfléchir sur le sujet :

Histoire de montrer que c'est si simple, voilà la commande qui a été utilisée pour provisionner ma clé USB

clip_image002

Et l'utilisation du fichier généré sur mon futur poste de travail.

clip_image003

Et au premier logon sur le domaine, j'étais déjà en DirectAccess. La classe non? Geek oui mais Business focus cette foisClignement d'œil.

 

Au passage, grand merci à Stanislas QUASTANA pour m’avoir fait découvrir la solution et la photo.

 

BenoîtS - Simple and Secure by Design but Business compliant

Why Update 1 of Windows 8.1/Windows 2012 R2 is important for DirectAccess?

For sure recently released Update 1 of the Windows 8.1 / Windows Server 2012 R2 provide a lot of enhancements but it’s also a cumulative update including security and non-security related updates.

Recently, Microsoft also updated KB2883952 : Recommended hotfixes and updates for Windows Server 2012 DirectAccess and Windows Server 2012 R2 DirectAccess to include Windows 8.1 and Windows Server 2012 R2 related updates. Let’s have a look why it’s interesting to deploy update 1 on these systems:

 

The first one seems to be an old friend of mine. If you have a look in previously published blog post, you will find this article: DirectAccess and Windows Remote Assistance. We had an update to fix the Windows Remote Assistance to work with DirectAccess infrastructure based on Windows Server 2012 or above but nothing for Windows 8 until now. If you needed a reason to deploy update 1 on Windows 8.1, you got it. Now this point is fixed, I will be able to publish an interesting scenario for remote assistance of DirectAccess clients in the DirectAccess challenge series. Stay tuned.

 

BenoîtS – Simple and Secure by Design but business compliant.

SCSM 2012 support des solution accelerators

Avec SCSM 2012, Microsoft avait mis à disposition un certain nombre de solution accelerators pour répondre à des scénarios d’usage bien particuliers de SCSM :

 

Cependant, le temps passe vite, très vite. Avec l’arrivée de la génération R2 de la gamme System Center et celle de Windows Azure Pack, beaucoup d’entre nous se sont posés des question sur la roadmap et le support de ces solutions. L’équipe produit SCSM vient de donner la réponse sur son blog.

image

 

En même temps, ce n’est pas une surprise pour le CSSP. Avec l’arrivée de Windows Azure Pack, on voyait mal comment les deux solutions pouvaient cohabiter. De plus, si on compare les deux solutions, le services de machines virtuelles disponible dans le Windows Azure Pack est bien plus riche que son ancêtre.

 

BenoîtS – Simple and Secure by Design but business compliant

Service Manager 2012 et SharePoint 2010, peut mieux faire

Pour ceux qui ont mis en œuvre Service Manager 2012, on est toujours surpris de devoir installer SharePoint 2010 sur une plateforme Windows 2008 R2. Avec SCSM 2012 R2, la situation n’avait pas évoluée. Récemment le Service Pack 2 de SharePoint 2012 autorisait l’installation sur les plateformes Windows 2012/ 2012 R2. Heureusement, la situation vient de changer.

image

 

Prochaine étape SharePoint 2013?

 

BenoîtS – Simple and Secure by Design but business compliant

WorkFolders pour Windows 7

Workfolders est une feature propre à Windows 8/8.1. Elle apportait un plus pour les scénarios de BYOD. l’équipe stockage chez Microsoft vient d’annoncer la disponibilité de WorkFolders pour Windows 7.

 

Prenez le temps de lire le billet avant de vous lancer dans l’installation car il y a quand mêmes quelques subtilités avec la version disponible sous Windows 8 :

  • Uniquement les systèmes Windows 7 SP1 connectés au domaine
  • L’absence de l’EAS Engine permettant de gérer le verrouillage et d’autres paramètres
  • Quelques subtilités lors de la création du SyncShare

 

Voila une cool feature que je vais pouvoir proposer avec DirectAccess Sourire.

 

BenoîtS – Simple and Secure by Design bu Business compliant

More Posts Next page »