Cookies verzekeren het goed functionneren van onze website. Door gebruik te maken van deze site, gaat u akkoord met ons gebruik van cookies. Meer informatie OK
U bent hier: Home / Blog

Blog

Et un, et deux, et 3.0 !

3.0

“Digital is the New Black” ! Digital is “The New Normal

Peter Hinssen affirmait en 2010 que nous étions à mi-chemin de la révolution digitale (numérique) ! En juin 2016, la maison d’édition Van Haren publie CIO 3.0 – Het verschil maken bij digitale transformatie :

« […] chaque organisation doit investir dans la technologie digitale afin de créer de la valeur ajoutée pour ses clients [entreprises, particuliers ou citoyens] et d’améliorer son agilité opérationnelle pour de meilleurs services. »

Ce 10 août, TechTarget.com s’intéresse à l’« Ultimatum Digital » de Progress Software :

« Les anciennes règles ne sont plus valables. Les technologies numériques ont radicalement transformé le paysage Business, mais de nombreuses organisations ont complètement ignoré cette réalité. […] En omettant de se préparer pour les nouvelles technologies, dispositifs et systèmes, les organisations ont menacé leur propre survie.
Maintenant, il est temps de faire face à cette nouvelle dynamique et commencer à planifier un avenir technique plus intégré. »

Le Digital fait manifestement l’objet de nombreuses études et réflexions. Selon l’angle d’analyse, les uns parlent Entreprise, les autres ICT,  CIO ou SMAC, et le chemin parcouru est souvent étiqueté 1.0, 2.0 ou 3.0. Beaucoup insistent également, à raison, sur la nécessité d’une participation commune du Business et de l’IT à la stratégie de l’organisation. J’ai essayé d’y voir plus clair…

Entreprise

Le terme Entreprise 2.0 a été inventé en mars 2006 par le professeur McAfee (Harvard Business School). L’Entreprise 2.0 fait le choix stratégique d’intégrer les technologies Web 2.0 (logiciels sociaux et collaboratifs) dans son intranet, son extranet et ses processus Métier. En mai 2010, McAfee modérait un panel sur l’Entreprise 3.0 : l’intérêt se portait alors sur la facilitation de l’accès aux données et à leur exploitation, et sur le cloud.
Le trajet digital de l’Entreprise – 1.0, 2.0 ou 3.0 - est généralement évalué sur 5 axes (ou 6 axes) :

1. La technologie :

  • du client/server
  • en passant par le Web
  • vers la mobilité, le cloud, l’accès universel (multiplateforme, fixe et mobile) et le centrage sur l’utilisateur et la personnalisation

2. Les processus :

  • d’abord limités à un secteur d’activité
  • ensuite gérés dans un cadre bien défini
  • enfin, agiles et optimisés

3.    L’intelligence : de la spreadsheet en passant par le tableau de bord vers l’analyse prédictive

4.    Le leadership

  • de l’organisation hiérarchique
  • vers la matricielle
  • puis la « wirearchical » : « un flux dynamique à double sens du pouvoir et de l'autorité fondé sur la connaissance, la confiance, la crédibilité et l'accent sur les résultats, activé par des gens interconnectés et la technologie »

5.    Les interactions entre personnes : du mail en passant par les réseaux sociaux vers l’auto-organisation et l’innovation distribuée

TIC et CIO

Je recommande aux amateurs du domaine la lecture de CIO 3.0 – Het verschil maken bij digitale transformatie paru en juin, et leur suggère de rédiger les 1ers commentaires sur le blog associé.

1.0

L’IT-Technology se « contente » d’une gestion efficiente (Jay-stion efficiente, PJ/inside joke) de l’infrastructure (IT = “bastion technique des nerds”).

2.0

Les TIC s’alignent sur le Business : le CIO et d’autres fonctions IT font le pont entre le Business et les TIC (IT = Information et Technologie).

3.0

Les fonctions IT sont partie intégrante et stratégique de l'entreprise. Mais le CIO reste peut-être le mieux placé pour mettre le point Digital à l’ordre du jour. Une confiance réciproque étant établie, Business et IT sont partenaires stratégiques : toute l’entreprise s’implique dans les projets de transformation numérique ! En plus de l’infrastructure, les TIC doivent jongler maintenant avec 4 I (the four I’s) : Information, Innovation, Intégration et Intelligence…
Dans Business/IT Fusion, début 2009, Peter Hinssen caractérisait la transformation majeure de l’IT (de 1.0 vers 2.0 suivant sa terminologie) par le passage d’une IT alignée sur le Business à une IT fusionnée avec le Business :

« Fusion will allow companies to focus on technology-enabled innovation »
« We believe that we should not just be concerned with ‘aligning business and IT’, but that we should be busy integrating IT into the business. We believe the time has come for business and IT to fuse. »

SMAC – Social (media), Mobile, Analyse des données (big data), Cloud

SMAC est le concept selon lequel quatre technologies (digitales/numériques) sont à la base de l'innovation des entreprises : Social, Mobile, Analytics, Cloud. L’évolution des technologies SMAC à partir de 2010 est bien illustrée par une enquête de EY Inde. Les étapes 1.0, 2.0 et 3.0 sont utilisées dans cette matière également sans correspondance directe avec ce qui a été décrit plus haut.
Pour information, l’impact des technologies SMAC fait l’objet du prochain séminaire Drive your organisation’s digital transformation (du 22 au 28 août 2016): « Comment transformer la culture de l’ensemble de l’entreprise pour se concentrer pleinement sur l’innovation numérique ? »

En conclusion

Alors qu’on se débat encore avec l’ICT 2.0, pourquoi s’étendre sur l’Enterprise, l’ICT ou le CIO 3.0, me direz-vous ? Et que nous annonce-t-elle d’autre, la 4ème Révolution Industrielle ? 5 o’clock, tea time ! ! Ensuite je réserverai peut-être une Model 3 ;-)

Dominique Annet, La pieuvre informatique (2009)

« Depuis Le Meilleur des mondes (Huxley, 1932) jusqu’à Wall-E (Stanton, 2008), nous nous questionnons sur notre rapport à la machine. Ennemie ou alliée ? L’homme créa la machine. Mais la machine recrée l’homme. Leurs destins semblent inexorablement liés. Dans ce nouveau monde en émergence, les questions de la place, de l’attitude et du destin humains sont (re)posées. L’informatique est un fabuleux révélateur de nos forces, de nos faiblesses, de nos croyances en des mythes, de nos espoirs et de nos possibles. »

« Faire des plans à cinq ans n’a plus de sens, l’horizon est désormais à trois (et au mieux six) mois, les anciens modes de fonctionnement et les organigrammes classiques explosent. L’entreprise doit devenir frugale (dans son fonctionnement), fluide (dans ses relations au monde) et se doter d’une force intérieure (un vrai projet fort qui n’a rien à voir avec les résultats financiers) qui lui donnera le charisme pour toucher, individuellement et collectivement, ses partenaires et leurs tribus. »

Peter Hinssen sur Linkedin

« ¥ Extreme customer- centricity: We show you how extreme customer centricity requires a double transformation: digital AND human. It is the only way you can pull the customer back into the heart of your company. »

A parcourir également…

“The First Industrial Revolution used water and steam power to mechanize production. The Second used electric power to create mass production. The Third used electronics and information technology to automate production. Now a Fourth Industrial Revolution is building on the Third, the digital revolution that has been occurring since the middle of the last century. It is characterized by a fusion of technologies that is blurring the lines between the physical, digital, and biological spheres.”

“a dynamic two-way flow of power and authority based on knowledge, trust, credibility and a focus on results, enabled by interconnected people and technology.”


Autres sources :
The evolving meaning of the 'I' in CIO (20/07/2015)
Peter Hinssen, "The four I's" (The New Normal book, 2010)

En cours à l'Administration communale d'Ixelles !

Maison Communale d'Ixelles

Ca bouge à l'Administration communale d'Ixelles ! Que s'y passe-t-il donc ? Tout d’abord, le système d’exploitation Novell (et tout ce qui est lié à Novell) fera l’objet d’une migration vers le système d’exploitation Microsoft. Cela implique aussi que la plateforme E-mail, actuellement basée sur Novell Groupwise, sera migrée vers la plateforme Microsoft Exchange, à savoir Outlook pour les postes d’utilisateurs.

Détail important

La plateforme E-mail sera toujours gérée par le service Informatique interne (Ixelles), mais sera hébergée dans le centre de données régional du CIRB (Centre d’Informatique pour la Région Bruxelloise). Cette action nous garantira les capacités, la sécurité, la performance et la stabilité d’un environnement régional avec l’option importante de pouvoir profiter du nom de domaine « .brussels ».

Ainsi, tous les employés de la Commune disposeront d’une adresse e-mail « @ixelles.brussels » ou « @elsene.brussels ». L’ancienne adresse e-mail restera encore disponible pendant un bon bout de temps (mi-2017) pour faciliter le changement des contacts et permettre s’orienter, petit à petit, vers une nouvelle adresse email.

Par ailleurs, la capacité de la boîte aux lettres se verra augmentée (x4), de même que la taille des fichiers qu’on pourra envoyer en pièces jointes (x3).

Evolution

Une autre évolution importante, faisant partie de la migration de Novell vers Microsoft, consistera en la réorganisation de la structure des répertoires sur les serveurs vers une structure identique à la nouvelle structure communale. En deux mots, cela signifie que la structure actuelle sera supprimée au profit des noms de départements/services tels que prévus dans l’organigramme. De plus, on sera automatiquement dirigés vers les répertoires/dossiers conformes à son emplacement dans l’organigramme. Des moyens de collaboration faciles et sécurisés entre services et même entre départements seront réalisés pour répondre au mieux aux besoins existants.

L’idée à la base de la modernisation du réseau est de garantir une stabilité, une disponibilité et une performance de haut niveau. Toute l’architecture devra donc être revue, et cela implique un impact temporaire sur la disponibilité du réseau. Les débranchements et reconnexions des câbles physiques auront lieu le plus possible en dehors des heures de travail pour garantir une disponibilité du réseau, de même concernant la migration des données (mails, dossiers…).

Le premier projet, consistant en la modernisation de tout le matériel (serveurs/stockage) et la migration vers un environnement informatique basé sur les systèmes de Microsoft, se terminera, nous l'espérons, fin juillet. La migration de l’environnement E-mail se déroulera en deux étapes. Fin juillet, la migration de Groupwise vers Exchange sera completée, mais l’environnement sera toujours hébergé à Ixelles. L'étape de migration de l'environnement E-mail vers le centre de données régional, qui impliquera le raccordement au domaine « .brussels », se déroulera fin 2016.

Le deuxième projet, consistant en la modernisation du matériel réseau à la Maison Communale, est en cours. Les autres bâtiments suivront dans les mois qui viennent.
 

Du Problem management à la « falaise de verre » ?

un problem manager au féminin

Alors qu’on me demande d’écrire un article sur le Problem management, voilà que je tombe sur un article  du Monde intitulé « Embauche-t-on les femmes quand ça va mal ? ».

L’approche pour la forme sera donc d’éclaircir quelques notions sur le Problem management, tout en articulant pour le fond avec les concepts de psychologie organisationnelle introduits dans l’article du Monde. Vivons curieux !

Finalement, qu’est-ce qu’un Problem manager ? Son rôle est de gérer des situations qui vont mal, justement ! Ces situations sont soit des incidents récurrents, c’est-à-dire qui reviennent régulièrement sans qu’une solution définitive ne soit apportée, soit des incidents potentiels, c’est-à-dire qui ne se sont pas encore produits mais dont on a identifié le risque qu’ils se produisent dans l’avenir. Le rôle du Problem Manager est donc d’identifier la « root cause » des incidents, qu’ils soient récurrents ou potentiels, et d’y apporter une solution définitive.

L’incident récurrent est, par exemple, une situation où plusieurs utilisateurs se plaignent que la synchronisation entre Efficy et Outlook ne fonctionne plus. Le rôle du Problem manager sera d’identifier la cause avec les parties prenantes, d’apporter la solution définitive, d’assurer sa mise en œuvre et son suivi.

L’incident potentiel est, par exemple, lorsque l’on constate que l’espace de stockage utilisé d’un serveur est à 95% depuis plusieurs semaines, sans qu’aucune action ne soit prise pour réduire l’espace utilisé. La proactivité du Problem manager permettra d’identifier ce risque et d’avertir les équipes concernées afin qu’il fasse le nécessaire avant qu’un incident ne se produise.

Le rôle du Problem Manager n’est pas toujours perçu comme ayant une utilité immédiate au sein d’une organisation, alors que ses actions combinées à celles d’autres acteurs apportent une réelle plus-value quant au maintien du niveau de service. Afin de réduire le nombre d’incidents, le Problem Manager est ainsi amené(e) à coordonner différentes équipes, alors que ces équipes n’ont ni les mêmes intérêts, priorités, ligne hiérarchique, etc. La tâche du Problem manager peut, dès lors, s’avérer compliquée.

Au CIRB, le Problem manager est une femme

C’est ici que j’ai envie de rebondir sur le Problem management assumé par une femme au CIRB et pour y introduire le concept de « falaise de verre », en référence au « plafond de verre », concept qui désigne la difficulté pour les femmes d’atteindre des postes à responsabilités.

L’étude britannique relayée par Le Monde démontre que les femmes assument plus volontiers des fonctions à risques que les hommes, mais qu’elles ne sont pas pour autant récompensées. Les deux chercheurs britanniques Michelle Ryan et Alexander Haslam ont introduit le concept de « falaise de verre » pour expliquer qu’en prenant le risque d’assumer une fonction reconnue comme compliquée, elles augmentent le risque d’échec, et donc de chuter, d’où l’expression « falaise de verre ».

D’autant plus qu’une étude PwC  démontre que les organisations sont moins clémentes à l’égard des femmes puisqu’elles seront congédiées plus facilement qu’un homme.
Dans la fonction de problem management, le risque est donc grand de chuter, c’est-à-dire de ne pas être capable de mener à bien sa mission, car cette mission dépend fortement de la bonne volonté d’autres acteurs.

Plus largement, on voit des femmes accéder à des postes à responsabilités quand l’organisation est en crise (pensons à Theresa May qui succède à David Cameron et qui devra gérer le Brexit, à Hillary Clinton, ou encore à Angela Merkel). Pourquoi donc, alors que l’ascension professionnelle des femmes est symboliquement arrêtée par le célèbre plafond de verre, ces femmes arrivent-elles à prendre une place dans les moments de crise ?

Une des hypothèses avancées est qu’une fois que le modèle dominant, c’est-à-dire un homme qui occupe un poste à responsabilités, ne fait plus ses preuves, on cherche une solution innovante. Cette solution innovante serait donc de promouvoir une femme. D’autant que le stéréotype de la femme qui saura prendre soin des autres, influence la perception selon laquelle les femmes sont des leaders idéales dans les situations compliquées.  

Après le plafond de verre, les femmes doivent-elles aussi se méfier de la falaise de verre ? Voilà de quoi alimenter vos discussions à l’heure de l’apéro ! :-)

Bonnes vacances !

SAM, un nouveau métier de l’IT (enfin) ?

SAM, un nouveau métier de l’IT

Savez-vous exactement quels logiciels sont installés sur votre PC ? Le savez-vous par expérience, par paiement de factures d’abonnement ou d’achat de licences, ou à travers un outil d’inventorisation ? Vous êtes sûrement du genre à suivre plusieurs sites technologiques vous suggérant l’un ou l’autre graticiel ou partagiciel en vogue ? Ou encore mieux, vous êtes un adepte des logiciels libres que vous modifiez à votre guise, c’est ça ? Et dans tout ce qui précède, vous avez lu et approuvé les conditions d’utilisation, correct ? Bien sûr, ceci est un vieux débat et vous me répondrez « so what ? ». Ok, je vous entends, vous assumez.
Par contre, si je transpose ces mêmes questions vers la masse croissante de serveurs hébergés dans le Data Center régional qui délivrent les services IT rendus aux administrations et au grand public de la Région, « so what ? » n’est pas une réponse acceptable. Saviez-vous que le coût de maintenance de licences est plus important que le coût de la maintenance matérielle à l’heure actuelle ? On tend vers du 2/3 "licences" pour 1/3 "matériel" !

Je coupe tout de suite court au débat du logiciel libre vs logiciel propriétaire à ce niveau : si, en tant que prestataire de services IT, nous voulons rendre un service professionnel garanti, nous avons bien besoin de couvrir nos environnements par des contrats de support professionnels. Que faire, par exemple, en adoptant une version communautaire d’un logiciel pour un système de production dont le noyau dur des développeurs-contributeurs décide d’un moment à l’autre de créer leur propre « fork » et d’abandonner le projet original ? Qui va supporter la solution à ce moment-là ? Voilà une raison importante pour nous tourner vers du support entreprise, même pour le logiciel libre, qui n’est donc pas si gratuit que cela, on l’aura dit.

Qu’il soit clair que l’ensemble des logiciels installés et couverts soit par un contrat de licence (logiciel propriétaire) soit par un contrat de support ou de souscription (logiciel libre) viennent avec leurs propres conditions d’utilisation, qu’il convient de respecter dès le début. Plusieurs logiciels présentent une facilité d’installation (du « clic clic clic » sans demander la moindre clé de licence) et de déploiement automatisé (images, réutiliser x fois la même clé de licence, …) qui font que les techniques ne sont pas nécessairement conscients que chaque clic pourrait signifier « betalen » ! Et l’éditeur de logiciel comme les intégrateurs ont besoin de faire du chiffre. Là où, par le passé, il suffisait de couvrir un serveur physique par une licence appropriée, l’arrivée de la virtualisation et du cloud ont fait que « le serveur » n’est plus une unité de mesure pertinente : on a basculé dans un mode d’assemblage et de consommation de ressources mémoire, CPU et disque.

Plusieurs éditeurs de logiciels se sont positionnés complètement différemment par rapport à cette évolution. Ainsi, certains réclament une couverture des CPU physiques en dessous de la capacité de virtualisation potentiellement utilisable, alors que d’autres regardent l’exposition du produit final en comptant le nombre d’utilisateurs finaux d’une solution, peu importe le nombre de serveurs ou le type d’environnement (production vs non-production). Et à l’évolution toujours plus rapide du marché, ces mêmes éditeurs ont le droit de changer de modèle de licensing en cours de route, bien entendu. Lisez également entre les lignes : la politique de licence pèse activement sur la stratégie de virtualisation et de cloud, voire même elle peut influencer l’architecture applicative et d’infrastructure, nous forçant à être créatifs pour mettre en place un système « license friendly ».
Bon, vous me suivez toujours ? Comment garder trace de tout ceci, sans ignorer les aspects de gestion budgétaire et de marchés publics ?

SAM

C’est là qu’un SAM mérite absolument sa place. Le SAM ou « Software Asset Management » est un nouveau métier qui se développe sur le marché. De plus en plus de sociétés prévoient un ou plusieurs license & contract managers pour veiller au bon respect des licences et ce durant tout le cycle de vie d’un service, dès sa conception, à travers sa mise en place à l’opérationnel au jour le jour. Savoir quel type de licence peut être installé à quelle fin sur quel type d’équipement, c’est devenu une spécialisation. Travailler de manière « license friendly » (= TCO maîtrisé), rester « audit proof » (= responsabilité juridique de nous tous), c’est plus qu’un défi aujourd’hui. En parallèle, nous assistons à un nouveau marché qui se développe à côté des grands éditeurs du marché, qui ne semblent plus s’y retrouver eux-mêmes dans leurs propres contrats. C’est que des distributeurs et des intégrateurs proposent des services de « license optimisation », services rendus par des gens qui se font certifier dans le licensing d’un portefeuille de produits.

Garder une vue sur l’ensemble de la base installée, savoir donner des conseils quant à ce qui est possible ou pas d’un point de vue licence pour x produits, optimiser sa gestion budgétaire, optimiser ses contrats globaux, voilà les tâches principales d’un SAM interne, un poste indispensable qui se rembourse tout seul, il me semble. Si nous équipons ce SAM d’un outil approprié permettant de croiser la base installée avec la base contractuelle et le droit d’utilisation y afférant, voilà que nous avons de quoi nous rendre complètement en règle par rapport à l’ensemble des contrats et des licences.
Voilà un autre métier de l’IT qui n’est pas du tout technique au départ …
 

Le numérique au musée

les nouvelles technologies au musée

La dernière innovation en date - une première en Belgique - est à découvrir depuis le 18 juin au sommet de la butte du lion de Waterloo : des lunettes 3D assorties d’un casque audio permettent désormais au visiteur de revivre à 360° les mouvements des troupes napoléoniennes et alliées, les charges de cavalerie, …

Les nouvelles technologies au service de l’art, de l’histoire ou de la science ne relèvent plus du gadget. Même si les avancées en la matière restent assez timides en Belgique – beaucoup d’institutions sont encore au stade de l’audio-guide - elles n’en demeurent pas moins significatives : parmi d’autres institutions, le STAM (Gand) et le Musée des Lettres Manuscrites (Bruxelles) se sont équipés de tables multitouch ; le Mons Memorial Museum (Mons) a choisi le principe de l’hologramme 3D ; la nouvelle scénographie de In Flanders Fields (Ypres) fait notamment la part belle aux bracelets interactifs tandis que le Musée Magritte (Bruxelles) s'est équipé de visioguides en trois langues des signes. Les Musées royaux des Beaux-Arts de Belgique, quant à eux, définissent l’exposition-phare Bruegel. When art meets technology comme le résultat d’une « […] profonde réflexion sur les changements en cours dans le domaine de la muséologie, à l’ère du digital. »

Vous avez dit "révolution" ?

Quelle est la finalité de ces nouvelles technologies de l'information et de la communication qui envahissent lentement mais sûrement nos institutions et musées ? Ces procédés se veulent généralement une nouvelle forme de médiation entre le musée et le visiteur. Il s'agit indéniablement d'un facteur d'attractivité pour séduire de nouvelles cibles, plus jeunes, peu ou moins intéressées de prime abord par l'expérience muséologique. Comme le souligne Vincent Delvaux,  « [l]e multimédia, le numérique est réellement une réussite quand il est intégré, invisible, pensé en transversal, en synergie avec les oeuvres. il doit promouvoir l'approche émotionnelle, sensorielle, l'expérience augmentée, démultipliée. »*

La recette du succès

Point de départ fondamental de toute tentative d'association entre la sphère muséologique et l'univers des NTIC : les nouvelles technologies de l'information et de la communication sont à mettre au service d'un message et d'un contenu. Mesdames et Messieurs les commissaires d'exposition, attelez-vous à les définir et à les alimenter avant toute autre préoccupation, sans quoi tablettes interactives, impressions et projections 3D, applications dédiées et balises de géolocalisation se limiteront au seul aspect attractif de leur utilisation... On passe alors de dispositifs en dispositifs pour manipuler des boutons, sans parvenir à comprendre la finalité de ces opérations et le visiteur, vite lassé, passe inmanquablement à côté de l'essentiel.

Concentrons-nous donc, avant toute chose, sur que l'on souhaite communiquer avant d'imaginer les moyens et les technologies pour le faire ! Ces dernières ne devraient jamais servir à pallier les lacunes de contenu. L'avertissement vaut, encore et toujours, la peine d'être répété, car c'est encore et trop souvent là que le bât blesse.

Ceci dit, attelons-nous également au problème que pose notre tradition muséologique. Les modes de représentation des connaissances évoluent avec le temps, et nos institutions au service de la culture et de la diffusion de la connaissance ne peuvent en faire fi !

L'espace muséal doit s'actualiser, se renouveler, se réinventer. Il est donc parfois nécessaire de dépasser la tradition de manière à laisser davantage d'espace à l'imagination ainsi qu'à la création, sources d'émotion.

Les solutions technologiques doivent donc trouver une place équilibrée au musée, tout au service d'une oeuvre et d'un message à véhiculer. Et pour que cette intégration puisse être réalisée dans le cadre d'une réflexion pertinente à moyen et long termes, muséographes et scénographes devraient être idéalement sensibilisés voire formés aux nouvelles technologies de l'information et de la communication : la non-utilisation de nouveaux procédés relève souvent d'un simple manque d'information des responsables muséaux...*

La rencontre de la sphère muséologique et de l'univers des TIC devient donc inévitable et c'est tant mieux ! Le projet CHESS (Cultural Heritage Experiences through Socio-personal interactions and Storytelling) s'intéresse depuis 2011 à leur interaction réciproque. La création de réseaux entre équipes muséales et technologiques est en train de se faire également à travers la Belgique avec le projet Museomix : durant trois jours, des équipes pluridisciplinaires se retrouvent dans le cadre d'un musée pour créer ensemble des prototypes de médiation muséale, c’est-à-dire des dispositifs interactifs qui visent à enrichir l’expérience du visiteur. Les prototypes une fois réalisés sont présentés au grand public.

Envie d'en savoir plus sur Museomix et de participer à cette aventure ouverte à tous ? Vous êtes codeur, médiateur culturel, responsable de contenu, communicateur ou graphiste? Venez tester le concept le 29 juin au MAS à Anvers!

 

*Brigitte Doucet, Nouvelles technologies et musées. Oui mais comment et pour quoi faire? www.regional-it.be, 07/07/14.

La solution plutôt que le problème

solution

Par le biais de cet article, je souhaite vous emmener à nouveau sur un autre chemin autour du thème de la « résolution de problèmes » en vous proposant un changement de perspective et d’approche dans les stratégies que vous mettez en place pour résoudre vos problèmes.
Mais d’abord, prenez un peu de temps pour répondre à cette question !

Quelle est l’approche classique que vous adoptez spontanément lorsque vous êtes confrontés à une difficulté ?

Vous vous focalisez sur le problème ? Vous l’analysez sous toutes ses coutures et cherchez à en comprendre les causes pour dégager d’éventuelles solutions ? C’est, en effet, l’approche de la grande majorité des gens et parfois, ça marche MAIS... Bien souvent, cette façon de faire, plutôt que de vous permettre de dégager des solutions, vous permet, au mieux, de dégager une vue précise du problème et de ses conséquences et, au pire, de ne plus voir que le problème. Prenons l’exemple de Jean-Paul, manager d’équipe dans une société de marketing. Celui-ci éprouve des problèmes pour déléguer un certain nombre de tâches auprès de ses collaborateurs. Sa manière de faire engendre rapidement toute une série de conséquences néfastes dans son propre travail et dans son management. Ainsi, il occupe son temps à effectuer de nombreuses tâches opérationnelles en dépit des activités plus stratégiques, tactiques ou de développement. Au-delà de cela, son comportement a également un impact négatif sur ses collaborateurs car ces derniers ne gagnent ni en autonomie, ni en compétences. Si ce comportement perdure, ils pourraient être privés de l’expérience qui favoriserait leur développement personnel et professionnel.

Pour Jean-Paul, l’acte de « déléguer » est alors davantage pensé et vécu en termes de problèmes à travers des phrases telles que « je ne lui fais pas confiance » et « j’ai peur des erreurs qu’elle pourrait commettre ».

Changeons de perspective ! Je vous propose d’accompagner Jean-Paul vers une approche orientée "solutions". Ainsi, penser en termes de solutions permettra d’aborder la notion de « délégation » comme une solution en soi. Ce changement permettra à Jean-Paul, d’une part de se connecter à ses ressources plutôt que de se focaliser sur toutes les raisons qui le poussent à ne pas déléguer (autrement dit, ses résistances) et, d’autre part, de réfléchir en termes d’objectifs à atteindre.

Mais encore, me direz-vous ? Concrètement, comment procéder pour mettre en œuvre cette nouvelle approche ? Je vous propose d’appliquer « l’art du questionnement » orienté solutions(*).

Quelles sont ces questions qui se focalisent sur les solutions ?

Dans le cas concret de l’action de « déléguer », ces questions peuvent être les suivantes :

  • « En quoi la délégation est-elle nécessaire ? »
  • « Que va-t-elle apporter ? »
  • « Que va-t-elle changer ? »

Penser en termes de solutions est différent de penser en terme de résolution du problème. Le changement de point de vue consiste à ne pas chercher des solutions aux problèmes mais bien de nouvelles façons d’agir et d’interagir avec son environnement. C’est là tout l’objet du développement personnel de chacun d’entre nous.

Ce changement de perspective nécessite d’en appeler à vos ressources, à l’ensemble de vos connaissances et de votre savoir-faire. L’un des fondements de toute démarche de changement ne consiste-t-il pas à s’appuyer sur le fait que : « chacun possède en lui les ressources pour effectuer les changements qu'il souhaite et atteindre ses objectifs » ?
Pour résumer et clôturer notre propos sur l’art du questionnement orienté solutions, je terminerai sur cette phrase de Socrate, citation qui résume également parfaitement ce qu’est le coaching :

« Les gens qu’on interroge, pourvu qu’on les interroge bien, trouvent eux-mêmes leurs propres réponses »
 

(*) Pour aller plus loin, je vous renvoie au livre de Philippe Bigot, Le coaching orienté solutions.
 

Greencheck

électricité verte

Depuis quelques semaines, Brugel a mis sur son site internet un nouvel outil convivial, complet et précis à destination des consommateurs  de la Région bruxelloise, leur permettant de visualiser la part d’électricité verte de la fourniture de son (ou ses) fournisseur(s) d’électricité : GREENCHECK.

L’électricité verte est produite à partir de sources d’énergie renouvelables (éolienne, hydraulique, solaire, biomasse, …). Vous avez donc la possibilité d’encourager ces modes de production d’électricité en optant pour l’électricité verte. Vous contribuez ainsi à la protection de l’environnement et encouragez un usage raisonné des ressources en énergies fossiles (gaz naturel, pétrole, charbon).

L’application permet en outre de connaître l’origine géographique de son électricité mais également son origine technologique.

Concrètement, afin de prouver l’origine de l’électricité verte qu’ils vendent, les fournisseurs ont pour obligation de communiquer mensuellement au gestionnaire de réseau de distribution et/ou de transport (GRD/GRT) la liste des clients fournis en électricité verte. De son côté, Brugel approuve la fourniture d’électricité verte des fournisseurs uniquement à l’aide de ces garanties d’origine (GO).

A côté de l’objectif principal de l’application, deux objectifs métiers ont été atteints :

  1. Assurer un suivi plus efficace et complet des échanges de données Fournisseurs avec les GRD/GRT et des données Annulation garanties d’origine (GO).
  2. Mettre en place une solution de « reporting » et statistiques intégrées permettant à l’administrateur de gérer ses requêtes et d’effectuer la traçabilité de la fourniture en électricité verte.

En pratique, les fournisseurs rapportent mensuellement au GRD/GRT la liste de leurs clients finaux fournis en électricité verte, en indiquant pour chaque client la part d’électricité verte dans la fourniture totale d’électricité à ce client. Ces fichiers contiennent principalement un header, un body constitué d’une colonne contenant les codes EAN et une colonne contenant le pourcentage vert fourni au client concerné, et enfin un footer. Le GRD/GRT complète les données envoyées par les fournisseurs par une colonne contenant la consommation des clients, et « upload » lui-même le contenu du fichier contenant les données de consommation « Green » via un appel FTP sécurisé après s’être authentifié. Ce dernier est notifié suite à la validation des données. De son côté Brugel importe, stocke et gère automatiquement les  fichiers  « Green » reçus ainsi que les fichiers « Annulation  GO » générés par Brugel. Enfin, l’outil permet  à Brugel d’effectuer de multiples recherches (consultance  de  données) et des  requêtes (traitement, calcul et analyses de données) en back-office.
 

Trafics en eaux profondes…

Lorsqu’il lance, en 1857, une première tentative pour établir une liaison télégraphique entre l’Europe et les États-Unis, l’américain Cyrus Field, qu’on aurait pu imaginer dans la peau d’un de ces grands personnages de fiction créés par Jules Verne au XIXème siècle, ne se doute probablement pas qu’il va devenir un des pionniers d’une des grandes aventures technologique et humaine du monde moderne.

Même s’il ne fonctionna que 18 jours avec des performances qui peuvent nous sembler ridicules (99 mots transmis en 16 heures), la pose de ce premier câble télégraphique sur le fond de l’océan Atlantique allait marquer le démarrage d’un phénomène de mondialisation de la communication qui atteint son apogée à l’heure actuelle avec le développement d’Internet.

On ignore généralement que 99% des communications intercontinentales sont assurées aujourd’hui par environ un million de kilomètres de câbles sous-marins répartis dans +/- 340 réseaux reliant l’ensemble des continents.

Comment en est-on arrivé là ?

On identifie généralement trois périodes dans l’histoire des câbles sous-marins de communication.

La première période s’étale approximativement de 1840 à 1950. Elle s’appuie sur l’utilisation de câbles en cuivre.

La seconde commence vers 1950 avec le développement de la téléphonie transportée par des câbles sous-marins coaxiaux.
Cette période se termine à la fin des années 1980 avec l’avènement des câbles sous-marins en fibre optique. Les performances de cette technologie vont alors favoriser le développement d’Internet de manière extraordinaire. En 1988, la première liaison transatlantique par fibre optique offrait une bande passante de 280 Mbit/s  correspondant +/- à 40.000 communications téléphoniques simultanées.

Une technologie en pleine expansion…

Comme le faisait remarquer récemment le journal Le Monde, la demande pour de nouvelles connexions sous-marines devrait s’accroître au cours des prochaines années, grâce notamment à l’arrivée en force de nouveaux acteurs parmi lesquels figurent plusieurs géants américains du Web qui ouvrent de nouvelles routes numériques pour satisfaire les besoins en communication.

On estime que trente-cinq nouveaux réseaux sous-marins en fibre optiques devraient être mis en chantier au cours des deux prochaines années.
Philippe Dumont, président de la société Alcatel-Lucent Submarine, leader mondial des câbles sous-marins, faisait remarquer il y a peu que le trafic Internet augmentait chaque année de 20 % à 25 % au niveau mondial, mais de près de 40 % sur les routes reliant les Etats-Unis au reste du monde. Cette croissance est en grande partie générée par Google, Facebook et Microsoft, via notamment leurs applications vidéo.

Des enjeux économiques et géostratégiques importants…

Comme nous venons de le voir, l’essor phénoménal d’Internet favorise la multiplication des projets de câbles sous-marins qui connectent l’ensemble des pays et des continents.

Plusieurs projets récents confirment le dynamisme de l’industrie des câbles sous-marins de communication.

Un câble d’une capacité de 144 Tbps vient, par exemple, d’être mis en service sur le fond de la mer Baltique pour relier la Finlande et l'Allemagne. Ce câble permet de connecter au reste de l’Europe les data centers finlandais qui profitent d'un climat froid, d'une électricité bon marché et d’une législation stricte sur l’usage des données.

On constate également une multiplication significative de projets dans la zone Asie-Pacifique poussés là aussi par plusieurs géants du Web.

Google a investi dans plusieurs câbles vers l’Asie, en partenariat avec des compagnies télécoms locales. Le dernier en date, Faster doit relier cette année la côte ouest des Etats-Unis au Japon et à Taïwan. Long de 9.000 km, il coûtera environ 300 millions d’euros et aura une capacité de 60 Tbps.
Microsoft et un groupe d’opérateurs asiatiques ont lancé la construction de New Cross, un câble transpacifique entre les Etats-Unis, la Chine, le Japon et la Corée du Sud.

Facebook participe au financement d’un câble régional, Asia Pacific Gateway, reliant la Malaisie, la Corée du Sud, le Japon, Singapour et la Chine.

Et last but not least, Amazon vient de lancer son premier investissement dans un projet de câble sous-marin qui doit relier les Etats-Unis à l’Australie et la Nouvelle-Zélande à partir de 2018.

La société chinoise Huawei, de son côté, via la joint-venture Huawei Marine Networks, est devenue en quelques années un acteur majeur dans le domaine de la pose et de l’exploitation de réseaux de câbles sous-marins. Elle est notamment très active en Afrique.

Géographie des câbles sous-marins de communication…

Pour terminer, je recommande vivement la consultation du site http://www.submarinecablemap.com qui permet de découvrir la géographie des câbles sous-marins de communication.

Ce site présente de manière interactive sur un fond de carte Google l’ensemble des câbles sous-marins répertoriés dans le monde.

Une interface graphique permet de sélectionner et de visualiser chaque câble et de consulter une série de données associées.

On apprend que la Belgique est connectée au « reste du monde » au moyen de quatre câbles. Les points de connexion sont situés à Ostende, Bredene et Zeebrugge. L’un de ces câbles (Tangerine) est sans doute l’un des plus longs qui est répertorié sur le site. Il mesure environ 39.000 km. Il relie quatre continents en passant par de nombreux pays (Allemagne, Belgique, France, Maroc, Egypte, Inde, Birmanie, Chine,  Corée du Sud, Australie…) et en empruntant des zones maritimes sensibles qui ne sont pas sans risques (Manche, Golfe de Suez, Mer Rouge, Golfe d’Aden, Détroit de Malacca, Mer de Chine…). À n’en pas douter, ce câble y est exposé comme beaucoup d’autres à toutes sortes de périls (tremblements de terre, pannes, sabotages, espionnage, accidents de pêche, attaques de requins…).

Un examen attentif de la carte montre que certains pays comme la Corée du Nord ne sont pas connectés.

On s’aperçoit que la Crimée, bien avant que ne soit achevé le pont qui doit permettre à sa population de se rendre en Russie, y a été reliée par un câble sous-marin immédiatement après son rattachement en 2014.

Étant donné la croissance quasi exponentielle du Web, on peut s’attendre à voir cette carte se densifier dans les prochaines années. Fort probablement, de nouveaux câbles apparaîtront aussi aux abords des Pôles.

Au-delà de l’aspect purement cartographique, ce site est sans doute un bon indicateur de l’évolution de la mondialisation.

Pour en savoir plus…

Dans son 1er numéro paru en 2016, la revue « Reliefs » a consacré un article rédigé par David Fayon aux câbles sous-marins.

  • Le site http://www.cablesm.fr/ de l’Association des Amis des Câbles Sous-Marins fourmille de renseignements sur le monde des câbles sous-marins.
  • L’article du journal Le Monde « Ici, nous fabriquons l’Internet qu’on peut toucher » peut être consulté à l’adresse  http://www.lemonde.fr/pixels/visuel/2016/03/10/haut-debit-en-eau-profonde_4880125_4408996.html
  • L’UIT (http://www.itu.int) est l'institution des Nations Unies spécialisée pour les technologies de l'information et de la communication (TIC). Elle a publié de nombreux documents consacrés aux câbles sous-marins. La plupart de ces documents sont téléchargeables gratuitement.
  • Le programme des Nations Unies pour l’environnement a publié en 2009 un dossier complet sur les câbles sous-marins « Submarine cables and the oceans : connecting the world ». Ce document est téléchargeable à l’adresse http://www.unep-wcmc.org/system/dataset_file_fields/files/000/000/118/original/ICPC_UNEP_Cables.pdf?1398680911. Plusieurs pages traitent de l’importance des relevés bathymétriques pour représenter le relief du fond des océans afin de déterminer les meilleures « routes » à suivre.

 

Séminaire Eurocities à Rennes

Réunion plénière, Rennes Métropole

Journaliste : Bonjour, merci de m’accorder votre temps. J’ai entendu parler de votre mission à Rennes (“Transitioning Cities” Eurocities Knowledge Society Forum, 27-29/04/16). Alors, le voyage valait-il vraiment la peine ?

CV : Bien sûr ! Le programme m’a tout de suite plu. La première session était consacré à 3DEXPERIENCity, la plateforme 3D de la ville de Rennes, que celle-ci a mise en place grâce à un partenariat avec l’entreprise Dassault Systèmes. L’aspect le plus intéressant concerne les usages de ce type de plate-forme : comprendre le fonctionnement des systèmes urbains, tester des scénarios en mobilité ou sur la santé en fonction de la qualité de l’air, par exemple. C’est aussi un formidable outil de participation citoyenne, pour visualiser de nouveaux projets et permettre à tout un chacun de comprendre et d’utiliser des outils de visualisation 3D.

Il faut savoir que Rennes est une pionnière dans la cartographie 3D. Elle a été la première ville au monde entièrement modélisée en 3D en 1999. Rennes est le berceau de la société Archividéo, leader mondial de la création et de la gestion automatisées d’environnements urbains de grandes dimensions en 3D, et cela fait plusieurs années qu’une plate-forme de services web met à disposition des utilisateurs les données 3D de la ville.  Archividéo a été racheté par Dassault Systèmes en 2013; leur plate-forme 3DEXPERIENCity est à la pointe de ce qui se fait en termes de modélisation urbaine tridimensionnelle.

Journaliste : Il s’agit donc, si je comprends bien, d’un partenariat-privé-public par lequel Rennes Métropole met en place à moindre coût une plate-forme 3D d’envergure… Une approche qui permet à Dassault Systèmes de faire partiellement cofinancer ses recherches en modélisation urbaine, tout en écartant la concurrence !

CV : Il ne s’agit pas à proprement parler d’un PPP, mais d’un partenariat de recherche. Dassault Systèmes a comme grande idée la « virtualisation du monde ». Au départ, l’entreprise fut créée pour développer des logiciels de modélisation de pièces d’aéronautique, mais petit à petit, cette logique de modélisation s’est étendue à la conception de produits, à l’aménagement de magasins, au programme de restructuration d’usines, pour aujourd’hui travailler sur la mise en 3D de l’intérieur d’une molécule - ils travaillent sur la modélisation du corps humain ! – et enfin les villes.

La ville-métropole de Rennes, déjà très avancée en modélisation 3D grâce à Archividéo, était le partenaire idéal pour tester de nouvelles applications. Dassault apporte les logiciels, Rennes apporte les données, et chacun profite des retombées en termes d’expérience. Rennes dispose de la plate-forme comme banc d’essai et teste des projets pilotes concrets, Dassault dispose d’une référence au niveau mondial pour sa plate-forme urbaine, qu’elle pourra ensuite reproduire dans d’autres villes et ainsi se faire une place dans la secteur des smart cities.

Journaliste : Justement, parlons d’expériences et d’usages concrets. C’est un peu l’écueil de ces fameuses plate-formes urbaines en 3D, tout le monde en veut mais en réalité, personne n’en fait rien, non ?

CV : C’est vrai que c’est un problème que l’on rencontre parfois dans les projets smart city. Les technologies sont déjà en place mais il manque le plus important, c’est-à-dire les usages. Mais ce n’est pas le cas ici car Rennes utilise déjà la plate-forme pour cartographier le bruit, calculer le potentiel solaire des bâtiments, dessiner des plan locaux d’urbanisme et des plans de permis de construire. Ce qui occupe la ville-métropole de Rennes actuellement, et c’est l’objet du projet dont ils nous ont parlé, c’est l’intégration de ce système cartographique en 3D avec les autres données de la smart city : mobilité, environnement, réseaux sociaux, événements culturels… ainsi que l’utilisation de modèles prédictifs. Et là des applications sont prévues, mais non encore disponibles.

Leur premier axe de travail, en test actuellement, expérimente les aspects collaboratifs de la plate-forme pour le service de délivrance de permis de construire. L’architecte remet la maquette de son bâtiment incrusté dans son environnement réel  à l’administration locale, et celle-ci la partage avec les différentes instances concernées (voiries, pompiers, environnement) et chacun peut la modifier ou la valider directement sur la plate-forme.


3DEXPERIENCity - Simulation d’ensoleillement

Journaliste : intéressant, mais j’imagine qu’une fois de plus, à Bruxelles, nous sommes en retard sur les autres villes ?

CV : A Bruxelles aussi, nous disposons de toute la cartographie en 3D de la Région, UrbIS 3D. La modélisation 3D de l’ensemble du territoire de la Région de Bruxelles-Capitale a démarré au CIRB en 2007 par une représentation simplifiée (LoD 1) des bâtiments dans le cadre d’un concours d’urbanisme organisé par l’administration régionale. En 2012, un nouveau modèle 3D ayant une meilleure résolution (LoD 2) a été élaboré à partir de photos aériennes verticales et obliques à haute résolution, combinées avec des données LiDAR. Le bâti 3D est actuellement mis à jour annuellement par photogrammétrie aérienne.


Concours International d’Urbanisme – Rue de la Loi

Nous utilisons déjà UrbIS 3D pour des analyses d’ondes de GSM, pour la visualisation d’ombres portées pour certains PPAS (Plans Particuliers d’Aménagement du Sol) délivrés par les communes, pour la réalisation de maquettes virtuelles dans le cadre de pré-projets d’urbanisme par la SLRB, par exemple, ou encore pour simuler la rénovation de bâtiments remarquables (protection des monuments et site).  D’ailleurs, la dernière réunion des utilisateur d’UrbIS en décembre 2015 avait comme sujet « Utilisation de la 3D pour la simulation de la propagation des ondes électromagnétiques » par Mme Aurélie Dierge (Bruxelles Environnement) et la prochaine réunion (juin 2016) débutera par une présentation de M. Eric Bayers (IGN) : « La 3D : définitions, usages, et perspectives à partir de l’exemple des Pays-Bas ». En plus de ces applications existantes, le CIRB étudie actuellement la possibilité de développer des services web spécifiques pour UrbIS 3D.

Journaliste : En résumé, Bruxelles avance, mais on n’est pas très innovant, n’est-ce pas ?

CV : A voir avec qui on se compare ! L’intérêt de la présentation d’une ville comme Rennes c’est que justement ils sont à la pointe dans leur domaine, et donc ils peuvent nous apprendre des choses, sur les usages de la 3D et des données de la smart city, mais aussi sur leur partenariat de recherche, qui est peut être, en définitive, l’aspect le plus innovant de ce programme. Toutes les informations et les contacts que j’ai récupérés à Rennes sont transmis aux bonnes personnes ici à Bruxelles. Et qui sait, peut-être pourrons-nous organiser une visite autour de la géomatique à Rennes, ou participer à leur partenariat de recherche avec Dassault comme ville pilote ?
Nous regardons aussi vers des sociétés très innovantes comme ForCity, une start-up lyonnaise, qui est venue présenter sa solution lors de l’événement Smart City Summit organisé par le CIRB en juin 2015.
Ils viennent de remporter le Grand Prix de l’Innovation urbaine décerné par le journal Le Monde et proposent un outil qui est une plate-forme interactive et collaborative en 3D, permettant de zoomer sur un quartier et de modifier ses caractéristiques en fonction de certains paramètres. Une réglette permet de voyager dans le temps en fonction des scénarios et des données fournis par les clients. Cela permet aux autorités d’éclairer tel ou tel choix en permettant de voir les répercussions de ces décisions sur des systèmes urbains de plus en plus complexes. C’est également une piste de développement envisagée par le CIRB.
 

De belles initiatives citoyennes à Bruxelles

une pomme

Il y a tant de facettes intéressantes à la Région bruxelloise, par exemple celle-ci : les groupements d'achats.
Les groupes que j'ai côtoyés établissent un ancrage social mixte, basé sur des choix de vie et des choix alimentaires, également intéressés par des expériences de vie associative permettant de faire de belles découvertes.

Voilà pourquoi je participe au développement et à l'accompagnement d'une plate-forme pour groupements d'achats locaux (https://repanier.be/fr/).
Repanier se situe entre le "google doc" et le logiciel de gestion d'entreprise.
Bees-Coop (Saint-Josse, Schaerbeek) l'a utilisé jusqu'à l'ouverture de son premier magasin. Bloum (Forest) l'utilise en version bilingue. D'autres le testent à Bruxelles, le GAG1 (Saint Gilles) ou même plus loin, le Nid (Genève). Actuellement, une quinzaine de groupes l'utilisent activement, ainsi qu'un maraîcher pour livrer chaque semaine plusieurs points en Région bruxelloise.

La plate-forme est sécurisée en https grâce à l'initiative https://letsencrypt.org/. Elle est développée sur le framework django / django-cms, aussi utilisé en Région bruxelloise pour Fix My Street.

Elle s'est construite sur base de rencontres, d'envies de participer, des feedbacks des groupes qui l'utilisent. Les besoins des uns et des autres sont agrégés pour aboutir à une solution uniforme et réutilisable. Les mises en production, les mises à niveau se font de manière planifiée et coordonnée.
Le changement oui, mais pas trop.
Bien qu'un mode d'emploi existe, il n'est pas nécessaire. Si plusieurs questions reviennent, c'est que le programme ou l'accompagnement est perfectible. Le choix du vocabulaire est important. Il suffit de laisser libre "clic" à quelqu'un qui ne connait pas l'application pour s'en rendre compte. Trouver le bon terme qui sera une évidence pour l'utilisateur demande une écoute et une ouverture, à l'image de ces belles initiatives citoyennes à Bruxelles.

A découvrir !

Alle blogposts