jeu.
07
mars
2013
45 États américains vont rendre l'apprentissage de l'écriture manuscrite optionnelle à l'école.
C'est ce qu'on peut lire sur http://quoi.info/actualite-education/2013/02/21/apprendre-a-ecrire-a-lecole-bientot-demode-1161153/
Sur un sujet aussi sensible, la nouvelle n’a pas soulevé les polémiques habituelles. Pourtant, 45 États sur 50, c’est quasiment tous les États Unis qui s’apprêtent à abandonner l’écriture manuscrite. Car on connaît par avance ce que deviennent les options : le latin, la musique, l’éducation artistique. Sauf qu’il s’agit d’un savoir de base ; un des trois apprentissages des classes primaires : lire, écrire, compter. On se demande instinctivement comment une telle régression a pu être ainsi proposée aux enfants américains. On ne saura plus écrire alors ?
Si, mais plus de la même manière. Dans ces États américains, on n’apprendra plus à écrire à la main, au stylo ou au crayon. On apprendra à écrire sur un clavier : d’ordinateur, de tablette ou de tout autre dispositif. Au lieu de former les lettres par soi-même, on sélectionne la bonne touche pour que la lettre s’imprime à l’écran. Est-ce si important ? Y a-t-il un changement fondamental à taper une lettre à l’écran plutôt que de la former avec un stylo sur du papier ? Dans les deux cas, on passe par un outillage qui semble neutre. Certains se souviennent encore des regrets que l’on abandonnât la plume, puis le stylo plume, pour le crayon à bille. Cette fois-ci le changement est plus radical, mais devrait être encore un simple remplacement d’outil, qui ne change pas notre rapport à l’écriture. Sauf que celle-ci aura perdu au passage tout rapport avec la création artistique, en tous cas une certaine visée esthétique, pour ne rester qu’un simple support du mot et de la phrase.
Mais il n’y a pas que ça, car l’outil n’est pas si neutre que ça.
Dans son livre Internet nous rend-il bête (Robert Laffont), l'essayiste américain Nicholas Carr raconte l'achat par le philosophe Friedrich Nietzsche d'une machine à écrire :
"Une fois qu'il eut maîtrisé la frappe, il fut capable d'écrire les yeux fermés, utilisant uniquement le bout de ses doigts. Les mots pouvaient de nouveau couler de son esprit à la page. Mais la machine eu un effet plus subtil sur son travail. Un des amis de Nietzsche, un compositeur, remarqua un changement dans son style d’écriture. Sa prose, déjà laconique, devint encore plus concise, plus télégraphique. (…) 'Tu as raison, répondit Nietzsche, nos outils d'écriture participent à l'éclosion de nos pensées".
Quant à moi, je peux témoigner du contraire, car j’ai beaucoup plus de difficultés à écrire un texte un peu élaboré sur écran, que sur papier avec un bon vieux stylo. Et, dans mon travail quotidien, je ne peux pas m’empêcher de crayonner des schémas et des morceaux de phrase, en élaborant des architectures techniques ou des procédures de production.
En plus, et chacun le sait, l’ordinateur ne se contente pas d’enregistrer la frappe. Le traitement de texte met en forme, numérote les paragraphes, génère la table des matières, et corrige l’orthographe. C’est ce que me disent mes enfants depuis qu’ils utilisent un clavier. A quoi bon se préoccuper de l’orthographe alors que Word le fait pour nous ? Sauf qu’il ne le fait pas parfaitement ; c’est vrai, mais faisons-nous tellement mieux ? Ce n’est pas si sûr, et dépend de notre propre attention à ce sujet, et de l’attachement presque pathologique qu’ont les Français vis-à-vis de leur orthographe.
A quoi bon calculer aussi ? Je peux démontrer à mes enfants que je vais plus vite que la calculette pour calculer 7x8=56, parce que j’ai la réponse instantanément, alors que sinon je suis obligé de taper les chiffres. En plus, mon cerveau est tout le temps et instantanément disponible, ce qui n’est pas le cas de l’ordinateur. Ils me disent que s’ils font le calcul mental, il faut qu’ils vérifient avec la calculette parce qu’ils lui font pas confiance. Ce qui fait qu’ils utiliseront la calculette de toute façon. Et c’est vrai, que pour une opération plus compliquée, comme 3462x765, l’ordinateur est beaucoup plus efficace et plus sûr qu’une opération à la main sur papier.
Quand on a acquis un certain savoir-faire, on y attache de la valeur et on se sent dépossédé par la machine, qui imite ce savoir-faire mais qui ne le reproduit jamais complètement, beaucoup plus efficacement la plupart du temps, mais différemment, et qui nous rend dépendant d’elle. C’est ce qu’ont pensé les marins qui se dirigeaient aux étoiles immuables quand ils ont vu arriver la boussole si fragile, les conducteurs avec le GPS (qui ne capte pas) quand le plan est toujours là (à condition que ce soit le bon). C’est déjà ce que disait Socrate dans le Phèdre, en parlant de l’écriture justement, qui remplace la mémoire orale : « Elle ne peut produire dans les âmes, en effet, que l’oubli de ce qu’elles savent en leur faisant négliger la mémoire. Parce qu’ils auront foi dans l’écriture, c’est par le dehors, par des empreintes étrangères, et non plus du dedans et du fond d’eux-mêmes, que les hommes chercheront à se ressouvenir. »
Socrate avait raison. C’est par le dehors, de plus en plus, que nous attendons des services plus efficaces que ce que nous pouvons produire par nous-mêmes. A quoi sert notre mémoire, si limitée et si imparfaite, quand Google est là ? Tout se passe comme si nous sous-traitions le maximum de tâches à la machine, pour pouvoir libérer de la place et de l’énergie pour des fonctions plus primordiales. Le problème est, souvent, que nous ne savons pas vraiment quelles sont ces fonctions primordiales, et que le temps et l’énergie ainsi libéré ne laisse place qu’à un vide que nous ne savons pas remplir, au chômage.
mar.
12
févr.
2013
Voici les résultats d'un POC SAP HANA chez mon (très gros) client SAP. J'attendais des chiffres sur les véritables performances de cette architecture. Les voilà !
On passe de dizaines d'heures à quelques secondes.
jeu.
06
déc.
2012
Me voici de retour dans le monde des constructeurs, pour une journée en tous cas. Un peu de nostalgie peut-être, et aussi la confirmation qu'il ne restera plus, à terme, que deux Unix sur le marché. HP-UX et Solaris se marginalisent de plus en plus.
C'était à l'occasion d'un séminaire organisé par Bull qui présentait de nouveaux serveurs et quelques sujets "dans le vent".
Voici le contenu de mes notes sur quatre sujets qui ont été exposés lors de ce séminaire :
Bull en 2011 a fait 1,3 Mds € de chiffre d’affaires avec 4,6 % de croissance sur l’année écoulée. Ce sont aujourd’hui 9000 experts au service des clients.
Bull fête son vingtième anniversaire de partenariat avec IBM sur sa gamme Escala. L’autre partenariat majeur continue avec EMC².
Aujourd’hui, l’offre Aix Bull représente 30% du marché français, plutôt en croissance par rapport à HP UX à 15% et Solaris à 15% également. Au niveau mondial Aix occupe aujourd’hui 50% du marché Unix.
Disponibilité de nouveaux serveurs :
On appelle « Vulnerability Disclosure », la publication d’un problème de sécurité qui a été constatée. La personne ou l’organisation qui a découvert la faille de sécurité peut en faire part publiquement soit tout de suite, soit après avoir alerté le fournisseur matériel ou logiciel de telle manière que celui-ci puisse régler le problem avant la publication. Le nombre de « Vulnerability Disclosure » augmente de façon continue.
Conscient de cette hausse, Bull se positionne comme pouvant gérer la sécurité à tous les niveaux de manière coordonnée.
Les processeurs Power7 gère le cryptage des données par un co-processeur dédié. L’algorithme de cryptage se base sur un générateur de nombre aléatoire (Random Number Generator) VRAIMENT aléatoire en se basant sur des données électriques relevées en certains points du processeur. Les fluctuations de l’électronique, n’étant pas prévisibles, permettent ainsi de mieux garantir l’initialisation de la clé de cryptage qui, en principe, ne peut pas être retrouvée par programme.
Aix propose en standard un grand nombre de packages de sécurité :
Toutes ces fonctionnalités sont incluses dans PowerSC Standard Edition à l’exception de Trusted Surveyor en option.
Une présentation très décevante parce que très confuse. On en retiendra une définition :
Big Data : Technique qui promet l’analyse de données de toute sorte, structurées et non structurées, avec des promesses de valeur ajoutée
Le Big Data repose sur trois piliers :
Les 4 Vs : Big Data se caractérise par les 4 Vs :
jeu.
15
nov.
2012
Prince2 est la méthode de gestion de projet que j'utilise. J'y vois deux avantages principaux :
- La justification business continue (le business case)
- L'accent mis sur le produit
Cela répond aux deux causes principales qui sont les moteurs de tout projet :
- Premièrement, une fonctionnalité métier dont on attend qu'elle améliore le service rendu ou qu'elle permette de lever certaines limitations
- Deuxièmement, cette fonctionalité se traduit par la livraison d'un produit final qui répond à ce besoin initial.
Trop souvent, les projets se perdent dans la gestion de planning et l'accomplissement de tâches qui n'ont plus qu'un lointain rapport avec les prévisions. Prince2 est là pour nous ramener sans arrêt à ces deux moteurs essentiels.
Il faut néanmoins mentionner que Prince2 est une méthode générique qui n'est pas spécialisée dans les projets informatiques. C'est donc à nous d'amener le lien entre des principes généraux et la spécificité de chaque projet.
Andy Murray qui est le rédacteur principal du manuel Prince2 en a rédigé un résumé en 1000 mots (je n'ai pas compté). C'est disponible ici (en français pdf)
ven.
09
nov.
2012
J'ai précédemment essayé d'expliquer pourquoi le mail, malgré tous les défauts que certains lui trouvent, n'était pas près de disparaître. Une série de raisons rationnelles qui passent peut-être à côté de l'essentiel.
Car, ce qui rend sans doute cet outil si addictif, est la reconnaissance qu'il apporte à chacun d'entre nous. Chaque fois que l'on reçoit un mail, c'est le signe que l'on existe, que l'autre a pensé à nous mettre dans la liste des destinataires, qu'il a jugé important de nous mettre au courant, ou de nous demander notre avis. Chaque mail reçu est une petite piqûre qui nous confirme que nous existons aux yeux de l'autre. Plus de mail, plus de téléphone, et c'est vite l'angoisse d'être mis hors circuit. Chacun est un petit "people" qui se plaint (très sincèrement) d'être harcelé par les paparazzi, et qui souffre (tout aussi sincèrement) de l'indifférence, quand l'engouement se dissipe.
Quand par ailleurs, on nous explique qu'il faut construire son image sur Internet, faire son « personal branding ». Je trouve curieux que l’on combatte ce qui permet aussi de le construire et de se rassurer quant à son influence.
mar.
06
nov.
2012
Depuis le temps que que certains dénoncent le mail, il devrait être mort depuis longtemps. Une recherche rapide m'a fait retrouver un article de 2006 qui se battait déjà contre le mauvais usage du mail : http://www.duperrin.com/2006/10/30/mauvais-usages-du-mail-une-demonstration-rationnelle/. Et on en parlait déjà avant. 6 ans c'est une période très longue en informatique. Combien y avaient-ils d'utilisateurs de Facebook en 2006 ? Une petite dizaine de millions, contre un milliard aujourd'hui. Entre les deux, MySpace a disparu, et SecondLife, et d'autres encore. Skyblog, sur lequel tout adolescent français se devait d'avoir son espace, ne fait plus partie du paysage. Autrement dit, si le mail devait disparaître, il aurait déjà disparu.
Des amis, qui travaillent chez Atos, me disent qu'ils l'utilisent toujours, malgré les déclarations tonitruantes de Thierry Breton. Et que de toute façon, la disparition annoncée du mail ne concerne que les échanges internes. On le gardera pour l'extérieur. Heureusement pour Atos, qui n'allait quand même pas se couper du reste du monde.
Et pourtant, "l'email est une plaie, tout le monde le sait" décrète Fred Cavazza, "l'e-mail n'est pas mauvais que pour la productivité" renchérit Bertrand Duperrin en février 2012, six ans après son premier article cité plus haut. A partir de ce constat - c'est une plaie - qu'il estime démontré, Fred Cavazza propose rien moins que comme il "serait extrêmement traumatisant d’envisager une suppression. Qu’importe, l’objectif que l’on peut fixer sera alors de réduire la dépendance en rééduquant les collaborateurs." Et que propose-t-on à la place ? Toute une série d'outils : epaces collaboratifs, messagerie instantanée, microblog, blog internes, visio-conférence, dont je ne vois pas bien en quoi ils corrigeraient le principal reproche que l'on fait au mail, le surnombre de mails parasites et inappropriés. Qu'est ce que ça changerait d'utiliser la messagerie instantanée ou le microblogging, en terme de temps gagné et d'efficacité ? Le mail a au moins l'avantage d'être un point de contact unique, au lieu de forcer les collaborateurs à se rééduquer pour jongler entre ces divers outils. Et on ne voit pas pourquoi ils seraient mieux utilisés. Là où on accuse le mail de disperser l'information entre les différentes boîtes, on la disperse encore un peu plus !!
Mais que reproche-t-on finalement au mail ?
1 - Les Spams, les publicités : ils sont éliminés très facilement, soit par gestionnaire de spam soit à la main. Personnellement, ça me prend à peine 5 minutes par jour pour éliminer les quelques dizaines de mail résiduels qui n'ont pu être triés automatiquement.
2 - Le phénomène de RE-RE-RE-RE-RE-RE-RE-RE....., ou la discussion qui n'en finit pas et qui ne nous concerne pas, ou plus. Ça débute en général par un sujet, avec un grand nombre de personnes concernées. Petit à petit la discussion se poursuit, souvent de manière assez polémique, entre deux d'entre elles, et qui continuent à mettre tous les autres en copie.
Je ne vois guère moyen de s'en débarrasser sinon de les considérer comme Spam à partir du moment où l'on n'est plus concerné (voir plus haut). Si l'on fait partie de cette polémique, prendre son téléphone ou aller voir l'autre, pour régler le problème en face à face.
3 - La gestion de document en attachement :
C'est, de mon point de vue, le seul et vrai problème d'une mauvaise utilisation du mail, qui n'est clairement pas fait pour ça. Qui n'a jamais vécu un travail d'équipe, avec un document à rédiger par divers spécialistes, et qui envoient à tous le document entier, avec leur partie revue et corrigée. Au bout d'une semaine, plus personne ne sait quelle est la version active. A cela s'ajoutent des commentaires dans le texte du mail, qu'il faudrait éventuellement reprendre dans le document. On n'oubliera pas non plus la surcharge réseau, ainsi que des boîtes mail qui se trouvent encombrées de dizaines de versions d'un même document, pesant souvent plusieurs Mo.
A cela, on peut répondre que le mail n'est pas un gestionnaire de configuration, mais qu'il suffit de l'interfacer avec de tels outils. Il est très facile d'insérer un lien vers le gestionnaire de configuration, plutôt que d'envoyer le fichier en attachement. Le fichier pourra alors être appelé directement depuis le corps du mail. Les récalcitrants seront bien obliger de s'y faire en posant des limites à la taille du-dit fichier.
Face à ces inconvénients très faciles à contourner, que d'avantages ! Et ce n'est pas pour rien que toutes les croisades anti-mail échouent depuis si longtemps :
1 - Le mail est asynchrone. Alors qu'on l'accuse de faire perdre du temps, il a toutes les qualités qui permettent d'en gagner. N'est interrompu que celui qui veut bien l'être, car je ne connais pas d'entreprise qui impose de répondre instantanément. Et dire que certains proposent de le remplacer par une messagerie instantanée !
2 - Le mail est une écriture, avec tous les avantages qui y sont attachés : Obligation de formuler clairement ce que l'on veut dire, concision, prise de distance avec les réactions émotives, possibilité de relecture.
3 - Traçabilité. Là encore, Fred Cavazza se distingue en considérant que le fait d'utiliser le mail comme preuve est "abject". On dirait qu'il n'a jamais fait de projet en clientèle ! Mais, oui le mail, utilisé en compte-rendu, fait preuve que l'on a dit, et écrit, relatif à tel fait du projet. Il prouve qui l'a écrit, quand et à qui.
4 - Enfin, et peut-être même surtout, c'est un excellent outil de stockage. Depuis la généralisation du Webmail (Google, Yahoo, ou ce que vous voudrez), on peut accéder à son mail "anywhere, anytime, with anydevice", ce qui est une partie du Web 2.0 dont nos ennemis du mail sont les chantres émerveillés par ailleurs.
A titre personnel, il y a longtemps que j'utilise mon mail (Yahoo!) pour stocker des documents que je sais pouvoir retrouver très facilement. L'explorateur PC est vraiment trop mauvais, et de toute façon il ne trouvera que ce qui existe sur ce PC. Le cerveau humain est sans doute fait de telle manière que l'on arrive à retrouver la trace d'un mail ou d'un document attaché, très facilement, en l'associant à son envoyeur, à son titre, ou à une date approximative. Tout ceci est possible grâce à l'outil de recherche associé au mail. Et j'avoue qu'il m'arrive de m'envoyer des mails, avec un document en attachement, pour le sauvegarder sur ce cloud ou je suis assuré de ne pas le perdre, de le retrouver très facilement et de l'éditer. La dernière fois que j'ai mis un fichier Excel sur Google Drive, je n'ai jamais pu l'éditer !! Je préfère encore me l'envoyer sur mon Yahoo!Mail.
ven.
26
oct.
2012
Pour compléter cette série sur SAP HANA, on peut aller voir des témoignages de clients. Les vidéos proposées par SAP sont disponibles sur :
http://www.sap.com/community/ebook/2012_03_in_memory/en/index.html#/page/1
On y trouvera dix entreprises américaines, six allemandes, trois chinoises et deux indiennes. Seulement une française (une seule anglaise aussi d'ailleurs). Ce qui donne une idée finalement assez exacte de la puissance de ces différentes économies.
Saurez-vous retrouver la seule entreprise française ? Pour vous aider, il y a un indice dans l'article précédent.
ven.
19
oct.
2012
Après une première partie qui relate des travaux de recherche académiques qui sous-tendent et justifient l'appartion de SAP HANA. Nous allons décrire comment ces travaux de recherche se déclinent en pratique à travers l'offre SAP
Tout ce que je viens de décrire provient, pour une bonne part, des travaux de l’Institut Hasso Plattner, et la solution SAP HANA s’est inspirée de ces recherches, à la fois d’un point de vue de la conception du produit et de la stratégie globale SAP :
- D’un point de vue technique en orientant sa gamme logicielle vers une fonctionnalité de traitement de l’information en temps réel sans passer par l’étape parasite du Dataware House
- D’un point de vue commercial en promouvant sa propre solution de base de données qui évite de rétribuer son premier concurrent : Oracle, mais aussi les autres éditeurs de base de données (Microsoft pour SQL Server et IBM pour DB2) qui tirent parti du marché SAP sans apporter de valeur ajoutée pour l’utilisateur. En effet, du point de vue de SAP comme de l’utilisateur final, il n’y a pas de valeur ajoutée spécifique à avoir un SAP sur Oracle plutôt que sur SQL Server ou DB2. Les performances et les fonctionnalités de la solution globale sont équivalentes.
Les travaux de recherche de l’Institut Hasso Plattner, les évolutions technologiques, les tendances du marché des composants (la baisse de prix de la mémoire), et la stratégie concurrentielle de SAP l’ont conduit à développer sa plate-forme du futur qu’il est maintenant possible de commencer à expérimenter. Pour un acteur du marché aussi présent que SAP, la difficulté est de proposer de nouvelles solutions qui tirent parti de travaux de recherche tels que ceux que nous venons de parcourir, tout en préservant les investissements de ses clients et donc en définissant une évolution sans rupture. On ne s’étonnera donc pas que SAP HANA ressemble plus à un compromis et un assemblage de technologies déjà existantes, plutôt qu’à une plate-forme révolutionnaire. De plus, on a vu que sur les quatre piliers qui soutiennent la vision de Hasso Plattner, trois d’entre eux souffrent de contreparties dont il faut réduire les effets, en face des avantages qu’ils apportent :
- La base de données orientées colonnes est nettement avantageuse en lecture. Elle le paie par des performances moins avantageuses en écriture
- La base de données « insert only database » n’est pas adaptée à une activité de forte écriture. Les chiffres produits par SAP ne sont pas représentatifs d’une activité composite
- La base de données en mémoire doit pouvoir être sécurisée sans que le prix à payer soit pénalisant pour sa performance globale.
Les CPUS multi-cœurs qui forment le quatrième pilier sont d’ores et déjà la norme des microprocesseurs et constituent une base solide sur laquelle SAP peut s’appuyer pour construire ses nouvelles architectures.
SAP HANA est donc un compromis entre ces différents facteurs. Sa définition officielle est : “The SAP HANA database is a hybrid in-memory database that combines row-based, column-based, and object-based database technology. It is optimized to exploit the parallel processing capabilities of modern multi-core CPU architectures. With this architecture, SAP applications can benefit from current hardware technologies.” Comme il est difficile de trouver sur les sites SAP sur quelle base technologique il repose, on se contentera de ce que nous dit Wikipédia à ce sujet :
SAP HANA is the synthesis of three separate products – TREX, P*Time and MaxDB.
- TREX (Text Retrieval and Extraction) is a search engine and began in 1996 as a student project at SAP in collaboration with DFKI. TREX became a standard component in SAP NetWeaver in 2000. In-memory attributes were added in 2002 and columnar data store was added in 2003, both as ways to enhance performance.
- In 2005 SAP acquired Menlo Park based Transact in Memory, Inc. With the acquisition came P*Time, an in-memory light-weight online transaction processing (OLTP) RDBMS technology with a row-based data store.
- MaxDB (formerly SAP DB), a relational database coming from Nixdorf via Software AG (Adabas D) to SAP, was added to TREX and P*Time to provide persistence and more traditional database features like backup.
Ces informations nous suffisent pour comprendre comment SAP HANA a été conçu et quel est son avenir prévisible :
- Le mélange de base de données en colonne et en ligne indique un compromis entre les ambitions de performance en lecture et les contraintes en écriture. Il est probable que cette division entre deux types de table et la technique de partition de tables, dont on a vu l’intérêt, va conduire les équipes de développement SAP à réviser profondément le schéma de leur base de données ;
- Le mélange de MaxDB et de Transact In Memory est également un compromis entre les attentes espérées d’une base de données en mémoire et les contraintes de continuité auxquelles ce type de technologie ne permet pas encore de répondre. Ce mélange de deux types de bases de données ressemble à ce que fait Oracle avec la base de données mémoire Timesten acquise en 2005 ;
- La technique de base de données « insert only » a disparu et n’est pas utilisée pour l’instant ;
On a donc un schéma et une organisation des données hybride, en quatre parties, gérées par un processus nommé « index server » :
- Les données au format « ligne » optimisées pour les opérations en écriture, et entièrement chargées en mémoire ;
- Les données au format colonne, manipulées par le troisième composant cité plus haut, c'est-à-dire TREX, qui, d’un moteur de recherche, a évolué vers une base de données orientée colonne ;
- Les données objet, qu’il est difficile de qualifier plus précisément, et qui seraient exploitées par un mécanisme dérivé du SAP Live Cache ;
- Des données sur disque pour celles qui sont plus anciennes et moins appelées.
Ajoutons à cela l’architecture matérielle qui doit être certifiée par SAP et qui repose sur des processeurs Intel Xeon de la famille E7. Certaines présentations avant-vente de SAP affirmaient que SAP HANA avaient l’exclusivité d’instructions CPU spécifiques et présentes uniquement sur cette Appliance. Je n’ai pas eu confirmation de cette information. Les documents Intel font état d’un jeu d’instructions permettant d’optimiser la recherche et la décompression de données. Les développeurs SAP ont pu tirer parti de ce jeu d’instructions pour développer des algorithmes efficaces. Nulle part, il n’est question d’exclusivité.
Les constructeurs certifiés par SAP sont : Cisco, Dell, Fujitsu, Hitachi, HP, IBM et NEC. Chacun propose des configurations de différentes puissances. Voici, à titre d’exemple, la gamme SAP HANA de IBM :
lun.
15
oct.
2012
La montée en puissance de SAP HANA est le résultat de travaux de recherche au niveau de la base de données ainsi que de l’arrivée de nouvelles possibilités offertes par les évolutions du matériel. Dans une première partie, je passe en revue ces travaux de recherche. Une deuxième partie sera consacrée à SAP HANA en tant qu’il tire parti de ces travaux tout en tâchant de conserver la compatibilité avec les plates-formes existantes.
Aujourd’hui les données de l’entreprise sont réparties sur plusieurs systèmes et base de données. Leur cohérence est menacée et l’on sait comme il est difficile de mener au bout un projet d’unification des « master data ». Ne parlons pas des données transactionnelles qui bougent sans arrêt avec l’activité de l’entreprise. De plus, et depuis les travaux de Bill Inmon, qui a popularisé le concept de datawarehouse, les données fraîches et transactionnelles sont localisés dans des systèmes de type OLTP alors que les données d’analyse et de décision en sont extraites pour être retravaillées, transformées et chargées dans des systèmes OLAP. Le schéma classique de ce chemin de données est représenté ci-dessous :
mer.
03
oct.
2012
ITIL apporte tant de progrès à la qualité des services informatiques que l’on rend à nos clients qu’il faut commencer par lui reconnaître cette avancée. C’est d’ailleurs à l’occasion de la suite de mon parcours de formation que me sont venues d’autres types de remarque.
Je viens en effet de suivre un module de formation intitulé PPO (Planification, Protection et Optimisation). On y traite de 5 processus Itil : la gestion de la demande, la gestion de la capacité, la gestion de la disponibilité et la gestion de la continuité. Ce sont de ces deux derniers que je veux parler maintenant.
Je ne sais pas si c’est ITIL qui a inventé la notion de SLA, mais c’est sûrement l’une de ses notions clé qu’il aura réussi à populariser largement. On peut d’ailleurs en discuter certaines limites comme je l’ai fait récemment . J’attendais donc avec intérêt de rentrer dans le détail du processus de gestion de la disponibilité. De plus, d’un point de vue de ma carrière professionnelle, cela fait sans doute plus de 15 ans que j’ai eu affaire à ce genre de question. C'est-à-dire, comment ajuster au mieux le compromis entre une demande souvent excessive (24/24 7/7), des technologies parfois défaillantes, des équipes à former et de nouvelles habitudes à prendre.
Chez Sun, comme chez d’autres sans doute, on appelait ça les 3 Ps : People, Process, Product. Et comme l’on vendait des « products », on était très fier d’insister sur le fait que c’était le moins important des 3 Ps. J’ai été heureux de retrouver cette notion dans l’introduction au livre ITIL consacré à la conception de services (Service Design). Les 3 Ps y sont maintenant 4 puisque ITIL y ajoute le Partner. Et si l’on insistait sur le People, c’est bien que les statistiques de notre support démontrait que la plupart des pannes provenait de fautes humaines ou de procédures et documentations mal rédigées ou mal comprises. Autrement dit, les défaillances matérielles ou logicielles ne représentent que 20% des causes de panne. Il m’aurait paru intéressant de décliner les 3, devenus 4Ps tout au long des différents processus du service design. Au lieu de cela, on a droit à un ensemble d’activités à mener qui n’ont rien de spécifique à la question de la disponibilité.
dim.
16
sept.
2012
Aurélien Bellanger aurait dû se contenter de la première partie de son roman : Minitel. Il y a là un vrai roman à écire et il l'a écrit. Après, ça devient n'importe quoi.
Le Minitel, ou l'ascension de Pascal Ertanger dans cette nouvelle industrie : son alliance avec Houillard, comptable et blanchissseur d'argent de la pègre corse dans l'industrie du sexe, son amour avec Emilie, stripteaseuse, sa lutte contre l'emprise de France Telecom. Tout ça n'est pas indigne du roman balzacien qu'Aurélien Bellanger a voulu écrire. On pense parfois aux "Illusions perdues" et aux personnage de Lucien Chardon, futur Rubempré, et à David Séchard qui voulait révolutionner l'imprimerie. On trouve alors des personnages, une intrigue. Le personnage d'Emilie n'est pas indigne de la Coralie de Balzac. Ce que fut le Minitel, comment des entrepreneurs détournèrent l'objectif très fade de pouvoir disposer d'un annuaire électronique, vers la mise en conversation de millions de Français, tout ça est réussi et l'on se dit qu'on tient là, enfin, un roman qui nous parle de notre époque, et de nous, au lieu des sempiternelles confessions autobiographiques ou des réglements de compte familiaux Et puis le Minitel fut alors la grande aventure française, où l'on ne se contentait pas d'essayer de suivre.
Pourquoi Steve Jobs est-il un personnage de roman et non pas Bill Gates ? Parce qu'il s'est fait viré de sa propre boîte, que NeXt fut un échec, qu'Apple a failli disparaître, qu'il l'a fait renaître, et qu'il est mort jeune d'un cancer. On n'oubliera pas qu'il était totalement caractériel, excessif en tout, et pouvait se montrer un vai salopard. De Bill Gates, on ne peut rien dire, si ce n'est qu'il est parti au bon moment de Microsoft, qu'il se consacre aux bonnes oeuvres, et qu'il est sans doute très heureux. Un modèle de réussite et de sagesse, mais sûrement pas un personnage de roman.
Pascal, notre héros, est un Bill Gates à la française. Il prend le bon virage Internet jusqu'au 2.0. Tout lui réussit. Ses accointances avec l'industrie du sexe, finissent bien par lui coûter un procès, et même de la prison avec sursis. Ca n'a pas l'air de l'avoir marqué plus que les amendes qu'a dues payer Microsoft à l'époque où ils étaient encore hémégoniques. Le livre n'est plus alors qu'une série de rencontre avec les grands noms d'Internet, prétexte pour en parcourir les différents épisodes et avatars.
On enjambe les deux dernières parties du roman, en diagonale, de plus en plus vite, sans parvenir à distinguer la part du roman, de la science-fiction la plus enivrée d'un assemblage de mots dénué de sens : "Le projet, tel que le lui avait présenté Vinski, consistait à implanter des ordinateurs sur la courbe hyperbolique de l'espace-temps pour qu'il dessinent ensemble un graphe aux arêtes exponentielles : plus l'on s'approchait des limites du monde, plus le réseau permettrait d'effectuer des calculs distribués efficaces [..] Si l'on disposait un filet d'ordinateurs sur l'horizon des événements d'un trou noir, la distorsion de l'espace-temps qu'il subirait augmenterait la puissance de traitement du réseau, qui serait déchiré en son centre par un puits nodal de dimension infinie, d'où s'échapperaient des jets d'information continus."
C'est alors que le lecteur a bien l'impression d'un trou noir, où cette théorie de l'information devient un tourbillon de mots posés là par hasard, et qui disparaissent sans laisser de sens ni d'envie d'aller plus loin. Il y a pourtant bien des choses à dire sur le 2.0 et comment toutes nos vies sont effectivement capturées dans les trous noirs nommée Google ou Facebook sans que l'on sache ce qu'elles deviennent, une fois absorbés par ces aimants. Mais, Auréline Bellanger ne domine alors plus du tout son sujet, se contentant de divaguer autour des théories de Shannon et de la machine de Turing. Visblement il ne sait plus de quoi il parle. Ce n'est plus que du bruit, sûrement pas de l'information, et plus du tout un roman.
jeu.
02
août
2012
Comment dit-on que les cordonniers sont les plus mal chaussés en anglais ? The cobbler's child is always the worst shod. C'est l'enfant du cordonnier, plus que le cordonnier lui-même qui est mal chaussé.
Je ne sais si c'est le père ou le fils, mais dans le monde très britannique de ITIL, où l'on apprend à gérer efficacement une production informatique, on a bien du mal à délivrer les diplomes dans un délai raisonnable. Des diplomes que l'on paie fort cher, non pas pour les obtenir, mais pour suivre les formations obligatoires pour pouvoir les passer. Mon objectif étant d'obtenir l'expertise ITIL V3, il faut passer toute une série de certifications intermédiaires et passer par les chemins représentés sur le schéma suivant :
jeu.
15
mars
2012
Je suis depuis le début mars 2012 chez Casino à Saint-Etienne avec les objectifs suivants :
jeu.
01
mars
2012
Dans le cours de ma lecture de « Race against the machine », dont j’ai rendu compte récemment, j’ai rencontré une explication à ce creusement des écarts que l’on observe depuis près de 30 ans. Creusement des écarts de revenus, creusement des écarts à l’intérieur même de ceux qui réussissent financièrement et socialement, creusement des écarts entre les revenus du capital et les revenus du travail. Les trois phénomènes semblent d’ailleurs s’alimenter mutuellement pour se renforcer encore. Tout se passe comme si une minorité, de plus en plus faible en nombre, arrive à tirer parti du système en capturant l’essentiel des fruits de la croissance ; quand il y en a !! « According to economist Emmanuel Saez, the top 1% of US households got 65% of all the growth in the economy since 2002. In fact, Saez reports that the top 0,01% of households in the US , that is the 14588 families with income above $11,477,000 saw their share of national income double from 3% to 6% between 1995 and 2007.” On pourrait trouver des chiffres comparables en Europe, peut-être moins accentués, mais avec la même tendance de creusement des écarts.
jeu.
23
févr.
2012
Everybody knows the famous story of the inventor of the game of chess asked by the emperor to choose a gift for his invention. The man asks for a quantity of rice calculated following this rule: One grain of rice on the first square, 2 on the second, 4 on the third and so on until the 64th. The emperor was astonished of this demand, thinking this was a ridiculously small reward. But square after square, he realized his error. We know that (2^64) -1 is a huge number, and even if this number counts grains of rice, this approximately makes more than 3 centuries of the current annual production of rice worldwide. But if we stop the count at the 32th square, the number is more reasonable for a human scale and is equivalent to 200 tons of rice.
lun.
20
févr.
2012
En faisant le ménage parmi les applications et ne gardant que celles qui sont vraiment utilisées et qui participent aux objectifs de l'entreprise.
C'est ce veut nous démontrer ce white paper, promu par Computer Associates, où comment la gestion du portefeuille d'applications peut aider à se débarasser du syndrome "ça peut toujours servir", qui encombre nos placards et les datacenters.
mar.
14
févr.
2012
Dans la pratique, le SLA tend à se confondre avec un niveau de disponibilité exprimé en pourcentage de temps. Et l’on parle de 99,xxx avec le plus de « neuf » possibles. Les derniers « neuf » sont les plus difficiles à atteindre.
mar.
31
janv.
2012
« Faire ce qu’on dit et dire ce qu’on fait », c’est une règle de base pour la gestion de projet dans le domaine de la communication. . Ce qui est vrai pour un texte, d’après Jean Guitton « Le secret de tout art d'exprimer consiste à dire la même chose trois fois: on dit qu'on va la dire, on la dit, on dit qu'on l'a dite » est vrai aussi pour une tâche d’un projet : « On dit qu’on va la faire, on la fait, on dit qu’on l’a faite ». Est-ce que ça suffit à résumer la communication au sein d’un projet ? Évidemment non. Ça répond juste au besoin de cohérence entre les faits et ce que l’on en rapporte. Mais ça ne répond pas suffisamment au QQOQCCP :
Le plan de communication d’un projet ne peut pas, ne doit pas, chercher à couvrir tous les cas de figure. Il peut poser un certain nombre de règles, par exemple celles-ci que l’on peut trouver sur http://www.gestiondeprojet.net/articles/plan_communication.html
Il est d’ailleurs rare qu’un plan de communication puisse atteindre ce degré de précision, et surtout être appliqué à ce même niveau. À ce plan de communication formelle, il faut rajouter des techniques, plus informelles, et qui relèvent plus de la conversation que de la communication :
Mais de quel moyen le chef de projet dispose-t-il pour s’assurer que son plan de communication est respecté, et surtout s’il est efficace ?
jeu.
26
janv.
2012
Quelle est la différence entre, disons, un verre d’eau et un verre de Saint-Emilion ? En plein désert, et proche de mourir de soif, il n’y en a pas. Les deux vont étancher la soif et c’est tout ce qu’on demande à ce moment-là. Dans des conditions moins extrêmes, on sait bien que l’un et l’autre ne réponde pas du tout à la même demande. L’un sert juste à maintenir le bon niveau d’hydratation, un besoin vital auquel on pourvoit habituellement sans même y penser, quand l’autre est bu pour le plaisir. Le pouvoir hydratant du vin est réel, mais il est très accessoire. Voilà à quoi me fait penser cette vidéo : « Communication gap between IT and the business ».
jeu.
19
janv.
2012
Comment s'y retrouver dans tous ces standards ? Et le DSI de poursuivre : « J'ai formé mes équipes à ITIL, et maintenant vous venez me parler de Togaf, je n'y comprends plus rien. »
Et c'était aussi un sujet proposé chez Arismore à l'occasion d'une réunion d'architecte d'entreprise à laquelle je participais récemment. Comment intégrer Togaf avec les autres standards ?
J'ai proposé ce schéma qui a reçu un accueil très positif. Je vais donc le commenter : Lire la suite
lun.
16
janv.
2012
ZFS est apparu avec Solaris10. Le but est d'intégrer, dès la conception, les fonctionnalités d'un File System avec un gestionnaire de volumes : Mirroring, Raid, Snapshot,.. Le tout est livré avec Solaris10 sans coût de licence supplémentaire.
Voici une procédure de PRA avec SAP sur ZFS, et réplication de données pilotée par les outils de la baie de disques. C'est une de mes dernières réalisations (Les noms ont été anonymisés)
ven.
13
janv.
2012
Avec Togaf9 pour l'architecture d'entreprise, je m'intéresse aussi à la "soute", autrement dit au monde de la production. J'ai donc entamé un cursus ITIL en V3. Et ça commence par les fondations, avec un nouveau diplôme : ITIL V3 foundation "with a score of 88% where 65% is needed". Pas mal non !!