samedi 30 novembre 2013

Microsoft s’invite sur le marché de la gestion de la mobilité d’entreprise

A lire sur: http://www.lemagit.fr/actualites/2240208715/Microsoft-sinvite-sur-le-marche-de-la-gestion-de-la-mobilite-dentreprise

Valéry MarchivePublié: 08 nov. 2013

Microsoft ne pouvait pas se permettre de rater le train de la gestion de la mobilité d’entreprise (Entreprise Mobility Management, ou EMM). Mais reste à savoir si son nom suffira à séduire les prospects.
La plateforme d’EMM de l’éditeur intègrera Windows Server 2012 R2, System Center Configuration Manager 2012 R2, et l’outil Cloud Windows Intune. Elle intègrera en outre des des outils de MDM (gestion des terminaux mobiles) et de MAM (gestion des applications mobiles), selon Rob Tiffany, responsable de la stratégie mobilité de Microsoft.
Et si Microsoft est tout nouveau sur ce marché de l’EMM, il profite d’un avantage : la familiarité. Les entreprises qui utilisent System Center pourraient être particulièrement enclins à tester la plateforme d’EMM de l’éditeur.
« Microsoft n’est pas le premier à arriver sur ce marché, » explique Benjamin Robbins, analyste mobilité du cabinet Palador, « mais ils profitent d’un avantage fonctionnel, avec notamment ActiveDirectory, System Center, et le Cloud. Les DSI sont comme l’eau, elles cherches à suivre la voie qui offre le moins de résistance. Elles pourraient être tentées d’essayer cela plutôt que de miser sur l’inconnu. »
Le processus consistant à entrer sur le marché de l’EMM a été long chez Microsoft, selon Bob Egan, analyste du marché de la mobilité et fondateur et Pdg du groupe Sepharim. « Lentement, ils ont travaillé sur le volet de l’interface mobile, » juge-t-il, ajoutant qu’une plateforme d’EMM constitue un composant nécessaire de l’offre de l’éditeur.
Tiffany explique que ce lancement est en préparation de longue date. « Nous renforçons nos capacités de MDM et de MAM depuis plus d’un an, » souligne-t-il. « Et nous créé un connecteur qui permet à System Center de s’intégrer à Intune. » Et d’estimer fournir aux entreprise « l’essentiel du MDM » dont les entreprises ont besoin.
Mais surtout, avec sa plateforme d’EMM, Microsoft entend mettre à profit « la pile complète » de ses capacités entreprises. « La clé, ce sont les données. Nous devions nous assurer que le système soit tel que les bonnes personnes puissent accéder aux données, et les autres non. »
Mais alors que la nouvelle plateforme de Microsoft peut apparaître comme une suite, Robbins estime que Microsoft et l’ensemble des acteurs de l’EMM ont encore du chemin à parcourir pour proposer aux entreprises les meilleurs services. « Il y a là quelques entreprises comme AirWatch qui proposent les outils nécessaires à la surveillance des contenus sécurisés. C’est bien mais toute cela reste isolé et manque d’intégration à l’échelle de l’entreprise. »
La nouvelle plateforme d’EMM de Microsoft est immédiatement disponible pour les utilisateurs de Windows Server 2012 R2.

Le consommateur moyen a définitivement disparu

A lire sur: http://www.e-marketing.fr/Thematique/Etudes-1007/Breves/Le-consommateur-moyen-a-definitivement-disparu-231402.htm

Publié le  par 

Un consommateur caméléon avec des comportements de plus en plus complexes pour affronter une crise durable. C'est le constat de Kantar Worldpanel pour 2013 : des arbitrages qui épargnent les produits de grande consommation, stabilité des dépenses chez les jeunes, valorisation chez les seniors...

Le consommateur moyen a définitivement disparu
"2013, un consommateur caméléon" . A l'occasion de son dernier Media Morning, Kantar Worldpanel a fait le point, la consommation en France. Le contexte de l'année n'a pas été favorable à la consommation : des à-coups dans l'évolution du PIB en volume (-0,2% pour le 1er trimestre, +0,5% pour le 2ème, -0,1% au 3ème) ; une météo chaotique (hiver maussade, printemps le plus froid depuis 1987, bel été) ; hausse du chômage... Seul point positif : le redressement du pouvoir d'achat par unité de consommation à +0,8% au 1er trimestre, +0,3% au 2ème, après une baisse de 1,5% sur 2012.
"L'envie de dépenser n'est toujours pas au rendez-vous et la perception de leur pouvoir d'achat par les ménages est globalement plus négative au second trimestre", constate Gaëlle Le Floch, strategic insight director, en poursuivant : les arbitrages se poursuivent dans de nombreux secteurs hors-alimentaires.

Les PGC sont épargnés ("il faut manger pour vivre" pour reprendre la première partie de a maxime de Socrate !). Sur l'année arrêtée à début octobre, les ménages dépensent plus qu'en 2012, mais, constate Kantar Worldpanel, cette hausse en valeur est uniquement liée à la hausse du prix payé. Les volumes baissent (17 articles par ménage en moins) mais la fréquence d'achat est stable, en très légère hausse.
Au cumul annuel 3 ème trimestre : les catégories qui s'en sortent le mieux sont :
- le liquide (+0,9% en volume ; +3,8% en valeur)
- L'hygiène-beauté (+0,7% en volume ; +1?9% en valeur)
- L'épicerie (+0,7% en volume ; +1,9% en valeur).
En revanche : l'entretien (-2,9% en volume ; -0,3% en valeur) et le frais libre service (-0,6% en volume ; +0,4% en valeur) s'en sortent moins bien."Il n'y a pas de report sur les produits de base à cuisiner mais plutôt sur le snacking !", note Gaëlle Le Floch. Et la tendance de la baisse des MDD et du HD se poursuit : les MDD totalisent (CAMT 3ème trimestre) 32,6% en valeur (vs 33,2% pour la même période en 2012) et le HD 12,3% (vs 13%).
Conséquences : les grandes marques tirent leur épingle du jeu avec en moyenne une croissance de 3% des points de contact pour le Top 50. Et la côte d'amour observée sur la moyenne des 700 marques trackées dans Prométhée est de 48%. Les grandes marques sont également reconnues pour leur dynamisme (14% vs 8% pour les MDD), leur originalité (13% vs 5% pour les MDD), leur qualité (36% vs 28% pour les MDD) et leur confiance (33% vs 28% pour les MDD).

Un consommateur toujours très sensible aux promotions

Cela n'empêche pas le consommateur de rechercher toujours les bonnes affaires. La sensibilité aux promotions n'a jamais été aussi forte : 54,8% vs 47,6% en 2012.
Quels enjeux pour demain ? "Un des changements majeurs concerne les générations. Les plus de 50 ans devraient continuer à dépenser plus. Ce qui est logique car, d'après nos projections, les plus de 65 ans devraient représenter plus de 26% de la population française en 2050 contre 16,7% en 2010", répond Gaëlle Le Floch en poursuivant "Cette cible devrait être clé dans la valorisation des marchés. Seule inconnue : quel sera leur pouvoir d'achat à l'avenir avec la problématique des retraites ?".
A l'inverse, la déconsommation des jeunes devrait se poursuivre. Cette population des moins de 30 ans, très touchée par le chômage (25,7%, +3,4 point sur un an) a des habitudes de consommation décalées par rapport à la moyenne des Français : un budget logement plus important dans le budget global (21,3% vs 14,1%), un budget alimentaire plus faible et un budget transports légèrement plus élevé.
Cette cible est la plus en attente de comparaison et de contrôle. Et à ce titre, le drive est une réponse parfaitement adaptée (les moins de 35 ans sont plus de 36% à acheter en drive vs 23% pour la moyenne). Les jeunes sont ceux chez qui la liste de courses a le plus progressé, de 38% en 2006 à 50% en 2013. Ce sont aussi ceux qui comparent le plus les prix entre les marques (78%, +8 points). Mais (le consommateur n'est pas un être rationnel !) ce sont aussi ceux qui se laissent le plus tenter (25% achètent juste parce qu'ils voient les produits en rayon).
"Le consommateur moyen n'existe plus, conclut Gaëlle Le Floch. On a devant nous un consommateur investi, aux multiples attentes, parfois contradictoires". Quelques données pour étayer ses propos : 30% des consommateurs sont des "ChronoVictims" ; pour 46%, le prix est le critère de choix le plus important... et 47% sont prêts à payer pour plus de qualité ; 53% essayent d'acheter des produits locaux aussi souvent que possible... et le Made in France est mentionné comme raison d'achat pour 85% des foyers ; 54% aiment essayer les nouveaux produits ; 36% préfèrent aller dans les petits magasins près de chez eux plutôt qu'en grande surface ; 72% sont inquiets de la sécurité alimentaire des produits...
Les conseils de Kantar Worldpanel devant ces attentes de plus en plus complexes : continuer d'investir car, même en temps de crise, cela fonctionne auprès des consommateurs.

Jim Snabe, SAP : « la simplification des logiciels et la mise en réseau sont les clés du futur »

A lire sur: http://www.lemagit.fr/actualites/2240209821/Jim-Snabe-SAP-la-simplification-des-logiciels-et-la-mise-en-reseau-sont-les-cles-du-futur

La rédactionPublié: 25 nov. 2013

De passage à Paris à l’occasion d’un CIO Summit organisé par SAP France et qui lui a permis de rencontrer nombre des DSI des organisations majeures en France (un grand nombre de représentants d’entreprises du CAC 40 étaient présents) Jim Snabe, co-PDG de l’éditeur allemand pour quelques mois encore, en a profité pour rencontrer les journalistes français. L’occasion pour une figure historique du groupe de faire le point sur l’évolution  du rôle de DSI, sur la rupture technologique à l’œuvre autour du cloud computing et du big data, sur le positionnement de SAP dans ce contexte et enfin sur sa vision et les raisons qui l’on conduit à renoncer au co-pilotage du groupe - au côté de l’Américain Bill McDermott – pour se lancer de nouveaux défis.
Mutation accélérée du rôle de CIO
En guise de propos introductif, Jim Snabe estime tout d’abord que les derniers mois ont été l’occasion de passer un cap qualitatif. « Toutes les organisations sont désormais concernées par l’innovation liée au IT, pas seulement les entreprises du secteur informatique. Les PDG sont de plus en plus attentifs à leurs systèmes d’information dans leur globalité ».
Dans ce contexte le toujours co-président de SAP estime que « les CIO ont déjà un rôle différent à jouer par rapport au leur il y a quelques années. Il s’agit désormais pour eux – et ce sera encore plus le cas dans le futur – d’être des apporteurs d’innovations directement liées au modèle économique ou au cœur de métier des organisations. »
Cette prise de pouvoir inéluctable pour les CIO, Jim Snabe la juge en deux temps : « mettre en œuvre les technologies permettant de réduire les coûts du SI puis utiliser les marges ainsi dégagées pour investir dans l’innovation. Dans ce contexte, deux éléments technologiques sont déterminants : le cloud computing et les outils liés aux datas. »
L’innovation technologique au cœur du développement économique
L’innovation doit donc être au cœur du SI. L’occasion pour Jim Snabe d’évoquer un sujet qui lui tient à cœur : l’Europe. Visiblement un sujet d’inquiétude. « Si je regarde ce qui s’y passe, on doit admettre que l’on ne peut pas être compétitif au niveau du prix. En revanche, on peut l’être sur la productivité et l’innovation technologique. Le principal problème est que l’on ne sait pas produire et détecter les compétences suffisamment tôt. Cette activité de détection, qui est la clé, implique qu’il faille éduquer les gens très tôt, notamment au niveau des plus jeunes. D’ailleurs, SAP soutien un programme en ce sens, spécifiquement en Europe. »
Une analyse que ce capitaine danois d’une entreprise largement globalisée tient à préciser. L’Europe présente ainsi de nombreux atouts « notamment son système éducatif », mais doit faire face à un défi majeur : « la difficulté qu’il y a à échouer. Il ne faut pas avoir peur de se tromper. Les Américains, notamment dans la Silicon Valley, l’ont bien compris et se nourrissent d’échecs. Tout comme en Asie. En Europe, il faut tenir compte de ce paramètre et pousser les jeunes – sans peur – vers l’innovation dans le business. » Jim Snabe déplore notamment qu’alors que le continent est traversé par une crise de l’emploi particulièrement forte, des centaines de milliers de postes liés à l’IT ne sont pas pourvus.
Concernant l’innovation, Jim Snabe estime que le plus grand changement auquel nous devons faire face est la vitesse à laquelle elle se développe. « Chez SAP ; nous sommes passés de cycles de mise à jour de 18 mois à des cycles de 6 mois. A ce niveau la mobilité, le travail sur les data et le cloud computing ont été les principaux défis à relever. Ces chantiers ont en plus étaient menés de front par le groupe ! Nous avons eu du retard sur ces différentes approches mais aujourd’hui, sur un segment majeur comme l’In-Memory par exemple, nous sommes leaders. Mais au-delà de la technologie, le changement est dans la culture de notre secteur qui doit être de plus en plus orientée sur le client plutôt que sur le produit. »
Une vision pour le futur de SAP
« Je vois deux clés pour le futur : en premier la simplification. Cela signifie des efforts de notre part sur le design de nos applications, sur la manière dont nous développons et sur celle dont nous distribuons nos logiciels. En second le réseau. Il s’agit de développer des fonctions applicatives favorisant l’interaction entre les organisations afin de favoriser la réduction des coûts à l’échelle des échanges mondiaux et d’optimiser la gestion des échanges inter-entreprises et au-delà des entreprises avec les consommateurs. Renouveler la manière dont l’on touche les consommateurs sera d’ailleurs déterminant. »
Après les rachats très orientés techno et métiers des dernières années qui ont vu le groupe étendre son rayonnement, doit-on s’attendre à voir SAP investir dans des technologies grand-public ? Jim Snabe ne s’aventure pas si loin et tient même à préciser que SAP n’a pas vocation à faire du B-to-C. « Mais nous développons nos solutions avec une vision de plus en plus accès sur le B-to-B-to-C. » Il inclut d’ailleurs le secteur public dans cette vision. « Nos innovations sont utiles pour les consommateurs mais également pour le citoyen dans leur capacité à rationaliser les actions des organismes publics. »
Et après ?
Au mois de mai 2014, Jim Snabe rendra son tablier de co-PDG à Hasso Plattner – qu’il rejoindra au conseil de surveillance. Bill McDermott deviendra l’unique dépositaire des opérations du groupe. Pour Snabe, « après 22 ans chez SAP dont 4 ans à la tête du groupe, il s’agit de faire autre chose tout en ayant l’opportunité de contribuer à l’avenir du groupe au sein du conseil de surveillance ». Nommé récemment au conseil de surveillance de Siemens – autre géant allemand –, il pourrait rebondir au sein de ce conglomérat. Ou s’investir sur des projets européens, un sujet qui lui tient visiblement à cœur, tout comme celui du développement durable. « Je crois dans le progrès technologique mais nous avons fait de nombreuses erreurs : notamment celle qui a consisté à remplacer l’homme par la machine en acceptant de consommer beaucoup de ressources pour cela. A l’avenir il faudra changer de modèle pour que le prochain soit soutenable. »

Mobilité en France : La DG s’implique mais la sécurité inquiète

A lire sur: http://www.lemagit.fr/actualites/2240209873/Mobilite-en-France-La-DG-simplique-mais-la-securite-inquiete

La rédactionPublié: 25 nov. 2013


Sous l’égide de SAP, Jemm Research publie une étude sur la mobilité et les entreprises en France afin d’évaluer où en sont les entreprises et de tenter d’analyser les grandes tendances. L’occasion également de déterminer où demeurent les principaux freins au développement de technologies dont l’importance ne fait plus de doutes mais dont le potentiel demeure souvent sous exploité. Associé à cette initiative LeMagIT vous propose de revenir sur les principaux enseignements de l’étude mais également de découvrir un ensemble de ressources associées sur le site www.observatoiremobilite.com et de prendre connaissance des principaux enseignements à travers une infographie globale et didactique.
La mobilité devient stratégique
Premier enseignement de cette étude selon Jemm Research, « les entreprises entendent cette forte demande des clients et des collaborateurs et se mettent en ordre de marche pour y répondre. Elles se préparent aux nouveaux usages induits par les technologies (Cloud Computing, Big Data, réseaux sociaux, mobilité), revoient les outils de travail (2013 est l’année où l’accès à Internet se fera majoritairement au travers de smartphones et de tablettes au détriment des PC), repensent la relation entre l’entreprise et ses collaborateurs (nomadisme, BYOD...). » Les directions générales ont compris cette demande, en perçoivent tout le potentiel et les risques associés et s’impliquent dans le suivi de l’opération. Un DG sur trois est ainsi directement impliqué dans la stratégie mobilité qui demeure cependant l’apanage des DSI dans plus d’une entreprise sur deux.
De fait, à ce jour, l’initiative reste pour l’essentiel technique et est pilotée par la DSI. Selon Jemm Research, « les directions métiers ne se sont pas encore appropriées les volets de l’organisation et de la relation client ». Une fois les plates-formes techniques déployées, on peut cependant supposer que le management métier (ventes et marketing pour les clients, ressources humaines pour les collaborateurs) s’appropriera la démarche et prendra part à son pilotage.
La sécurité en question
Côté freins – notamment quant à la généralisation des usages et de l’initiative côté métier –, on retrouve les nouveaux risques de sécurité induits par les outils mobiles. Avec cette ouverture du système d’information, de nouvelles problématiques apparaissent que l’entreprise doit adresser. « Elle reste extrêmement prudente sur cet aspect, surtout quand sa responsabilité juridique est en jeu en matière de protection des données personnelles ou de conformité réglementaire. »
Pour Frédéric Puche, Business Development Enterprise Mobility chez SAP, « l’étude reflète clairement ce que nous constatons sur le marché avec un niveau de maturité mitigé par rapport à un déploiement massif d’applications mobiles. La tendance est toujours à l’étape 1 de tout projet de mobilité : la sécurisation des terminaux avec pour objectif premier le déploiement maîtrisé des outils collaboratifs. La clé est simple et dans une étude récente Gartner pose la même analyse : rien n’est possible sans avoir sécurisé les terminaux ».
 
Des chantiers qui vont crescendo
Reste que les chantiers sont tout de même nombreux. Le premier d’entre eux mis en œuvre par les DSI, selon Jemm Research, concerne le support des collaborateurs mobiles avec d’abord les outils de collaboration (courrier électronique, agenda et annuaire) puis des solutions simples de workflow. En revanche, une dimension souvent importante de la mobilité en entreprise bien connue dans d’autres pays – le BYOD – semble ne pas prendre dans l’Hexagone. « Nos entreprises refusent dans leur grande majorité l’utilisation professionnelle des terminaux personnels (BYOD : Bring Your Own Device). Et c’est une différence par rapport aux entreprises d’Amérique du Nord ou d’Asie. Pour Jemm Research, il s’agit peut-être d’un moyen de reléguer le chantier Données personnelles / Données professionnelles à une date ultérieure. Autre axe encore au stade embryonnaire : l’offre – par les entreprises françaises -  d’applications mobiles à destination des clients reste limitée, réservée aux entreprises les plus avancées dans leur projet Mobilité.
Frédéric Puche estime cependant que les DSI ont désormais une vision quant aux leviers possibles via la mobilité. « On peut distinguer trois orientations possibles qui se complètent. Tout d’abord le B-to-E (ou Business to Employees) : il s’agit là de l’ensemble des applications de productivité ou de communications internes ainsi que des outils de validation de processus, qui doivent être disponibles sous tous terminaux, en mode connecté ou déconnecté. Ensuite un autre corpus applicatif à porter en environnement mobile concerne les applications B-to-B (ou Business to Business). Il s’agit avant tout d’équiper les équipes commerciales d’outils relationnels permettant d’optimiser à tout moment la relation client. Enfin, troisième et dernier levier et certainement celui qui demandera – au vue de l’étude mais également selon ce que l’on observe dans les entreprises utilisatrices – le plus de maturité : le B-to-C (ou Business to Consumer) ou B-to-B-to-C. Il s’agit à ce niveau pour les éditeurs de solutions de permettre à leurs clients d’interagir avec le client final dans un contexte commercial où le smartphone notamment se trouve être l’outil le plus proche et personnel du consommateur. »
Retrouver l’Observatoire 2013 de la mobilité dans les entreprises en France (infographies, entretiens avec des DSI, retour d’expérience, vidéos, centre de ressources…)
Télécharger l’intégralité de l’étude Jemm Research

L’impression 3D, c’est facile !

A lire sur: http://www.usine-digitale.fr/article/l-impression-3d-c-est-facile.N218333#xtor=EPR-4

Par  -
L’impression 3D, c’est facile ! © D.R.
Au-delà de leur caractère révolutionnaire, les imprimantes 3D sont-elles vraiment simples à utiliser ? La réponse est oui. Pour le prouver, la rédaction de L’Usine Nouvelle a testé l’imprimante Easy 120, du fabricant Up!, distribué en France par A4 Technologie. Dans cette vidéo, nous avons réalisé une pièce impossible à fabriquer avec les méthodes classiques (une sphère mobile dans un cube). A partir du modèle CAO, la machine a construit elle-même tous les supports nécessaires à la construction de la pièce et fait en sorte que ces supports puissent être détachés une fois l’impression terminée. Bilan : aucune compétence, autre que celle de savoir se servir d’un logiciel de CAO, n’est nécessaire. Si l’impression 3D peut vous aider à concevoir vos prototypes, n’hésitez plus à vous lancer, d’autant que la technologie devient accessible (moins de 2000 € pour le modèle de machine testé).

TÉLÉPHONES MOBILES : LA LUTTE ANTIVOL S’INTENSIFIE EN FRANCE

A lire sur: http://www.itespresso.fr/telephones-mobiles-la-lutte-antivol-sintensifie-en-france-70178.html

La police et la gendarmerie nationale, ainsi que la douane française, vont pouvoir accéder à la base mondiale des téléphones volés, en vertu d’un protocole d’accord signé avec la GSM Association.


telephone-mobile-vol-france
Représentées par leurs directeurs généraux respectifs, police, douane et gendarmerie nationale ont signé, le 12 novembre dernier, un protocole d’accès à la base mondiale des téléphones volés.
Créé et financé par la GSMA (‘Global System for Mobile Communications Association’), ce fichier est actualisé en temps réel.
Il regroupe les numéros d’identité – IMEI, pour ‘International Mobile Equipment Identity’ – de tous les appareils nomades équipés d’une carte SIM et déclarés volés.
Il peut s’agir non seulement de smartphones et de tablettes, mais aussi d’ordinateurs portables, de clés 3G/4G et d’autres objets connectés.
Tout terminal dont l’IMEI est inscrit dans la base ne pourra plus accéder aux réseaux mobiles du pays dans lequel il a été déclaré, que ce soit pour les communications voix ou l’usage de l’Internet mobile.
Selon les termes du communiqué émis par le ministère de l’Intérieur, « les enquêteurs français [disposeront, à court terme], d’un outil supplémentaire significatif pour lutter plus efficacement contre le vol et le recel sur le territoire ainsi qu’aux frontières« .
Mais le système ne sera opérationnel qu’à condition que les utilisateurs aient noté au préalable leur IMEI.
Celui-ci se trouve généralement sur la batterie, dans le menu des paramètres système ou encore en tapant *#06# dans le cas d’un téléphone. Il figure parfois également sur la facture d’achat.
La signature de ce protocole s’inscrit dans la continuité du partenariat de 10 ans noué en 2011 entre la Fédération française des télécoms et le ministère de l’Intérieur.
Depuis lors, le blocage des mobiles est directement requis par les forces de l’ordre auprès des opérateurs concernés, de manière systématique et automatisée.
Des campagnes d’information et de prévention ont été lancées à cette occasion, avec notamment le site InternetMobile volé, mobile bloqué, destiné à sensibiliser les utilisateurs sur l’importance, en cas de vol, du blocage de la ligne… mais aussi du téléphone.
La question se pose aussi chez les constructeurs, lesquels se heurtent néanmoins à la farouche opposition des grands opérateurs.
C’est le cas de Samsung, qui compte généraliser, dans son offre de smartphones, un système de ‘kill switch’ permettant de rendre un appareil inutilisable à distance.
Cet antivol déplaît à AT&T, Sprint, T-Mobile US, United States Cellular et Verizon Wireless, qui, en refusant son installation, favoriseraient la vente de contrats d’assurance, mais aussi de terminaux.
—— 

Quelle évolution pour les applications liées au cloud ?

A lire sur: http://www.informatiquenews.fr/quelle-evolution-pour-les-applications-liees-au-cloud-6998

Paul Maritz, l’ex patron du développement de Microsoft et désormais pdg de Pivotal, une spin off de VMWare, avait résumé assez simplement la problématique du Cloud en quatre points lors d’une conférence logicielle , en mai dernier à Las Vegas.
maritz_paul_vmware_370
1- l’intégration avec les applications existantes « L’interaction nécessaire avec les anciennes applications et une excellente compatibilité avec l’infrastructure existante est une nécessité absolue.  «il faut relier l’existant et le dimensionner selon les besoins avec le cloud, d’où l’expression souvent utilisée  de liens « élastiques ».
2- la gestion des gros volumes Pouvoir s’interfacer sur des stockages hétérogènes de très gros volumes de données , conditionne la taille des outils et leurs modes de fonctionnement.
3- la gestion des évènements et le RAD La gestion de gros volumes d’événements en temps réel, associée à une télémétrie lourde induit aussi le développement rapide d’applications, «Ce qui est d’abord un problème d’automatisation ».
4- La prise en compte de l’internet des objets La nécessité d’ouverture vers des millions de données différentes augmentera avec le poids grandissant de l’internet des objets. La récente multiplication des offres de services montre d’ailleurs la part grandissante des grands acteurs. Face à ces déclarations d’intentions, très raisonnables en mai et l’annonce de la semaine passée, on peut se demander si le travail « d’OS du cloud » n ‘était pas déjà largement monopolisé depuis quelques années par Azure, Open stack ou surtout Amazon, sans parler d’une dizaine d’outils en provenance d’IBM ou d’Oracle. Lorsqu’on voit la centaine d’offres d’outils complémentaire qui s’y greffe, la question subsiste : » N’est-ce pas trop tard pour créer un nouveau front ? », les développeurs étant déjà submergés d’outils en tous genres.
Un nouveau Lamp
La firme Pivotal y croit et veut recréer sur le cloud la richesse de ce qui existe déjà avec LAMP (Linux, Apache, MySQL, PHP) dans l’open source. Outre la cloud foundry et Hadoop, Pivotal parie sur Greenplum, la base de données SQL open source issue de Postgress. Entre Hadoop et Greenplum, le générateur de requêtes Hawq effectuera les commandes à base de SQL. Une interface simplifiée issue de Mozy permettra d’effectuer tableau de bord et back-up facilement.
pivotal-one-slide-620x330
La garantie Maritz
On serait assez sceptique sur cette nouvelle « pièce montée à base d’open Source » si la firme n’était pas dirigée par Paul Maritz, l’un des anciens piliers de Microsoft qui a quitté le siège confortable de Vmware pour cette start up déjà évaluée à plus d’un milliard de dollars. Elle a récemment reçu un chèque de 105 millions de dollars de General Electric car l’industriel y voit la plate forme logicielle du futur. « On veut qu’elle fonctionne comme une montre suisse » précisait Maritz lors de la présentation.
« La plateforme de prochaine génération pour le Big data et le fast data »
L’outil, lancé la semaine passée, par la start up appelée PIvotal One, paraît, bien sûr ,répondre aux critères de l’outil idéal. L’ensemble repose donc sur Cloud Foundry , la plate forme open source (PAAS ), déjà disponible sur Amazon Web Services . Elle sera donc maintenant en version téléchargeable pour les entreprises.
Le programme dispose de quatre services de bases : Hadoop pour la manipulation des données, un service d’analyse et de BI (Ax Pivotal), une messagerie Inter applicatif (Rabbit mq), et une véritable base de données relationnelle Greenplum. Pour créer des applications, le système s’interface sur les principaux langages actuels de développements rapides comme : Ruby, Java, et les outils de .Net. L’évolution notoire du système issu de Cloud Foundry est de pouvoir créer des applications légères entièrement en interne avec des outils supportés dans un cadre de services.
Les notions de load balancing, de gestion des DNS, de contrôle d’accès et d’administration font partie intégrante du logiciel. La sécurité et la confidentialité du code seraient réelles, ce qui selon Pivotal, n’est pas flagrant chez les concurrents, l’étiquette « open source » étant souvent synonyme de logiciel « à sécuriser ». Les développeurs, selon Maritz, pourront se concentrer sur le code sans se soucier du paramétrage de l’infrastructure et du middleware. IBM aurait déjà proposé une « pack de compatibilité » avec le programme WebSphere Buildpack et SAP par la voix de son directeur technique Vishal Sikka aurait annoncé que la firme étudiait « les fonctions d’automatisation de PIvotal One ».
Selon les informations recueillies dans la presse anglo-saxonne, c’est la capacité de collecter différentes sources et de faire tourner l’application sous différentes formes de Run Time dans des machines virtuelles qui serait déterminante. On la verra à la fois sur un cloud privé basé sur vSphere de VMware ou sur un cloud public basé sur vCloud, comme Bluelock ; ou encore dans un nuage de OpenStack , y compris Rackspace et HP. La force de l’outil serait dans l’automatisation des raccordements « de plomberie ».
pivotal-cf-slide-620x330
Pour Paul Maritz , la nouveauté tiendrait aussi à la simplicité des commandes, un argument selon nous, certainement liée aux outils de Rabbit MQ. Le Loggreagator de Pivotal CF permettrait de suivre dans les détails le flux continue des données qu’il s’agisse des actions des utilisateurs ou des évènements internes.L’outil  est disponible gratuitement pour 60 jours et fonctionne avec vSphere 5.0, 5.1 or 5.5 . L’engouement des partenaires pour créer des applications complémentaires montrera si la pièce montée est aussi séduisante qu’annoncée.

Les services IT à la recherche d’harmonie

A lire sur: http://www.informatiquenews.fr/les-services-la-recherche-dharmonie-7073



Les services IT n’ont de réalité que par l’usage des métiers, en un mot, l’IT n’est pas une fin mais un moyen, tel fut le fil conducteur des rencontres de l’iTSMF.
Avec comme thème l’harmonie des services, cette nouvelle édition du Forum de l’itSMF a filé la métaphore musicale par le truchement de Lionel Stoleru qui indique avoir hésité entre la politique, l’économie et la musique. Que retenir de son intervention qui commence par le poème de Baudelaire l’Harmonie du soir, se poursuit par l’Ode à la joie de Friedrich von Schiller, utilisé pour le final de la 9e Symphonie de Beethoven, aujourd’hui hymne européen et se continue par la restitution de son expérience de Secrétaire d’Etat chargé de la condition des travailleurs manuels sous Giscard d’Estaing avant de se terminer par les thèmes de l’enrichissement des tâches et de l’expression des travailleurs ? Qu’apporte un tel éclectisme qui puisse être utile à la compréhension d’une activité de services ? Il faut à la fois une stratégie, équivalent dans l’entreprise de la mélodie pour la musique, et l’adhésion de tous les participants, qui jouera le rôle de l’harmonie. Dans l’orchestre comme dans l’entreprise, l’harmonie consiste à faire travailler ensemble des caractères différents. Difficulté supplémentaire qui s’ajoute à cet objectif général d’harmonie des services, l’évolution des technologies est extrêmement rapide et rebat les cartes en permanence.
Dans un tel contexte, la DSI est mise à rude épreuve alors que sa contribution à dégager de la valeur est de plus en plus importante. Pour parvenir à un tel objectif, elle doit renforcer sa relation avec les métiers. Or sur ce point, l’enquête réalisée par Devoteam montre qu’il y a des progrès à faire.
On se perçoit toujours mieux que ce que l’on est en réalité, tel est l’enseignement simple que l’on peut retirer de cette enquête sur la relation DSI-métiers définie comme « un ensemble de processus, dispositifs organisationnels, outillages ou moyens de communication mis en œuvre par la DSI pour créer, gérer et entretenir une relation de proximité avec les métiers de l’entreprise, en tant que partenaire « technologie et services ».
Sur une grille de maturité allant de 1 à 5, les DSI se positionnent en moyenne à 3,5 alors que l’équipe Devoteam au vu du questionnaire diffusé auprès de 300 responsables IT et métier les évaluent à 2,4. Et certains chiffres montrent en effet le chemin qui reste à parcourir. Plus de 6 entreprises sur 10 n’ont pas encore de catalogue de services formalisés et dans moins d’une entreprise sur deux (45%), les métiers participent au comité stratégique de la DSI.
27 itsmf 2
Comment cette relation DSI-métiers va-t-elle être impactée par l’arrivée de ce que le Gartner appelle le Nexus of Forces des quatre mega tendances que sont le cloud, la mobilité, les réseaux sociaux, le big data. Sa27 itsmf 1ns grande surprise, la DSI est assez impliquée sur les 2 premières pour lesquelles elle est décrite comme un prescripteur et est un peu plus en retrait sur les deux autres. « La DSI doit permettre de se connecter les enjeux métiers directement aux fournisseurs de services et devenir le service broker de l’entreprise digitale », conclut Stéphane Mallet, consultant chez Devoteam.
TGV low cost, here we go
Comment faire pour lancer de nouveaux services et s’attirer de nouveaux clients sans pour autant cannibaliser l’offre existante ? Le projet de TGV low cost lancé par la SNCF en constitue un bon exemple avec parfois des commentaires peu amènes (Ouigo, TGV low cost, le train des bouseux, des pauvres, des nonistes). « Il fallait que le projet Ouigo soit un peu dingo pour qu’il réussisse » conclut Valérie Delinhger en présentant ce projet dont les premières ont commencé à circuler en avril dernier. Ouigo partait du constat que l’offre TGV était appréciée par le public mais considérée comme chère. D’où la feuille de route simple mais ambitieuse de lancer en deux ans en toute confidentialité une offre grande vitesse en moyenne 40 % moins chère que l’offre traditionnelle.
27 itsmf 3
Non seulement, le SI était au cœur de ce projet en étant intégré dans les différents lots, mais il en constituait même une des conditions de réalisation. « Pour respecter les fortes de contraintes de prix, il a fallu adopter une stratégie de coucou c’est-à-dire prendre ce qui existait déjà en y ajoutant les nouvelles exigences », précise Valérie Dehlingher. C’est ainsi que du côté de la distribution et de la relation client, Ouigo s’est appuyé sur le SI de la startup iDTGV alors que côté production, il a été fait appel au SI de la SNCF. La production d’une offre à grande vitesse a imposé des nouveaux besoins : disposer d’une information temps réel du personnel et des clients, réaliser des outils unifiés et simples car utilisés par des personnels polyvalents. Pour réaliser ce projet dans le temps imparti, la SNCF a mis en place une petite équipe d’une dizaine de personnes.
Bien entendu, sur tous ces sujets où l’IT joue un rôle capital, lorsque la DSI joue un rôle moteur en illustrant les cas d’usage métiers grâce aux technologies, elle gagne en crédibilité et évoluent vers un rôle de partenaire vis-à-vis des métiers.
De la QoS à la QoE
Alors que la qualité de services – au sens classique comme au sens Itil – est un concept stabilisé, celle de qualité d’expérience utilisateur (QoE) est plus récente. Et pourtant dans une économie qui devient numérique, l’IT devient centrale et conditionne le succès d’un nouveau produit ou service. La QoE s’appuie sur des notions de satisfaction, de fidélisation, de confiance, pas à un instant donné mais sur la totalité du cycle de vie du service. On parle d’« effissens », rappelle Marc Prunier, Professeur à l’EMSI (Ecole de Management des systèmes d’Information à Grenoble Ecole de Management, pour signifier l’efficacité et l’efficience par le partage du sens.
« Certes la QoE repose sur des critères subjectifs mais cela n’empêche pas d’objectiver sa mesure, poursuit Patrick Faure, directeur de projet chez Orange France, sachant que la QoS est une des variables de la QoE ». D’ailleurs, on peut faire des mesures de l’évolution de la satisfaction client en fonction des dégradations de la QoS ; avec une première phase d’acceptation lors de laquelle l’utilisateur reste tolérant jusqu’à celle dite du renoncement où il abandonne son poste de travail et refuse de continuer à travailler. Une situation qu’il est préférable d’éviter.