samedi 24 décembre 2011

L’Etat injecte 226 millions d’euros dans les Sociétés d’Accélération de Transfert de Technologie

Suite du Programme d’Investissements d’avenir… Le gouvernement va accorder une enveloppe de 226 millions d’euros à 4 nouvelles Sociétés d’Accélération de Transfert de Technologie (SATT).
Dans le cadre du Programme d’Investissements d’avenir, François Baroin, le ministre de l’Economie, Laurent Wauquiez, le ministre de l’Enseignement Supérieur et de la recherche, Eric Besson,  le ministre chargé de l’Industrie, de l’Energie et de l’Economie numérique, et René Ricol, le Commissaire général à l’Investissement, ont annoncé la mise à disposition d’une enveloppe de 226 millions d’euros de dotations destinées à financer quatre nouvelles Sociétés d’Accélération de Transfert de Technologie (SATT).
Cette initiative gouvernementale s’inscrit dans le cadre du Fonds national de valorisation, créé dans le but d’« améliorer significativement les résultats de recherche publique […] sous forme de licences, de partenariats industriels, de création d’entreprises ou en facilitant la mobilité des chercheurs ».

900 millions d’euros du budget alloués à ce Fonds serviront à la création de Sociétés d’Accélération de Transfert de Technologie.
Ces SATT ont pour vocation de transformer les découvertes de scientifiques en applications sociales ou industrielles, et ainsi en accélérer la valeur économique.
Ainsi, les quatre SATT qui vont se partager cette dotation de 226 millions d’euros sont :
-    La SATT Languedoc Roussillon, dotée de 45 millions d’euros (Université Montpellier 2, CNRS,
INSERM, Université Montpellier 1, Université Paul‐Valery Montpellier III, Université
de Perpignan Via Domitia, Université de Nîmes, Montpellier SupAgro, ENSCM Montpellier, IRD Montpellier),
-    La SATT Nord de France, dotée 63 millions d’euros (Université Lille Nord de France, Université de
Reims Champagne‐Ardenne, Université de Picardie Jules Verne),
-    La SATT Ouest valorisation, 70 millions d’euros (Université européenne de Bretagne, PRES L’UNAM, CNRS, INSERM, Institut de Recherche pour le Développement),
-    La SATT Aquitaine, 48 millions d’euros (Université de Bordeaux, Université de Pau et des Pays de l’Adour, CNRS, INSERM, Institut Polytechnique de Bordeaux, CHU de Bordeaux, Ecole Supérieure des Technologies Industrielles Avancées).


Crédit photo : © PixBox – Fotolia.com

http://www.itespresso.fr/etat-injecte-226-millions-euros-dans-les-societes-acceleration-de-transfert-de-technologie-49734.html

[Retour sur 2011] L’évolution des réseaux sociaux en France en 2011

Par Hubert Senant, le 22 décembre 2011
[Retour sur 2011] L’évolution des réseaux sociaux en France en 2011
2012 approche et des voix s’élèvent pour prophétiser, non pas la fin du monde mais la fin des médias sociaux.
Avant de conclure quoi que ce soit, prenons le temps de nous arrêter un instant sur les évolutions marquantes des médias sociaux en France cette année.
Pouvons-nous dire que nous sommes plus nombreux à occuper les pages de nos réseaux favoris ? Les médias sociaux ont-ils gagné du terrain ou au contraire ont-ils atteint un seuil difficilement surmontable ?
Pour faire le point, nous avons choisi de nous reposer sur deux sources d’informations différentes… D’un côté, l’une des études les plus sérieuses sur les réseaux sociaux cette année (Etude IFOP de l’Observatoire des médias sociaux, parue en novembre dernier) et de l’autre côté sur des données quantitatives fournies par divers outils de statistiques reposant sur des systèmes complexes de “tracking” (socialbaker ou statcounter). Qu’en avons-nous retiré ?

[1] L’attention des internautes se focalise de plus en plus sur les “majors” généralistes, qu’ils soient grand public ou professionnels.

L’étude IFOP, contrairement à de nombreux livres blancs parus sur le sujet, doit être prise au sérieux. Elle peut se targuer de faire porter ses résultats sur plus de 2000 interviews d’internautes français. On y apprend qu’en 2011 les gros acteurs mondiaux ont globalement gagné du terrain :
  • Facebook gagne 1 point de notoriété (96% des internautes connaissent Facebook en 2011)
  • Twitter gagne 5 points de notoriété (85% des internautes connaissent Twitter de nom contre 80% en 2010)
  • LinkedIn gagne 11 points de notoriété (25% des internautes français connaissent désormais le réseau social professionnel américain, contre 14% en 2010).

En revanche, certains réseaux sociaux périclitent :

  • Copains D’avant perd 2 points de notoriété (84% des internautes connaissaient Copains D’avant en 2010; en 2011, ils sont 82%). Les internautes n’ont pas “oublié” Copains D’avant. Le réseau social français semble avoir atteint ses limites. Et il n’est pas le seul.
  • MySpace, qui n’en finit plus d’agoniser, perd 9 points de notoriété (72% des internautes déclaraient connaître MySpace en 2010; aujourd’hui, ils ne sont plus que 63%). Le réseau social américain très axé “musique” aura bien tenté de se diversifier mais ne devient pas généraliste qui veut.
Tout cela donne le sentiment qu’en 2011, nous avons assisté à une concentration de l’intérêt des internautes français sur les “majors” des médias sociaux.

[2] Les Français sont-ils plus présents sur les réseaux sociaux en 2011 ?

a) Facebook confirme sa position hégémonique
Le site web “Socialbakers” estime que sur les 6 derniers mois de l’année 2011, Facebook a vu son nombre d’utilisateurs français augmenter de 4 points pour atteindre 52% de l’ensemble des internautes de l’Hexagone.
L’étude IFOP abonde dans ce sens et évalue la progression de Facebook en France à 6 points en 2011. 49% des internautes français déclarent qu’ils sont inscrits sur Facebook.
Enfin, StatCounter.com nous apprend qu’entre décembre 2010 et décembre 2011, Facebook a gagné 11 points en termes de parts de marché “social media” (en passant de 70% en décembre 2010 à 81% en décembre 2011).
Il n’y a plus vraiment de place au doute. Facebook confirme en 2011 sa position hégémonique.
b) L’oiseau se rapproche-t-il de son altitude de croisière ?
Si 85% des internautes français déclarent connaître Twitter de nom, ils sont seulement 8% à s’y être inscrits. En 2010, 7% des Français étaient inscrits sur Twitter si on en croit cet article de Jean-Nicolas Reyt.
L’étude de Semiocast, diffusée en juin dernier, révélait que près de 900.000 nouveaux comptes avaient été créés entre mars et juin 2011, rien que pour la France. Des chiffres qui en imposent… tout autant que l’irrépressible sentiment d’être de plus en plus assailli par les “bots” en tous genres.
Ces saloperies algorithmiques ont fait leur trou en 2011. Les “bots” ont désormais un “business model”. Ils ont trouvé des personnes prêtes à payer pour gonfler artificiellement leur “case followers”. C’est à croire qu’il leur en manque une…
Twitter dispose encore d’un potentiel certain. Toutefois, il incarne plus que d’autres le côté sombre des réseaux sociaux. Ce “Dark Passenger”, c’est l’ahurissante quantité de données doublonnées et incontrôlables que seuls les plus aguerris peuvent domestiquer. Le potentiel de l’oiseau bleu en prend un coup.
c) Un duel de pros
En ce qui concerne les réseaux sociaux professionnels, 2 acteurs tiennent le haut du pavé en France. Viadeo, le national de l’étape, et LinkedIn, le géant mondial, en passe de dépasser notre ex Viaduc Gaulois sur ses propres terres.
En effet, si Viadeo conserve toujours une petite longueur d’avance en termes de nombre d’utilisateurs français (9% des internautes contre 8% pour LinkedIn), il a vu son avance se réduire à grande vitesse cette année. LinkedIn a progressé de 3 points, Viadeo a baissé d’un point, toujours d’après l’étude IFOP.
Le constat est le même en termes d’audience. Viadeo conservait encore en juin 2011 une courte avance sur LinkedIn avec 2,9 millions de pages vues pour Viadeo contre 2,7 millions de pages vues pour LinkedIn.
Mis à part Facebook et LinkedIn qui sortent leur épingle du jeu, il faut bien avouer que la bulle “social media” ne se gonfle plus. Aujourd’hui, compte tenu des données disponibles, on peut estimer qu’en gros 80% des internautes français sont présents sur au moins un réseau social. C’était déjà le cas en 2010… et en 2009…
Conclusion…
En 2012, la fin du monde aura peut-être lieu mais Facebook devrait rester le leader incontesté des médias sociaux toutes catégories.
En 2012, l’engouement hystérique pour les médias sociaux pourrait bien retomber. Mais ces derniers n’imploseront pas comme peuvent le laisser entendre certaines voix un tantinet pessimistes.
En 2012, la relation entre les marques et les médias sociaux pourrait subir quelques turbulences mais finalement guère plus que dans n’importe quel couple amoureux.
En 2012, on trouvera encore des personnes pour expliquer qu’avec les médias sociaux on fait du business tout de suite et qu’on peut devenir riche en 3 semaines en suivant une méthode à 299,90 euros TTC.
En 2012, le prix du “follower” humain pourrait bien dépasser celui de l’or compte tenu de l’augmentation drastique du nombre de “bots” jusque dans les plus hautes sphères de la publicité !




http://fr.locita.com/reseaux-sociaux/twitter/retour-sur-2011-levolution-des-reseaux-sociaux-en-france-en-2011/

Les revendeurs à l'aube d'un bouleversement majeur

Pour les revendeurs informatiques de petite et moyenne taille, depuis quelques mois, l’activité est au ralenti. La réalité est que la profession, pour l’ensemble du channel représenté par ces revendeurs, est incontestablement dans un virage très serré, limite épingle à cheveux. Et tous ceux qui n'ont pas mis leur ceinture de sécurité vont droit dans le mur ! Et le choc sera pire pour ceux qui avaient déjà, en plus, les pneus un peu sous-gonflés ! Emmanuel André, gérant de l'entreprise AEIM, nous livre son analyse.

Ce constat, c’est celui des revendeurs informatiques avec qui je discute régulièrement. Et mis à part quelques exceptions, la grande majorité affiche un pessimisme digne de placer la profession toute entière sur la première marche du podium de la morosité !
Et ils apportent de l’eau à leur moulin pour prouver, point par point, qu’ils ont raison d’être inquiets !

Les raisons sont multiples et, sur un plan économique général, les responsables tout désignés, c’est le triple A, c’est la Grèce, c’est Berlusconi, la Chine, les élections présidentielles de 2012, l’endettement de la France et celui des ménages, les agences de notations, le cloud, les business models en train de changer, bref… des tas de causes totalement extérieures à la profession relayées par les médias qui, en déversant des messages anxiogènes, entretiennent un climat de crise.

A mon avis, cette catastrophe (car c’est bien d’un bouleversement de grande ampleur dont nous parlons) était prévisible de longue date ! En revanche, les causes ne sont pas forcément celles qui sont pointées du doigt !

Depuis plusieurs années, les taux de marge appliqués par les revendeurs sont en constante baisse, la concurrence frontale de la grande distribution et du E-commerce positionnant les revendeurs dans une course sans fin à l’alignement des prix vers le bas, et donc vers la diminution de leurs marges (les prix d’achats des revendeurs quant à eux, ne bougent pas d’un iota). Tout cela car l’acheteur final- grand public et certains professionnels - a comme bible de référence : Internet. Dieu tout puissant, détenteur du savoir absolu, de la science infuse, et de la seule et unique Vérité. Avec un grand V !

Je discutais récemment avec un journaliste IT qui me citait les propos d’un économiste sur notre profession, déclarant que pour lui, les revendeurs informatiques étaient un non-sens économique, et se demandait comment nous vivions. La réalité est que beaucoup d’entre nous ne vivent pas : ils survivent ! Avec les taux de marge pratiqués par les revendeurs, la pérennité d’une boutique est effectivement sérieusement mise à l’épreuve. Ceux d’entre nous qui ont un peu de volume et ceux qui s’adressent aux professionnels résistent tant bien que mal. Les autres sont soit en sursis, soit en voie d’extinction.

Qui est réellement responsable de cette extinction programmée ?
Sur le banc des accusés, plusieurs prévenus : la grande distribution, le E-commerce, les revendeurs eux-mêmes, les consommateurs, et enfin les constructeurs.

La grande distribution a découvert le créneau de l’opportunité de l’informatique au milieu des années 1990. Leur arrivée dans le milieu est résumée par ces deux actions : premièrement, casser les prix , deuxièmement, faire du volume. La méthode est bougrement simple : pas de personnel compétent ou techniquement qualifié, du matériel d’entrée de gamme, de petite facture, positionné à bas prix, entre les boîtes de conserves de flageolets et le papier toilette chez les uns, et entre les lits à baldaquin et les abattants de WC chez les autres. Les constructeurs mis en avant sont Acer, Packard Bell, HP, Compaq, Unika, ... C’est un premier coup pour les revendeurs. Ces enseignes captent une partie de clientèle principalement constituée par le grand public. Si, sur les unités centrales commercialisées par ces grandes enseignes, les revendeurs ne se considèrent pas en concurrence directe, il n’en est pas de même pour les périphériques : les références proposées par les revendeurs et les enseignes sont les mêmes. A l’époque, on trouve des imprimantes (généralement HP, Canon) à des prix que les revendeurs sont incapables d’afficher ! C’est le début pour les revendeurs de la recherche de références non distribuées par ces grandes enseignes, afin de se démarquer de ces nouveaux concurrents. Mais la guerre des prix est déclarée, avec comme seule arme pour les revendeurs qui décident de faire face, l’inévitable diminution de leur marges pour, au mieux, essayer d’approcher les prix affichés par ces enseignes.

Les sites de E-commerce entrent en jeu de manière massive quelques années plus tard. Cette fois, compte tenu des faibles charges de ces structures et du potentiel en termes de volume, les prix de vente chutent de manière spectaculaire. Les constructeurs flairent un canal de distribution exceptionnel pour faire du volume, et les offres faites aux cyber-vendeurs par les constructeurs sont affligeantes. Certains constructeurs avouant même perdre de l’argent pour faire du volume ! C’est à partir de cette époque que certains revendeurs commencent à disparaître. C’est bien ici que l’extinction à débuté. Certes, les règles ne sont pas les mêmes que celles des revendeurs : Garantie moindre ou limitée, subterfuge de vente forcée par ajout de services, ajout d’options et d’accessoires… Un nouveau marché concurrentiel auquel n’étaient pas préparés les revendeurs. Des taux de marge à 3 ou 4% sont tout simplement impossibles pour le détenteur d’un commerce avec du personnel qualifié ! Pour payer un seul salaire, il faudrait qu’un revendeur ne facture pas moins de 600 imprimantes entrée de gamme à 99 €, par mois ! Je défie n’importe quel petit revendeur d’avoir jamais atteint de tels quotas ! Et de tripler ce chiffre pour couvrir l’ensemble des charges mensuelles ! Les frais de fonctionnement et les volumes sont radicalement différents entre revendeurs et E-commerce. Les revendeurs prenaient cette fois un bon uppercut !

Les revendeurs se plaignent de leur sort, chacun dans leur coin. Aucun élan fédérateur capable de réunir les forces de la profession ne se met en place pour contrer, pour préparer la stratégie de demain face à la débâcle constatée. Chacun subit au lieu d’essayer d’être maître de son avenir. On leur reprochera d’avoir beaucoup trop tardé à se mettre en groupement pour tenter d’influer sur la politique des constructeurs, et discuter avec les grossistes. S’il existe aujourd’hui quelques petites poches de résistance, parsemées sur le territoire, et quelques tentatives de groupement, la réalité est que sans l’adhésion de la totalité des revendeurs, tous réunis dans un seul syndicat ou une seule fédération, la balance ne penchera jamais du bon coté ! La solution n’existe pas sans une étroite collaboration entre les revendeurs et les constructeurs. L’issue bénéfique à tous passe forcément par une valorisation des produits à leur juste prix et la reconnaissance de la force des revendeurs. Quelle est l’action que seuls les revendeurs peuvent avoir ? Prendre à grande échelle la décision de boycotter une marque ? C’est évidemment la pire chose qui puisse arriver à un constructeur, mais le revendeur ne scie-t-il pas la branche sur laquelle il est assis ?

Les consommateurs quant à eux, profitent de la loi du marché. Investir à moindre coût. Du coup, le retour au « commerce » de proximité n’est pas d’actualité car c’est le portefeuille qui parle en premier par les temps qui courent. Et les revendeurs de voir de plus en plus de clients venir se renseigner dans leur commerce pour être aidé pour leurs achats futurs, qu’ils feront … sur internet ! C’est un paradoxe : les revendeurs sont reconnus pour leurs compétences techniques, leur professionnalisme, leur conseils avisés, mais sont exclus du processus d’achat lors du passage à l’acte. Quelquefois pire : l’achat à eu lieu, en grande distribution ou en E-commerce, et les consommateurs se retournent vers les revendeurs pour la mise en service ou la mise en réseau ! Je n’ai pas de réponse toute faite à ces nouveaux comportements. Juste une indication : « allez-voir sur démerdez-moi.com », en attendant de pouvoir éduquer ces nouveaux consommateurs en leur faisant toucher du doigt l’importance d’intégrer et de privilégier un acteur local et compétent dès le début de leur process de décision d’achat. Il doit en être de même pour les établissements publics, collectivités locales, mairies… Comment ces institutions peuvent-elles imaginer faire prospérer une ville, un département, une région sans impliquer les acteurs locaux ?

Pour les constructeurs, c’est une enquête à charge ! Des tas de questions leurs sont posées : pourquoi ont-ils un référentiel de prix publics et tolèrent-ils que ce référentiel soit bafoué de manière spectaculaire ? Il est certes interdit de fixer les prix, mais il n’est pas interdit de ne plus se faire distribuer par les casseurs de prix ! Pourquoi mettent-ils en place sur leur portail des vitrines marchandes, au lieu de laisser la diffusion de leurs produits aux revendeurs ? Quel est l’intérêt pour des constructeurs ayant choisi d’avoir un canal de distribution terrain de concurrencer directement ce canal de diffusion en pratiquant la vente en direct via leur site internet ? Pourquoi favorisent-ils le E-commerce et la grande distribution en pratiquant des cotations insolentes ? Pourquoi une même référence chez un revendeur ou en e-commerce/grande distribution ne dispose pas toujours des mêmes garanties et des mêmes composants, induisant forcément les clients finaux en erreur ? Pourquoi les filiales françaises ne sont pas capables de justifier à leur maison mère que l’économie européenne ne peut pas répondre aux mêmes lois de marché que l’Asie ? Combien de temps vont durer les stratégies mondiales de volumes dictées par des directions dont l’ambition est d’être le N° 1 en terme de quantités distribuées, plutôt que d’être le N°1 en terme de rentabilité ? Pourquoi délaissent-ils les revendeurs qui sont pourtant leur première vitrine commerciale avec plus de 6.000 points de vente ? Comment pensent-ils faire du business une fois que leur vitrine commerciale n’existera plus et qu’il ne leurs restera plus que le dictat d’acheteurs de grande distribution ou de E-commerce, peu scrupuleux, qui leur fixeront leur prix de vente – à prendre ou à laisser - ? Que feront-ils si l’ensemble des détaillants est capable de se grouper et décide de lâcher les constructeurs qui ne respectent pas les revendeurs ?

Au final, seuls les grossistes semblent exemptés de fautes. Nous savons que leurs marges sont tout à fait raisonnables, et leur politique est basée sur le volume, ce qui est logique, c’est l’essence même du rôle de grossiste : gagner sur la quantité. Certains mettent en place des politiques tout à fait avantageuses pour les revendeurs, et les aident au quotidien dans la recherche de solutions. On pourra reprocher à certains de trop écouter leurs sociétés d’assurances crédits et de ne pas prendre assez d’initiatives sur les encours accordés aux revendeurs, mais comme les revendeurs, compte tenu de leurs faibles marges, les grossistes n’ont pas droit à l’impayé. Leur position peut donc être légitime. Pourtant, au cas par cas, les situations de certains revendeurs mériteraient d’être étudiées.

Le délai pour que chacun réagisse n’est pas énorme. Nous travaillons à très court terme. Tous les acteurs de la profession ont quelques mois pour tenter de réguler ce marché où chacun a une place. Cela suppose des accords viables entre les revendeurs, les constructeurs et les grands distributeurs. Les constructeurs doivent être conscients qu’ils sont les acteurs majeurs de la survie de tout un canal de distribution. Et donc, implicitement, de leur avenir.

Ce n’est pas du pessimisme, c’est de la réalité : j’en veux pour preuve Acer qui annonçait en août une perte de 170 millions d’euros, j’en veux pour preuve HP qui annonçait tout de même la plus grande restructuration de son histoire durant l’été, et au dernier trimestre avant publication de ces chiffres annuels, une baisse de son CA, et ses résultats qui s’effondrent, idem pour Asus qui annonçait en 2008 un CA en augmentation de 17 %, et un bénéfice en recul de 40 %, avec un record de pertes de 63 millions d’euros sur le dernier trimestre 2008, Toshiba avec une perte de 513 millions d’euros sur l’exercice 2009-2010 et annonçait fin 2011 la fermeture de 3 usines de fabrication de semi-conducteurs, Samsung avec une baisse de 25 % de son résultat au deuxième trimestre 2011, Sony avec un perte de 265 millions d'euros annoncée cette fin d'année… A croire que la politique des constructeurs les a rendus aveugles. Ou fous. Ce n’est pas la branche sur laquelle ils se reposaient qu’ils sont en train de scier, mais le tronc de l’arbre tout entier !

La main est tendue. Il faut qu’ils sachent la saisir tant qu’elle est encore visible.
 
ITR news

La tablette : un outil entre-deux, pour faire les choses à moitié ?

Par Elie Chevignard, le 23 décembre 2011
La tablette : un outil entre-deux, pour faire les choses à moitié ?
Noël sera pour moi l’occasion de me délester d’un objet inutile : ma tablette. Je l’offrirai à quelqu’un qui je l’espère, saura trouver une utilité à ce gadget qui fut la coqueluche de 2011. Comme on l’encense toujours, voici un petit article pour compenser. D’avance, excusez donc l’auteur de ce billet d’humeur qui ne vise pas l’objectivité (quoique, si en fait).
Pour rappel, la promesse pour 2011 était la suivante :
Plus de la moitié des ordinateurs ne seront plus des ordinateurs !
À la clé, le remplacement de nos bons vieux PCs par des outils tels que les smartphones et les tablettes ? Non, pas du tout, ces derniers étaient seulement censés « compléter » notre panoplie high-tech, pas plus. La question est donc : en cette fin d’année, quel bilan pour ce format bâtard qu’est la tablette ? Parmi le reste, a-t-il trouvé sa place et son utilité, franchement ?

Une utilité pas évidente

Si je pose la question, c’est parce que pour les smartphones, la réponse parait claire. Prenez un iPhone ou l’un des derniers Samsung : c’est utile et c’est un outil de tous les jours avec lequel on parcoure ses emails, ses flux RSS, son flux Twitter, son Facebook, etc. Cela à tout moment : ça tient dans la poche. Accessoirement, on dégaine aussi les photos et les vidéos sur le vif, n’importe quand : très pratique ! Bref, pas besoin de se creuser la tête pour visualiser la valeur ajoutée d’un bon smartphone.
Par contre la tablette… Ayant eu une Samsung Galaxy Tab 10.1 de septembre à décembre, j’ai eu tout le loisir de chercher à quoi elle pouvait servir… mais je n’ai pas vraiment trouvé. Enigme non-résolue à ce jour !

7 raisons pour expliquer l’inutilité des tablettes

  • I- Ça ne tient ni dans la poche, ni dans la main : beaucoup de gens ne font que parader avec leur tablette. Je pense par exemple à ces touristes japonais qui déambulent autour du Louvre avec un iPad2 qui a remplacé leur appareil photo. À part montrer que l’on possède ce gadget, quelle utilité franchement ?
  • II- Le clavier trop grand et trop petit : ce n’est pas de la mauvaise foi. Je vous assure qu’on tape plus vite sur un ordinateur et sur un iPhone, plutôt que sur une tablette. Une partie des doigts sont bloqués pour tenir l’outil tandis que les touches sont tout de même assez grosses et éloignées les unes des autres. Pris dans le sens de largeur ou de la hauteur, rien n’y fait : c’est galère.
  • III- La navigation web : un cauchemar. Encore une fois, l’utilisateur est victime de cet entre-deux : on peut à peu près naviguer sur des sites normaux mais on est systématiquement redirigé vers des sites mobiles tous pauvres. Il faut repasser en manuel sur le site normal, encore et toujours (on doit pouvoir éviter ça, mais comment ?). Ajoutez à cela la confusion créée par Google et sa fonction auto-search qui se réactive tout le temps et ça y est, c’est tout à fait inutilisable (sauf si on a du temps à perdre, bien sûr).
  • IV- On ne peut pas fermer les applis (Samsung Galaxy Tab 10.1): je n’y croyais pas au début. Qu’est-ce que les ingénieurs avaient dans la tête ? Pouvoir fermer une appli autrement qu’en redémarrant, était-ce vraiment quelque chose d’insurmontable pour eux ?  
  • V- Même au niveau batterie, ça ne fait pas rêver : en effet, pas plus d’autonomie qu’un Netbook. Une utilisation de la 3G ou même du wifi vous amènera à recharger tous les jours.
  • VI- Les photos sont floues : ben oui, ça ne tient pas dans la main, donc on bouge. C’est mécanique.
  • VII- Les réseaux sociaux, une catastrophe : qui dit mobilité dit Twitter, Foursquare et même un peu Facebook non ? Pour une utilisation un peu poussée avec de la veille de hahstags avec plusieurs comptes, oubliez. C’est juste mal fait,  je ne peux pas avoir mes petites colonnes d’alertes bien propres, sur lesquelles j’agis en 2 secondes.
  • BONUS, je pourrais continuer : oui, car le but des tablettes n’est pas d’être utile. Elles ne sont pas là pour remplacer quoi que ce soit, elles sont là pour assaisonner l’équipement du geek. C’est seulement en remplissant cette fonction qu’elles font des heureux, ces tablettes !

7 usages (8-1) à côté desquels je suis passé

Sentant que l’on risque de me reprocher mon manque d’objectivité, intéressons-nous à ce que disent les études ! Celle-ci fut réalisée par Google. Voici le top des usages sur tablette : qu’ai-je loupé par rapport aux autres utilisateurs ?
  • I- Faire des sudokus : effectivement, voici un usage que je n’ai pas testé. Mais à la fois ça ne m’intéresse pas et cela confirme l’inutilité intrinsèque de ce support. Par contre je suis d’accord pour lui reconnaître une valeur ludique.
  • II- Chercher de l’information : tout à fait, ce fut l’une de mes premières activités car moins on trouve, plus on cherche. C’est mathématique : sur une tablette on passera beaucoup de temps à chercher !
  • III- Envoyer des emails orthographiés comme Frédéric Lefèbvre : ça c’était assez drôle, mais c’est une expérience dont j’aurais pu me passer.
  • IV- Lire les news : OK, là-dessus c’était top, surtout le Google Reader.
  • V- Le Social Networking : cette 5ème position confirme ce que j’énonçais plus haut, mal pratique au possible pour cette activité. Pourtant, une tablette devrait être conçue autour de ça : cela devrait être l’usage numéro un, haut la main !
  • VI- Les vidéos, la musique :   je préfère le cinéma, les écrans géants, mes vinyls ou le mieux qu’apporte une carte son digne de ce nom.
  • VII- Lire des e-books : franchement avec le Kindle à 100 euros, avec ses 30 jours de batterie… Du coup, même l’appli Amazon n’est pas top.
  • VIII- Shopping en ligne : essayé, pas réussi. À part avec Amazon bien-sûr (pas de numéro de carte à saisir par exemple), mais même là, ça reste vraiment plus simple sur PC.
  • BONUS non-répertorié : le porno.  Il ne figure pas dans l’étude. Et je suis aussi passé à côté alors que si l’on en croit les commentaires de cet article du Hufftingon Post, ce serait l’utilisation numéro 1 mais non-avouée. Peut-être parce qu’on peut emmener cet écran aux toilettes, un lieu qui semble tendance ?

Conclusion

Si je pensais vraiment tout ça et que je n’avais pas un peu mobilisé ma mauvaise foi, je n’aurais pas offert ma tablette, je l’aurais revendue. Cependant, je ne suis pas près de m’en racheter une et à quelqu’un qui penserait à faire ce type d’acquisition je dirais : c’est cool, si tu recherches un gadget, pas si tu veux un outil.
Je me permets de conclure mon propos par cette citation de Baudrillard (La société de consommation, 1974) :
Le gadget se définit en fait par la pratique qu’on en a, qui n’est ni de type utilitaire, ni de type symbolique, mais ludique.

http://fr.locita.com/apple/ipad-apple/la-tablette-un-outil-entre-deux-pour-faire-les-choses-a-moitie/

Les utilisateurs de logiciels de CAO plébiscitent le cloud

Le cloud semble en mesure de répondre aux besoins de collaboration, d’échange de données et de calcul des professionnels utilisant des outils de CAO.
Depuis peu, l’éditeur américain Autodesk se montre très actif dans le secteur du cloud computing. La firme présentait ainsi récemment un logiciel de gestion du cycle de vie des produits accessible en mode SaaS. Elle revient aujourd’hui avec les résultats d’une étude portant sur l’utilisation du cloud par les utilisateurs de produits de CAO (Conception Assistée par Ordinateur).

Menée auprès de 1300 entreprises européennes, cette étude prédit un beau succès aux offres cloud dans le monde de la CAO. 72 % des personnes interrogées pensent ainsi que cette approche va gagner en popularité, car elle permet de répondre aux besoins croissants en termes de collaboration et de puissance de calcul.

Plus de 40 % d’adoptants

44 % des entreprises déclarent déjà utiliser le cloud pour faciliter l’échange de données et la collaboration (en interne, ou avec leurs partenaires), voire pour disposer de puissance de calcul complémentaire. Elles n’ont donc pas attendu que les outils de CAO s’adaptent au cloud pour embrasser cette technologie.
« Étant donné que le cloud en est encore à ses débuts, en particulier dans le domaine de la conception, ces résultats indiquent que nous assistons à une révolution non seulement dans les attitudes, mais également dans la façon dont les fabricants utilisent la technologie », résume Hugues Drion, directeur commercial de la fabrication chez Autodesk France. « Les utilisateurs et les responsables de CAO n’attendent pas seulement un avenir dans le cloud avec impatience, mais beaucoup l’utilisent déjà. »
Crédit photo : © Ben Chams – Fotolia.com

http://www.silicon.fr/les-utilisateurs-de-logiciels-de-cao-plebiscitent-le-cloud-68969.html

Le projet français CloudPort est sur les rails

Le gouvernement a retenu le projet CloudPort dans le cadre de l’Appel à Projet n°1 dédié au Cloud Computing.
Tandis que certains projets liés aux financements du grand emprunt accessibles dans le cadre des appels à projets du gouvernement sont compromis par l’abandon de participants prestigieux, d’autres continuent d’avancer. Ainsi en est-il du projet CloudPort – d’élaboration d’outils innovants pour faciliter le portage d’applications existantes dans le cloud – qui a été retenu par le gouvernement dans le cadre de l’Appel à Projet n°1 dédié au cloud computing.
Doté d’un budget prévisionnel de 3,4 millions d’euros, CloudPort est porté par un consortium emmené par Prologue, avec les laboratoires de recherche de l’Institut Télécom et MINES ParisTech, CityPassenger et le groupe MASSA en charge des cas d’usage.

Un projet qui vient de l’open source

Le projet, qui prend sa source dans CompatibleOne (un projet open source), prévoit le développement d’une plateforme logicielle dont la mission sera d’accompagner la migration des applications existantes vers le cloud. L’objectif est donc de créer les outils qui permettront la migration des applications du mode local et licences au mode SaaS (Software as a Service) en location, sans rique, tout en garantissant l’interopérabilité des applications entre les modes de diffusion, cloud public ou privé, ainsi que la réversibilité.

« Dans ce projet, nous répondons au besoin exprimé par de nombreuses entreprises de voir leurs applications existantes profiter des bénéfices du cloud computing tout en garantissant une parfaite liberté de choix du fournisseur d’IAAS », a déclaré Najah Naffah, directeur des développements stratégiques chez Prologue et l’un des initiateurs du projet CloudPort . « Mais aussi, nous apportons une forte valeur ajoutée à travers notamment deux aspects : l’accès aux applications par tout type de terminal (PC, client léger, smartphone, tablette, SmartTV), et la capacité à rendre ces applications collaboratives. »

Appel à Projet n°1 dédié au Cloud Computing

L’Appel à Projet est issu de la loi n°2010-237 du 9 mars 2010 de finances rectificative pour 2010 définissant les emplois des investissements d’avenir. Il prévoit l’affectation de 4,250 milliards d’euros au programme « développement de l’économie numérique », opéré par le Fonds national pour la Société Numérique (FSN). Son objet est de « développer de nouvelles activités et d’établir des positions solides dans le domaine l’informatique en nuage » (cloud computing).
« L’action “cloud computing” des Investissements d’avenir vise à instaurer une dynamique d’écosystème dans le secteur de l’informatique en nuage, à la fois dans ses dimensions technologique et économique. Cet écosystème se fondera entre autres sur des infrastructures disponibles à l’échelle au moins nationale ou européenne, des fournisseurs de technologies et des éditeurs de services. Le volet R&D de cette action s’appuie sur le constat que seule une avance dans les technologies structurantes pour les prochaines générations d’infrastructures à la demande peut permettre aux acteurs nationaux et européens de bâtir une position significative sur le plan technologique et industriel. »

http://www.silicon.fr/le-projet-francais-cloudport-est-sur-les-rails-68962.html

vendredi 23 décembre 2011

4G : les fréquences en or pour BouyguesTel, Orange et SFR mais pas pour Free Mobile


4G : les fréquences en or pour BouyguesTel, Orange et SFR mais pas pour Free MobileRéglementation - Free n'obtient qu'un droit à l'itinérance. La vente des licences rapportera globalement à l'Etat près de 3,5 milliards d'euros, soit un milliard de plus qu'espéré...
Le second volet de l'attribution des licences 4G est donc bouclé. Ce jeudi, l'Arcep, le régulateur des télécoms a donc attribué les sésames concernant la bande des 800 Mhz, à savoir les fameuses fréquences en or issues du dividende numérique (passage de la TV analogique au numérique).
Cette bande permettra de couvrir une surface plus importante et donc de déployer un réseau plus large avec un plus petit nombre d'antennes relais. Les 4 opérateurs français étaient candidats.
Mais seulement trois ont obtenu une licence sur la base des trois critères prévus par l'appel à candidatures : l'engagement d'aménagement du territoire, l'engagement d'accueil des opérateurs mobiles virtuels (MVNO) et le montant financier proposé pour les fréquences.
Free pas assez généreux
Bouygues Telecom qui a proposé 683 millions d'euros empoche le bloc A (10 Mhz en duplex). SFR versera de son côté la bagatelle de 1,05 milliard d'euros pour les blocs B et C (10 Mhz en duplex). Orange remporte le bloc D (10 Mhz en duplex) pour 891 millions d'euros.
Free Mobile n'obtient donc pas de licence dans les 800 Mhz alors qu'il en a décroché une dans les 2,6 Ghz (zones urbaines). Free "n'a pas été retenue à l'issue de la phase de sélection pour l'attribution d'une autorisation, compte tenu des offres des autres candidats", explique l'Autorité.
Néanmoins, Free Mobile, dont la candidature dans la bande 800 MHz est recevable et qualifiée "répond aux conditions de l'appel à candidatures lui permettant de bénéficier d'un accueil en itinérance dans la bande 800 MHz, pour la couverture d'une zone de déploiement prioritaire, constituée des zones les moins denses du territoire", ajoute l'Arcep.

Free Mobile pourra donc faire la demande d'une telle prestation d'itinérance auprès de SFR, en tant que titulaire d'une autorisation cumulant deux blocs de la bande 800 MHz. Free Mobile pourra, de droit, bénéficier de cette itinérance dès lors que son réseau à 2,6 GHz aura atteint une couverture de 25 % de la population.
Rappelons que les 4 mêmes opérateurs ont en septembre dernier décroché chacun une licence dans les bandes 2,6 GHz, celles concernant les zones denses et urbaines.
Au total, Bouygues Telecom aura déboursé donc pour la 4G un peu plus de 911 millions d'euros. Free Mobile : 271 millions (mais seulement pour le 2,6 Ghz), Orange : 1,3 milliard d'euros et SFR 1,2 milliard d'euros.
L'affaire est donc juteuse pour l'Etat. Le ministre de l'Industrie, Eric Besson, a indiqué jeudi à l'AFP que l'appel d'offres pour les licences de téléphonie 4G était "un succès intégral" et que l'Etat allait empocher un milliard d'euros de recettes supplémentaires de la part des opérateurs, soit un total pour les deux bandes de fréquences de près de 3,5 milliards d'euros.
"Le résultat de l'appel d'offres va au-delà de nos espérances. C'est un succès intégral puisque nous attendons un milliard d'euros de recettes supplémentaires par rapport aux 2,5 milliards initialement prévus" pour l'ensemble des licences, a déclaré le ministre.
Lors du premier round d'enchères sur les fréquences les moins chères en septembre, le gouvernement avait obtenu des quatre opérateurs candidats 0,9 milliard d'euros contre 0,7 attendu. Cette fois, pour le 800 Mhz, il obtient 2,6 milliards d'euros contre 1,8 milliard attendus.
L'enjeu est important puisque la 4G à la sauce LTE (Long Term Evolution) est censée régler en partie les difficultés de saturation des réseaux mobiles à l'heure où le trafic explose grâce à un débit pratique qui se situera autour des 40 Mb/s. Reste que son déploiement prendra du temps, notamment à cause des finances serrées des opérateurs.
D'un autre côté, l'existence de l'écosystème avec des terminaux 4G disponibles et une vraie attente de la part des consommateurs devrait inciter les opérateurs français à accélérer le mouvement, notamment pour proposer une valeur ajoutée face à leurs concurrents.
Selon la plupart des spécialistes, les premières offres 4G pourraient ainsi être lancées en 2013...

http://www.zdnet.fr/actualites/4g-les-frequences-en-or-pour-bouyguestel-orange-et-sfr-mais-pas-pour-free-mobile-39766796.htm#xtor=EPR-100

Ne laissez pas un réseau inadapté vous fermer les portes du Cloud Par Eric Sèle, Directeur General EMEA, Ciena

jeudi 22 décembre 2011
Alors qu'Eric Besson, Ministre chargé de l'Industrie, de l'Énergie et de l'Économie numérique, annonce que l'Etat prévoit d'investir 19 millions d'euros dans des projets de Cloud Computing, impossible de parler des technologies qui ont marqué l'année 2011 sans évoquer le nuage. Pourtant, si 73 à 83% des entreprises françaises envisagent d'évoluer vers le Cloud*, son adoption reste encore mesurée dans l'Hexagone. En cause, l'écart qui existe parfois entre les promesses d'agilité, de souplesse ou encore de rentabilité et la réalité que vivent les entreprises.

Alors l'année 2012 verra-t-elle se confirmer le succès du Cloud Computing ? Il est encore difficile de répondre mais une chose est sûre, les entreprises doivent prendre conscience de la nécessité d'une connectivité réseau plus intelligente avec des ressources hébergées sur le principe du Cloud. Plusieurs éléments imposent de disposer de réseaux plus robustes reliant l'entreprise à un système de Cloud Computing. En effet, les volumes de données transférés entre les data centers des entreprises et ceux basés sur le Cloud sont toujours plus importants. Par exemple :

- Les transferts par machine virtuelle entre les data centers ne concernent désormais plus de petits volumes anecdotiques. Il s'agit maintenant d'énormes volumes, avec l'arrivée des instances de serveurs à la mémoire et au stockage associés nettement plus importants. Ainsi, des vApps peuvent fonctionner avec un certain nombre de machines virtuelles (VM) qui disposent chacune d'une mémoire atteignant aujourd'hui jusqu'à 1 To.

- Le stockage virtuel n'est plus exclusivement lié à un seul data center - il est désormais partagé entre les data centers des entreprises et ceux des solutions de Cloud dans des configurations de type active/active, entraînant de plus gros flux de données de synchronisation pour le stockage.

- Un nombre croissant d'applications critiques pour l'entreprise est déployé à l'heure où les machines virtuelles passent au Cloud. La sécurité réseau et les performances doivent donc être de haute qualité pour l'équilibrage des charges de travail.

- Une plus large adoption des infrastructures basées sur le Cloud (IaaS) visant à favoriser la mobilité, la collaboration et la disponibilité pour la gestion de la charge de travail, impose d'autres exigences pour le réseau lorsque les data centers sont plus éloignés géographiquement. Cela se traduit par des topologies de déploiements plus complexes.

Un réseau plus souple et intelligent fonctionnant avec un système de Cloud Computing permettra aux entreprises de mieux cerner les promesses du « data center sans murs », en d'autres termes un data center totalement virtuel. Ce modèle industriel reposera sur une architecture de type active/active qui se substitue aux architectures de sauvegarde passives afin d'offrir plus de possibilités en termes de mobilité, travail collaboratif et disponibilité. Il se traduira aussi par l'exploitation d'infrastructures et services privées ou de Cloud non rattachés à une implantation physique. Plus spécifiquement, cette nouvelle architecture technique inclura une infrastructure serveur, de stockage et de réseau intelligent.

Le modèle de « data center sans murs » présente de nombreux avantages, à commencer par une capacité évolutive, une sécurité intégrée et la souplesse d'un accès à des ressources à la demande avec facturation selon l'usage. Dans l'ensemble, cette approche permet de gérer des volumes de tâches en dents de scie, avec des coûts d'exploitation incrémentiels au lieu d'avoir à réaliser des investissements exorbitants pour des capacités sous-utilisées. La mise en place d'un réseau dynamique et intelligent entre les ressources des entreprises et celles du Cloud permet par ailleurs de déployer des applications dans n'importe quel lieu. Avec pour résultat une réduction des coûts pour les entreprises qui seront en mesure d'exploiter leurs ressources avec plus d'efficacité, en obtenant des performances maximales. Autre atout : un réseau omniprésent et souple offrira plus de possibilités aux structures informatiques pour développer et déployer des applications, sans être pieds et poings liés avec un data center physiques ou un fournisseur en particulier.

Dans l'ensemble, le modèle du « data center sans murs » sera synonyme, pour les services informatiques de centre de données virtuel entièrement automatisé, non rattaché à un lieu. Il permettra de réduire au minimum les dépenses de capitaux tout en garantissant une souplesse optimale.

http://www.infodsi.com/articles/126864/laissez-pas-reseau-inadapte-fermer-portes-cloud-eric-sele-directeur-general-emea-ciena.html?key=

Le Cloud dope l’adoption des communication et collaboration unifiées Somsack Soubinh, Technical Architect, NTT France

jeudi 22 décembre 2011
Les solutions de Communication et Collaboration Unifiées séduisent les entreprises par la richesse de leurs fonctionnalités et leur adéquation aux nouveaux usages et modes de travail. IDC prévoit un taux de croissance annuel de ce marché de 23,7 % sur  la zone EMEA dans les cinq prochaines années. L’arrivée de solutions en mode « As A Service » va permettre de simplifier leur mise en œuvre et d’accélérer leur adoption par les entreprises de toutes tailles. Les solutions UCaaS (Unified Communication as a Service), permettent en effet d'externaliser ses outils de communication et de collaboration pour au final ne louer qu'un service et s'affranchir de la mise en place et du support d'une solution complexe.

Du Centrex au UCaaS

Les « Centrex IP » apparus il y a une dizaine d’année consistaient à mettre en place des téléphonies sur IP basiques, offrant des services équivalents, voire inférieurs à la téléphonie traditionnelle. L'IP apportait une approche différente en termes d'architecture (PABX centralisé ou externalisé) ce qui offrait un véritable avantage aux opérateurs, mais pas d’apport fonctionnel réel pour les entreprises et les utilisateurs. L'IP n'était pas forcément exploité car ces solutions nécessitaient souvent un réseau LAN dédié ainsi qu’une connexion vers le Centrex IP de l’opérateur.

Depuis, les choses ont bien évolué. Les fonctionnalités apportées sont sans commune mesure : outre les fonctions dites standards, les nouvelles solutions de communication et collaboration unifiées intègrent une multitude d'outils qui apportent une réelle productivité et correspondent au mode de travail actuel.

Parmi leurs nombreux avantages, les solutions de UC permettent de :
-Simplifier la mobilité : accès depuis son PC, MAC, smartphone ou tablette à l’intérieur ou à l’extérieur du bureau, depuis son profil téléphonique itinérant sur n’importe quel téléphone de l’entreprise, quel que soit le site (simplification des déménagements ou des simples changements physiques de bureaux)
-Faciliter la collaboration : messagerie instantanée, vidéo, travail collaboratif avec la voix, la vidéo et le partage de document en web de façon sécurisée
-Améliorer l’ergonomie : une interface simplifiée et unique pour toutes les applications, qui accélère l’adoption par les utilisateurs
-Sécuriser le système : robustesse contre les attaques malveillantes et les pannes
-Réduire les coûts du câblage informatique et du nombre d’équipements réseaux ainsi que les coûts de maintenance : 1 Prise RJ45 = 1 téléphone IP + 1 PC

Les fonctionnalités des solutions d’UC répondent aux besoins des utilisateurs : aujourd'hui, un collaborateur est souvent mobile et possède au moins deux terminaux, un fixe et  un mobile, donc deux messageries vocales. Les outils actuels permettent de ne gérer qu'une seule boite vocale tout en multipliant les moyens d’accès de l'utilisateur et les voies de communication. C'est donc un gain de temps pour l'appelant qui ne laissera qu'un seul message sur une seule boite unifiée, mais également pour l'employé qui ne consulte qu'une seule messagerie depuis son poste fixe, son mobile intégrant son application entreprise, ou depuis son PC. Il pourra également répondre au message en sélectionnant le meilleur moyen de communication (voix, message vocal,  message instantané, ou même en vidéo) en fonction du statut de présence de son correspondant.

Les solutions d’UC intègrent également des fonctions collaboratives qui permettent de partager des données et des applications lors des sessions de communication. Une étude de Frost et Sullivan menée il y a deux ans a montré que les cadres utilisaient 4 à 5 outils de collaboration par jour. Unifier ces outils et les intégrer à la communication permet un réel gain de productivité.
La maturité des produits et des fonctionnalités offertes laisse donc envisager une adoption massive par les entreprises, en particulier celles qui possèdent de nombreux sites et des implantations internationales.

Les apports du cloud

Les entreprises ont compris les bénéfices des solutions en mode « As a Service » qui ont été démocratisées grâce à une large communication et un lancement massif d’applications « dans le nuage » par les plus grands éditeurs de logiciels et services. Grâce au cloud, les entreprises peuvent :
-Passer cette charge en mode charges d’exploitation (Opex) et obtenir une meilleure prédictibilité des coûts
-Bénéficier de l’intégration des services de support et maintenance et des mises à jour techniques et fonctionnelles de la solution
-Disposer d’un engagement contractuel sur la disponibilité des applications.

Ces avantages prennent toute leur valeur dans le domaine de la communication unifiée, en particulier du côté technique. Le RSSI va en effet se libérer des contraintes opérationnelles et se concentrer sur l'évolution des services offerts aux utilisateurs plutôt que de passer du temps à les maintenir. Bien souvent, on oublie le coût que représente l'exploitation interne, dans laquelle il faut intégrer la formation des collaborateurs et le temps passé à administrer un système. Parfois, cette expertise repose sur une seule personne. Un vrai risque sur ce type d’application : que se passe-t-il si une panne survient alors que cette personne est absente ?  Ou si elle quitte la société sans laisser de documentation ni transférer ses compétences ?

Avec une solution UCaaS, l’opérateur va mettre à disposition un véritable service mutualisé de maintenance et de support, dont les experts seront au service de tous les clients, dans le monde entier, en plusieurs langues, 24h/24et 7j/7. Il est également capable de proposer des plans de reprise ou de continuité d’activité (PRA / PCA). Une organisation de ce niveau ne peut pas être mise en place en interne par l’entreprise, surtout lorsqu’elles sont internationales.
Pour en bénéficier pleinement, il faut s'assurer que le service inclut un taux de disponibilité mais également identifier le périmètre de responsabilité, sachant que les infrastructures réseau local et WAN seront utilisées. Ceci pour éviter les « renvois de balle » entre deux fournisseurs lors des incidents.
Lorsque l’opérateur UCaaS est un opérateur de réseau, il peut fournir un service jusqu’aux locaux de l’entreprise à travers le monde avec un SLA global, et gérer l’évolution du réseau.

Répondre aux nouvelles contraintes du poste de travail

La prolifération de nouveaux terminaux (smartphones, tablettes…) et la tendance des salariés à utiliser en entreprise leurs propres matériels (BYOD : Bring Your Own Device) rendant complexe la gestion de la sécurité et de la maintenance de ce parc hétérogène.  Avec les solutions UCaaS, l’entreprise peut fournir l’accès aux outils informatiques et téléphoniques de l’entreprise à travers tous ces terminaux, tout en respectant les règles de sécurité (authentification, intégrité). L’opérateur aura fait les investissements nécessaires pour être compatible avec les différentes marques et modèles de terminaux, ce que beaucoup d’entreprises ne peuvent réaliser faute de moyens.

Il est maintenant réaliste de fournir en tout temps, en tout lieu, sur n’importe quel périphérique, l’accès au système d’information de son entreprise. Le modèle ATAWAD (Any Time, Any Where, Any Device) est mûr et permet d’améliorer la productivité et la satisfaction des attentes des collaborateurs.

Les opérateurs se lancent dans les solutions UCaaS

Seuls les opérateurs de réseaux ont la capacité à fournir un engagement sur des solutions UCaaS. La pierre angulaire de la qualité et de la disponibilité du service est le réseau transportant ces flux multimédias. Sans la maîtrise de chacun des équipements traversés, avec une implémentation bout-en-bout de la qualité de service (QoS), il devient impossible de garantir un niveau de service.

Cette disponibilité du service repose également sur une infrastructure redondante, avec des fonctionnalités avancées pour tous, proposées à un coût accessible pour les entreprises. Le nerf de la guerre reste l’interopérabilité. Le développement de ces offres se fera si elles répondent aux besoins du plus grand nombre avec un minimum de contraintes.

Seuls les services accessibles en situation de mobilité avec les mêmes fonctionnalités, 24h/24 et fonctionnant sur un maximum de terminaux pourront répondre aux exigences  de productivité. Dans une société de moins en moins sédentaire, et de plus en plus connectée, l’enjeu se nomme ATAWAD : AnyTime AnyWhere, AnyDevice.

http://www.infodsi.com/articles/126865/cloud-dope-adoption-communication-collaboration-unifiees-somsack-soubinh-technical-architect-ntt-france.html?key=

Andromède : le Cloud souverain français perd Dassault Systèmes

Andromède : le Cloud souverain français perd Dassault SystèmesTechnologie - Censé constituer une alternative aux offres des acteurs américains et garantir la souveraineté des données des administrations et entreprises françaises, le projet de Cloud Andromède a du plomb dans l’aile. Dassault Systèmes a jeté l’éponge. L’attitude d’Orange serait en cause.
Le Cloud Computing est un des domaines visés par les investissements d’avenir bénéficiant d’un financement de l’Etat. Dans ce secteur, un partenariat public-privé a été conclu avec plusieurs entreprises privées.
Le projet, baptisé Andromède, a pour but de proposer infrastructures et solutions Cloud aux administrations et entreprises françaises. Un consortium s’est constitué en août, composé d’Orange, de Thales et de Dassault Systèmes.
Orange, acteur d'Andromède, et concurrent
Mais voilà, ce partenariat public-privé censé garantir la souveraineté des données (celles-ci demeurent stockées en France et donc pas exposées par exemple au Patriot Act américain) et concurrencer les géants du secteur (Microsoft, Google, Amazon…) a du plomb dans l’aile.
Selon des informations de La Tribune et de l’AFP, Dassault Systèmes vient de claquer la porte. En cause, un différend avec Orange. Sujets de discorde : la gouvernance de la future entité, la durée de la clause de non concurrence et les tarifs pratiqués par Orange.
Dassault Systèmes souhaitait ainsi que la clause de non-concurrence s'applique durant six ans. Orange, qui commercialise ses propres solutions Cloud, en partenariat notamment avec Microsoft, militait au contraire pour une durée plus courte.
Dassault Systèmes pointe clairement l’opportunisme d’Orange, qui serait tenté de vouloir gagner sur les deux tableaux, notamment au travers des prix pratiqués sur la location des espaces informatiques dans ses datacenters. Ceux-ci sont jugés trop élevés par rapport à la concurrence par l’éditeur.
Le pendant numérique du "acheter français" ?
En se retirant du consortium, Dassault Systèmes reprend donc la participation financière qu’il devait en principe apporter : 60 millions d’euros selon La Tribune. Pour émerger, Andromède a donc besoin de nouveaux partenaires.
Atos et Cap Gemini pourraient notamment être candidats. Mais Atos a-t-il un intérêt à se joindre à cette initiative ? En effet, l’entreprise, pour répondre à la problématique de souveraineté des données, s’est associée à Microsoft pour proposer une offre de services en ligne depuis un Cloud privé.
Andromède doit compter aussi avec cette concurrence. Pas sûr donc que le slogan du moment, "acheter français", suffise à inciter les entreprises et administrations à payer des services plus chers...

http://www.zdnet.fr/actualites/andromede-le-cloud-souverain-francais-perd-dassault-systemes-39766785.htm#xtor=EPR-100

Dans le secteur ferroviaire, les tâches se gèrent par téléphone

Publié le 22 décembre 2011 , A propos de... Mathieu Paumard
Afin de communiquer plus efficacement entre eux et d'améliorer la ponctualité au sein du réseau, les opérateurs de trains pourront bientôt obtenir toutes les informations nécessaires directement sur leur téléphone portable.

Pour permettre une répartition plus adaptée des tâches entre les professionnels du secteur ferroviaire ainsi qu'un échange d'informations simplifié entre la direction et les employés sur le terrain (conducteurs, personnel de bord, agents d'entretien...), une solution est de recourir au mobile. Appear, créateur de plates-formes d'applications mobiles pour les entreprises, et Qnamic, spécialiste des programmes de planification pour l'industrie du transport, développent actuellement RailOpt Anywhere, un logiciel pour Android et iOS. "Les compagnies de train équipent de plus en plus leurs salariés de smartphones mais ne les utilisent que pour la communication vocale alors que d'autres ressources clefs peuvent être montrées", explique Marc Schaffert, directeurs des opérations chez Qnamic.
Accès aux données en temps réel
La solution sera en réalité un portage du logiciel RailOpt (sur PC), soit une base de données accessible via une plate-forme JAVA, contenant la liste des plannings, des absences ainsi qu'un système permettant à chacun d'envoyer des informations directement aux coordinateurs et à leurs collègues. Chaque employé bénéficiera d'un profil personnalisé sur son portable, il pourra ainsi vérifier et mettre à jour les données qui le concerne en temps réel, où qu'il se trouve.
Meilleure coordination et planification
Les conducteurs n'auront plus besoin d'attendre de se rendre sur un poste fixe pour valider la fin de leur service ou pour annoncer un retard. Les agents d'entretien pourront signifier immédiatement si un train est bien préparé. En améliorant la mise en place des emplois du temps et la collaboration entre toutes les branches de l'entreprise, il sera possible de mieux planifier la répartition des ressources, ce qui devrait avoir un effet bénéfique sur la ponctualité des trains ainsi qu'une réduction des coûts opérationnels. La beta du programme devrait démarrer début février 2012, avec plusieurs partenaires.

http://www.atelier.net/fr/articles/secteur-ferroviaire-taches-se-gerent-telephone

L'iPhone perd des parts de marché en Europe

22/12 | 12:57
En bourse
La longue attente de l'iPhone 4S a permis à Apple de gagner des parts de marché aux Etats-Unis et au Royaume-Uni, mais le groupe californien cède du terrain ailleurs en Europe, montre une étude publiée jeudi.
"En Grande-Bretagne, aux Etats-Unis et en Australie, le nouvel iPhone d'Apple continue de s'envoler des rayons à l'approche de Noël. Mais cette tendance est loin d'être universelle", a déclaré Dominic Sunnebo, directeur des études pour les produits grand public au cabinet Kantar Worldpanel ComTech.
Le marché des smartphones est actuellement dominé par Google , qui a fait une incursion remarquée en offrant gratuitement son système d'exploitation Android aux fabricants de combinés comme Samsung Electronics, Sony Ericsson, LG Ericsson et Motorola Mobility.
Google a une part de marché comprise entre 46 et 61% sur tous les marchés.
"En Allemagne, Android culmine à 61% de parts de marché sur la période comprise entre septembre et novembre, et le Samsung Galaxy S II est en tête des ventes", a déclaré Dominic Sunnebo.
Selon le cabinet Kantar, la part de marché d'Apple a grimpé, entre septembre et novembre, pour atteindre 36% aux Etats-Unis contre 25% un an plus tôt sur la même période. En Grande-Bretagne, elle est passée de 21% à 31%.
En revanche, en France, la part de marché du créateur de l'iPhone a reculé à 20%, contre 29% l'année dernière. En Allemagne, elle est passée de 27% à 22%. En Italie et en Espagne, les mêmes phénomènes ont été observés.
"Le marché français montre des signes croissants de guerre de prix", a expliqué Dominic Sunnebo.
http://www.lesechos.fr/une/une/reuters_00411084-l-iphone-perd-des-parts-de-marche-en-europe-266807.php?xtor=EPR-1500-[la_une_soir]-20111222-[s=461370_n=1_c=100_]-409905656@1

La vente des licences 4G rapporte 3,5 milliards d'euros à l'Etat français

22/12 | 17:43 | mis à jour le 23/12 à 07:33 | Guillaume de Calignon

L'Etat français tire 1 milliard d'euros de plus qu'attendu de la vente des licences. Free n'a pas obtenu de fréquences 4G mais pourra utiliser le réseau de ses concurrents en les rémunérant pour cela. SFR dépense, lui, plus d'un milliard d'euros dans les fréquences.

En bourse
Jackpot pour l'Etat. La vente des licences 4G lui a rapporté 3,575 milliards d'euros. C'est un milliard d'euros de plus que ce qu'il en espérait et le gouvernement ne peut que s'en féliciter en ces temps de disette budgétaire. Le ministre de l'Industrie, Eric Besson, a même parlé de « succès intégral ». Environ 700 millions d'euros ont été affectés au budget de la Défense, le reste allant au budget général de l'Etat. A titre de comparaison, les fréquences 4G ont été vendues à un prix comparables en Italie en septembre. Elles ont rapporté 3,7 milliards d'euros à l'Etat italien.
Les « fréquences en or », baptisées comme telles car elles permettent d'accéder à l'Internet à très haut débit sur une large portion du territoire, sont issues de l'arrêt de diffusion de la télévision analogique. En France, ces fréquences, en 800 Méga Hertz, ont rapporté un total de 2,64 milliards d'euros. Les fréquences de la bande 2,6 GHz, moins utiles, ont elles, été valorisées à 936 millions par les opérateurs. La mise en vente des ondes, patrimoine public, doit aux Français de surfer plus vite et mieux sur leur smartphones et leurs tablettes. Le débit sera au moins de 60 méga bits par seconde. Orange, qui souhaite être le premier opérateur à ouvrir son service 4G, pourrait commencer fin 2012 -début 2013.
Les fréquences en 800 MHz à vendre étaient divisées en quatre blocs, afin que chacun des opérateurs puissent en avoir une partie. La surprise, c'est que Free n'a pas obtenu de fréquences en 800 MHz. Ce qui est à priori un problème pour l'opérateur, qui doit lancer ses services mobiles début janvier. Heureusement, l'appel à candidature prévoyait que, si l'un des opérateurs n'obtenait pas de fréquences, il disposerait d'un droit d'itinérance chez l'opérateur qui aura emporté deux blocs. Free aura donc le droit d'utiliser le réseau 4G de SFR, qui est l'opérateur ayant obtenu deux blocs de 5 MHz chacun. La filiale de Vivendi a du débourser 1,065 milliard d'euros pour emporter ces lots. C'est lui qui a dépensé le plus. Orange, qui compte plus de 26 millions de clients mobiles fera, lui un chèque de 891 millions d'euros pour obtenir 10 MHz de fréquences. Il s'agit du bloc de meilleure qualité. Quant à Bouygues Télécom, il dépense moins que les autres. Il achète 10 MHz pour 683 millions « seulement », c'est à dire 380 millions de moins que pour SFR.
GUILLAUME DE CALIGNON
http://www.lesechos.fr/entreprises-secteurs/tech-medias/actu/0201809018942-la-vente-des-licences-4g-rapporte-3-5-milliards-d-euros-a-l-etat-francais-266911.php?xtor=EPR-1500-[la_une_soir]-20111222-[s=461370_n=3_c=304_]-409905656@1
 

jeudi 22 décembre 2011

Google et Mozilla réaccordent leurs violons pour trois ans

Au bout du suspense, Google et la Fondation Mozilla rempilent pour trois ans, réitérant un partenariat arrivé à terme en date du 30 novembre dernier. Google Search restera bien le moteur de recherche par défaut de Firefox.
Google renouvelle pour trois ans son partenariat exclusif avec la Fondation Mozilla et met ainsi fin à un suspense datant du 30 novembre dernier.
En vigueur depuis 2008, l’accord en question avait alors touché à sa fin, sans que les deux parties n’aient vraisemblablement pu convenir d’un quelconque renouvellement.

En mauvaise posture, la fondation éditrice du navigateur Firefox se voulait toutefois confiante à l’heure d’amorcer « une phase de négociations actives« , évoquant même l’inéluctabilité d’une prolongation.
Au bout du tunnel, un cadeau de Noël avant l’heure. Google proroge de trois ans ce contrat stratégique dont découlent 84% des revenus de la fondation.
« En vertu de cet accord entériné pour les trois prochaines années, Google Search reste le moteur de recherche par défaut dans Firefox [il apparaîtra par défaut dans la barre d'outils du logiciel, ndlr]« , a déclaré Gary Kovacs, P-DG de la maison Mozilla.
Dans une moindre mesure, la manoeuvre englobe le client de messagerie Thunderbird, où s’immiscent parfois quelques publicités dont le groupe de Mountain View tire de substantiels bénéfices.
Au prix de quelques sueurs froides, Firefox est assuré de poursuivre son exercice jusqu’à l’horizon 2014. C’est néanmoins sans compter ce déclin progressif, aux antipodes de cette fulgurante montée en puissance de Chrome.
Au dernier baromètre de StatCounter, le butineur de Google poursuit son ascension vers les sommets, pour titiller Internet Explorer.
En parallèle, le cabinet Accuvant dénonce des aberrations sécuritaires de premier ordre dans les tréfonds de Firefox : absence de sandboxing et d’une liste noire d’adresses URL, ouverture à tout vent des extensions et modules complémentaires…
Quand bien même des experts ont mis en doute la méthodologie de l’étude en question (commandée et financée par Google), les temps changent dans l’écosystème des navigateurs Web. Un triumvirat se détache et ses membres livrent une lutte de longue haleine.

http://www.itespresso.fr/google-et-mozilla-reaccordent-leurs-violons-pour-trois-ans-49700.html

IBM dévoile les 5 technologies qui vont changer le monde IT dans les 5 ans à venir

« IBM 5 in 5 » ou les cinq technologies IT qui vont transformer le monde dans les cinq ans à venir… selon IBM. Le plus classique côtoie ici le plus inattendu.
Le géant new-yorkais Big Blue profite de cette fin d’année pour s’essayer au jeu des prévisions. La firme tente ainsi de déterminer quelles technologies auront un impact sur nos vies, dans les cinq ans à venir.
IBM évoque tout d’abord les énergies renouvelables, qui vont connaitre un nouvel essor par le biais d’une exploitation massive de toutes les petites sources d’énergie présentes autour de nous. Cette idée n’est pas sans rappeler la célèbre dynamo, qui permettait d’assurer l’éclairage des vélos, ou les montres qui utilisent le mouvement du poignet pour se recharger.

La firme va plus loin en proposant d’exploiter la chaleur générée par votre ordinateur, ou même l’eau circulant dans des tuyaux. Seule limite : cette multiplication à l’infini des sources d’énergie nécessitera un réseau de distribution toujours plus intelligent.

L’homme au cœur de l’IT

La biométrie s’est petit à petit installée dans le monde des ordinateurs portables, les lecteurs d’empreintes digitales étant devenus très courants. IBM promet que cette technique va s’imposer plus largement au cours des prochaines années, en utilisant de multiples sources d’authentification : empreintes digitales, image rétinienne et enregistrement de la voix.
L’avantage de la biométrie est que les utilisateurs n’auront plus à retenir la multitude de mots de passe nécessaires dans le monde IT moderne. Le désavantage est que l’ensemble est intimement lié à l’utilisateur, ce qui peut poser problème en cas de décès.
Autre avancée, beaucoup plus futuriste, IBM prédit que les ordinateurs seront prochainement capables de lire directement dans notre esprit. D’une simple pensée, vous pourrez ainsi lancer un appel sur votre téléphone mobile. Encore à l’état expérimental, cette technologie devrait trouver de premières applications pratiques dans les années à venir, et tout d’abord – selon la firme – dans le secteur des jeux vidéo.

Une réduction de la fracture numérique

IBM estime que 5,6 milliards de terminaux mobiles seront en circulation d’ici cinq ans. De quoi couvrir 80 % de la population mondiale. Ceci permettra de réduire les inégalités en terme d’accès à l’information. Les terminaux mobiles apporteront également des réponses pour les personnes défavorisées. Ils proposeront ainsi une parade efficace contre l’illettrisme ou se mettront au service des malentendants… Les possibilités sont quasi infinies.
Enfin, et voilà qui fera plaisir aux spécialistes du marketing, IBM prédit que les publicités envoyées par courrier électronique deviendront tellement ciblées que les internautes ne les considéreront plus comme du spam, mais au contraire comme du contenu important. D’un autre côté, les messages « réellement » indésirables (qui ne disparaitront aucunement) seront mieux filtrés par les outils antispam.
Crédit photo : © Pei Ling Hoo – Fotolia.com

http://www.silicon.fr/ibm-devoile-les-5-technologies-qui-vont-changer-le-monde-it-dans-les-5-ans-a-venir-68560.html

La vision d'un hébergeur professionnel sur le Cloud

Nicolas Savides @ Global SP & MySaaS 
Cette vidéo a été enregistré lors de la conférence en ligne Tendances-Cloud en juillet 2011
Cette initiative est réalisée par PowerOn, (agence webmarketing spécialisée dans les médias sociaux) et est soutenue par salesforce.com, fournisseur de solutions CRM dan
http://www.tendances-cloud.com/video-nicolas-savides/

Bluetooth et NFC main dans la main pour simplifier l'appairage

Le Bluetooth SIG et le NFC Forum ont aujourd'hui annoncé la publication de « Bluetooth Secure Simple Pairing Using NFC » (littérallement « appairage Bluetooth simple et sécurisé utilisant le NFC »), un document décrivant comment faciliter l'appairage d'appareils munis à la fois du Bluetooth et du NFC.

Luna black overview5 604x604

Le Near Field Communication (NFC) offre comme son nom l'indique une portée si courte qu'il se connecte sans intervention préalable au dispositif auquel il est accolé, on ne peut plus simplement, contrairement au Bluetooth qui offre en contrepartie un débit permettant de transmettre un peu plus qu'un paiement ou une carte de visite électronique.

En combinant les deux, on peut en revanche combiner le meilleur des deux mondes et appairer deux appareils Bluetooth sans aucune interface utilisateur, en particulier sans saisie de code, simplement en les approchant l'un de l'autre.

Le document technique, destiné aux fabricants d'appareils et aux développeurs d'applications, décrit la méthode recommandée pour implémenter la fonction Secure Simple Pairing (SSP), inaugurée avec le Bluetooth 2.1, au travers du NFC. Elle n'exploite que des fonctionnalités existantes et peut donc se concrétiser dès aujourd'hui.

Le NFC transmet donc l'identifiant unique de l'appareil à appairer, ce qui évite d'avoir à le sélectionner manuellement, puis les données d'authentification sécurisant la transmission, il n'est plus nécessaire de saisir un code, voire même l'application à lancer.

Certains fabricants n'ont d'ailleurs pas attendu le rapprochement du Bluetooth SIG et du NFC Forum pour offrir la même approche : Nokia a récemment lancé une telle oreillette. Le document des deux groupements devrait quoi qu'il en soit contribuer à la démocratisation de cette innovation tout en assurant son interopérabilité.

Android : 700 000 terminaux activés chaque jour

Andy Rubin, qui supervise le développement du système d'exploitation mobile de Google, affirme que 700 000 nouveaux terminaux Android sont activés chaque jour.

Android 4.0
Android va bien, merci. Alors que courant novembre, Google revendiquait un parc de plus de 200 millions de terminaux équipés de son système d'exploitation, la croissance de ce dernier semble toujours bien vive. Andy Rubin, responsable de l'ingénierie d'Android, a en effet affirmé lundi soir sur Google+ que 700 000 nouveaux terminaux étaient activés chaque jour.

« ... et pour ceux qui se posent la question, nous ne comptons chaque appareil qu'une seule fois (nous ne comptons pas les appareils vendus en seconde main) et "activations" signifie que vous allez dans un magasin, achetez un appareil et le mettez sur le réseau en souscrivant un abonnement mobile. », a-t-il encore précisé.

Ce résultat est-il à mettre sur le compte des fêtes de Noël, période particulièrement propice aux achats ? Possible, mais pas certain, puisque la croissance d'Android se poursuit sur un rythme régulier. En juin dernier, Google revendiquait par exemple 500 000 activations par jour. Rappelons qu'en face, Apple annonçait en octobre dernier avoir commercialisé 250 millions d'appareils accueillant iOS depuis leur introduction en 2007.

Oracle annonce de bons résultats financiers mais s'écroule en bourse Oracle, oh désespoir

La société Oracle, deuxième éditeur mondial de logiciels derrière Microsoft, est plus connue du monde professionnel que du grand public. Ceci malgré son onéreux rachat de Sun Microsystems en 2009. Et financièrement, comment se porte-t-elle ? Avec un chiffre d’affaires et un bénéfice net en hausse, il n’y a pas d’inquiétude à avoir. Néanmoins, la nouvelle a été très mal perçue par les actionnaires. Son action chute ainsi de plus de 14 % en ce moment même.

Oracle bourse 21 décembre 2011

Avec 8,8 milliards de dollars de chiffre d’affaires (+2 %) pour son deuxième trimestre fiscal 2012, un bénéfice net de 2,2 milliards de dollars (+17 %) et une marge opérationnelle en forte hausse, il n’y a pourtant pas de quoi paniquer. Ces résultats sont néanmoins bien inférieurs à ceux prévus par les investisseurs.

Zacks.com, spécialisé dans les actualités financières, explique ainsi que l’on s’attendait à un chiffre d’affaires en hausse de 4 à 8 %. Et surtout, les investisseurs notent la faible croissance (+7 %) du secteur logiciel, qui représente 69 % des revenus d’Oracle. Sans compter la chute (-10 %) de son secteur Hardware, qui a perdu 175 millions de $ en un an.

Résultat, Oracle est désormais valorisée en bourse à 126,5 milliards de $, bien loin de Google (203 Mds), IBM (212 Mds), Microsoft (217 Mds) et bien sûr Apple (366 Mds). Intel, avec 120 Mds pourrait même repasser devant Oracle ces prochains jours.

Globalement, toutes les actions des sociétés high-tech sombrent aujourd’hui (chiffres arrondis) :
  • Oracle : -14 %
  • Dell : -4 %
  • IBM : -4 %
  • HP : -3 %
  • Amazon : -3 %
  • Intel : -1,2 %
  • Microsoft : -1,1 %
  • Google : -1 %
  • Apple : -0,6 %
Source : Oracle
le 21 décembre 2011 à 17:34 
 
http://www.pcinpact.com/news/67813-oracle-resultats-financiers-bourse-nasdaq.htm