mercredi 30 novembre 2011

Le dynamisme de l’infogérance ne se dément pas

mercredi 30 novembre 2011
Le marché de l'infogérance sera peu impacté par l'instabilité de la situation économique, qui risque pourtant de durer quelques années. L'année 2012 sera en effet un passage difficile pour les activités projet (conseil / intégration), mais le marché des services IT sera tiré vers le haut par l'infogérance qui affichera une croissance de 4,9% en moyenne entre 2011 et 2015. C’est ce que prévoit le cabinet Pierre Audoin Consultants (PAC) dans une étude qu’il vient de publier

Pressions sur le marché de l'infogérance

Le marché de l'infogérance connaît déjà une forte pression sur les prix, une tendance qui sera accentuée par la conjoncture économique. « Les DSI sont amenés à infogérer de plus en plus, surtout au niveau des infrastructures, qui demandent un investissement considérable si elles ne sont pas externalisées. », explique Franck Nassah, directeur chez Pierre Audoin Consultants (PAC).

Une tendance forte constatée par PAC auprès des DSI est le manque de flexibilité des offres infogérance. Il s'agit en effet de contrats de longue, voir très longue durée, qui sont de moins en moins adaptés aux cycles économiques actuels. Les SSII essaient donc de répondre aux requêtes de leurs clients en développant davantage leur offre Cloud.

Si, à court terme, la demande continuera de se porter sur l'infogérance d'infrastructure et l'infogérance applicative, la montée des demandes autour de l’Iaas (infrastructure as a service) et du Cloud privé sera source de revenus complémentaires pour les acteurs. « Pour l'instant, l'offre Cloud n'est pas encore suffisamment mature pour « cannibaliser » les parts de marché de l'infogérance « traditionnelle », conclut Franck Nassah.

PAC a également détecté dans les prestations d'infogérance une approche davantage sectorielle des DSI, pour mieux prendre en considération les contraintes métier (un volet entier de l'étude infogérance 2011 est par ailleurs consacré à ce sujet). Le secteur le plus mature en la matière est l'industrie, mais d'autres comme les télécoms ou l'énergie ont un fort potentiel pour les prestations d'infogérance.

Principales sociétés considérées au sein de l'étude:
Accenture, APX, Atos, BT Global Services, Bull, Capgemini, Computacenter, CSC, Devoteam, Econocom, ESR, Euriware, Feel Europe, Fujitsu Services, GFI Informatique, Groupe Helice, HP, IBM, ITS group, Neurones, Open, Orange Business Services, Osiatis, SCC, Spie communications, Steria, T-Systems, Thales CIS, Tibco, Unisys, Wipro


Pour plus d'informations sur l'étude infogérance PAC 2011, veuillez consulter :
https://www.pac-online.com/pac/pac/live/pac_france/etudes_marche/france/etudes_specifiques_france/attached_files/BC_Infogerance.pdf

Vidéo : Visa Europe vise les virements de mobile à mobile

Cartes 2011 : Le système de paiement électronique a introduit un système innovant de virements par mobile de particulier à particulier. Un pilote se déroule au Royaume-Uni puis direction la France ? Petite démo.
Les paiements sur mobile prennent une véritable envergure, comme le démontre cette démo réalisée sur le stand de Visa Europe à l’occasion du récent salon professionnel Cartes 2011 (près de Paris).
Le système de paiement a introduit dans le courant de l’automne un système innovant de virements de mobile à mobile ou de particulier à particulier par le biais d’un smartphone.

Le service est exploité en phase pilote au Royaume-Uni avant une extension envisagée courant 2012 sur l’Europe (y compris la France).
Son concept est simple : il permet aux utilisateurs préalablement inscrits au service de transférer des sommes d’argent à n’importe quel autre porteur de carte Visa, depuis son smartphone.
Avec cette application mobile (sous Android et uniquement en langue anglaise pour le moment), il suffit de taper un numéro de téléphone mobile ou un numéro de carte Visa, que le bénéficiaire soit ou non inscrit au service.
Dans un premier temps, la solution ne prend en compte que les transferts en euros. Avec un maximum de 2000 euros par opération, on n’est plus dans le domaine du micro-paiement.
« Il est prévu qu’elle soit étendue à d’autres pays et devises dans un second temps », précise Visa Europe, qui a bénéficié du savoir-faire technique de Monitise (mobile banking, Royaume-Uni) pour monter ce service.
Voilà un système qui devrait faire frémir les PayPal, Google Wallet et autres systèmes de paiement par mobile en train d’émerger comme le service national Buyster.
Mais avec ce système de virements de mobile à mobile, Visa Europe marche aussi sur les plates-bandes des spécialistes des transferts d’argent comme Western Union.
Pour découvrir la vidéo en démo de Visa Europe (explications en anglais) à partir d’une Samsung Galaxy Tab, cliquez sur le centre du lecteur média (remerciement à Jim Self pour la démo sur place). Durée : cinq minutes.

Un réseau sans fil à 30 Gb/s

13:30 - mardi 29 novembre 2011 par David Civera -
source: Tom's Hardware FR

La nouvelle antenne de Rohm 
La nouvelle antenne de RohmDes chercheurs de l’université d’Osaka et des ingénieurs de Rohm, un fabricant japonais de semiconducteurs, ont annoncé avoir conçu une puce permettant des communications sans fil de l’ordre de 1,5 Gb/s. Le système fait appel à des ondes dont les fréquences varient entre 300 GHz et 3 THz et la technologie serait capable d’atteindre 30 Gb/s en théorie. Il lui faudra néanmoins perfectionner ses outils photolithographiques avant d’atteindre ce genre de débits.

Des caractéristiques très prometteuses

La puce ci-contre dispose d’une antenne de 2 cm de long et 1 cm de hauteur. En plus d’être nettement plus rapide que ce que l’on trouve aujourd’hui, elle serait bien moins chère. Une antenne avoisinerait le dollar. Aujourd’hui, les antennes térahertz commercialisées sont nettement plus grosses (20 cm2) et mille fois plus chères.
Rohm estime qu’il lui faudra encore quatre à cinq ans avant de pouvoir produire cette puce en masse. Il reste aussi très silencieux sur les détails technologiques qui ont permis cette avancée ainsi que les distances compatibles avec ce genre de débits.

Pas question de remplacer le Wi-Fi

Si l’idée d’un réseau sans fil aussi rapide que les connexions à la fibre optique est très alléchante, il convient de prendre du recul et d’attendre leur commercialisation. De plus, ce genre de fréquence ne permettra pas de remplacer une technologie comme le Wi-Fi, le signal étant trop directionnel. En effet, un signal à 3 THz dispose d’une longueur d’onde de 100 µm. On tombe alors dans le domaine des infrarouges et celui qui a utilisé une vieille télécommande à infrarouge sait à quel point il est nécessaire de bien cibler son téléviseur pour qu’elle fonctionne. Il n’est donc pas question de concurrencer le WiGig (cf. « WiGig, le WiFi a 7 Gigabit/s »)
La technologie devrait donc d’abord être utilisée pour des connexions point à point dans le domaine médical ou celui de la surveillance. Les scanners corporels que l’on trouve dans les aéroports utilisent aussi des technologies similaires et une puce à 3 THz permettrait de procéder à un scan sous-cutané pour révéler ce qui se cache sous quelques millimètres de peau.

http://www.presence-pc.com/actualite/reseau-sans-fil-Rohm-45822/

La baisse des prix des tablettes tend à se généraliser

De nouveaux prix planchers se mettent en place pour les tablettes. Un phénomène qui épargne toutefois actuellement Apple, impérial sur ce marché.

Publicité

Lors de la sortie du processeur Tegra 3 de NVIDIA, nous avions prédit que le marché des tablettes Android allait se séparer en deux gammes principales : d’un côté, les machines de hautes performances, avec des prix proches de celui de l’iPad, et de l’autre des modèles plus économiques, avec des tarifs similaires à celui du Kindle Fire.

200 euros les 7 pouces

Notre prédiction semble se vérifier rapidement. La sortie du Kindle Fire à 199 dollars HT (178 euros TTC) a été un véritable déclencheur. Cette tablette 7 pouces a en effet été rapidement rattrapée par le Nook Color.
Aujourd’hui, c’est au tour du BlackBerry Playbook de rejoindre le camp des tablettes à 199 dollars HT. Ce tarif semble ainsi devenir le prix de base de toutes les tablettes 7/8 pouces. Tant pis pour ceux qui ne pourront pas suivre le mouvement.

300 euros les 10 pouces ?

Dans le camp des machines 9,7/10,1 pouces, la baisse est moins franche. Certes, Archos propose des prix très agressifs avec la tablette 101 G9 à 299,99 euros TTC, mais le constructeur français fait ici figure d’exception.
C’est, encore une fois, de l’autre côté de l’Atlantique qu’est venue la surprise. Nos confrères de CNET News rapportent ainsi que Best Buy brade actuellement l’excellente Iconia Tab A500 d’Acer à 229,99 dollars, soit environ 205 euros TTC. Voilà qui pourrait faire réfléchir (et fléchir) les autres constructeurs.

http://www.silicon.fr/la-baisse-des-prix-des-tablettes-tend-a-se-generaliser-66058.html

Orange fait passer son réseau 3G+ à 42 Mb/s maximum


Technologie - Grâce à l'introduction de nouvelles fonctions dans son réseau, l'opérateur historique affirme doubler le débit théorique en HSPA. Mais il ne faut pas confondre débit théorique et pratique. Par ailleurs, tous les smartphones ne sont pas encore compatibles.
L'augmentation des débits est la solution logique pour digérer l'explosion du trafic data mobile en France comme ailleurs. On parle beaucoup de la 4G (LTE) dont les premières licences viennent d'être distribuées dans l'hexagone, mais les opérateurs tiennent d'abord à optimiser leurs réseaux 3G+.
Car le HSPA en a encore sous le pied. Des évolutions sur les infrastructures permettent de doper le débit théorique. Ainsi, après SFR, Orange annonce une mise à jour de son réseau offrant désormais un débit maximum de 42 Mb/s "grâce à l’introduction des fonctionnalités Duall Carrier et 64 QAM".
L'opérateur ajoute que ce débit, disponible depuis le 24 novembre 2011 couvre plus de 50 % de la population, "dont 9 des 12 agglomérations les plus peuplées de France". C'est-à-dire, l'Ile de France, Grenoble, Lens, Lille, Lyon, Marseille, Nantes, Nice et Toulon.
Attention aux effets de communication des opérateurs
Le déploiement se poursuivra avec un objectif de 60 % de couverture dès mi-2012 incluant Bordeaux, Toulouse et Strasbourg ainsi qu’une extension à l’ensemble du territoire national d’ici le début de l’année 2013, ajoute l'opérateur.
Comme d'habitude, cette évolution sera d'abord réservée aux professionnels. Les forfaits Business Everywhere devient compatible avec la nouvelle norme HSPA+ 42 Mb/s notamment le forfait Business Everywhere Premier qui inclut les connexions 3G+ et Wi-fi en illimité, 30 Mo de trafic Europe pour 60 euros HT par mois.
Pour profiter de ce débit, Orange Business Services proposera "prochainement" la clé Huawei E372, compatible 42 Mégabits/s Dual Carrier.
La mise à disposition pour le grand public n'est pas précisée. On rappellera également que la vitesse annoncée par Orange est avant tout théorique. Selon les mesures de l'Arcep, le débit moyen atteint pour le téléchargement sur les réseaux 3G+ est de 3 Mbit/s, de 40% supérieur au débit moyen atteint lors de l’enquête précédente. Pour l’envoi de fichier, le débit moyen atteint 1,3 Mbit/s, débit légèrement supérieur à celui atteint lors de l’enquête précédente (1,2 Mbit/s).
Mais il s'agit d'une moyenne. Les débits observés atteignaient plus de 9,2 Mbit/s pour les plus rapides, et l’envoi de fichiers a fait apparaître des débits supérieurs à 3 Mbit/s pour les plus rapides. A ce petit jeu, Orange est le plus rapide du marché.
Par ailleurs, tous les terminaux ne sont pas compatibles avec cette norme, ni d'ailleurs tous les forfaits qui parfois précisent une vitesse maximale théorique inférieure. Donc attention aux effets de communication de nos chers opérateurs.
Rappelons également que SFR a annoncé en septembre dernier que son réseau HSPA atteignait les 21 Mb/s dans les 12 premières agglomérations françaises et se hissera à 42 Mb/s dans les trois premières agglomérations françaises à fin 2011.

http://www.businessmobile.fr/actualites/orange-fait-passer-son-reseau-3g-a-42-mb-s-maximum-39766072.htm#xtor=EPR-10010

Aux US, des budgets technologiques revus à la hausse ?

Publié le 30 novembre 2011 , A propos de... L'Atelier BNP Paribas - Paris
Pour améliorer la sécurité de leurs infrastructures et leur flexibilité, les entreprises devraient augmenter cette année les dépenses allouées aux technologies.
Près de 60 % des entreprises américaines prévoient d'augmenter le budget alloué aux dépenses technologiques dans les douze prochains mois, annonce une étude réalisée par le groupe de médias Penton pour le compte de Windows IT Pro. Le but étant, sans grande surprise, de chercher à être plus productives en minimisant les dépenses sur le long terme. Dans le détail, l'accent devrait être mis sur les solutions de cloud computing et de virtualisation.
Cloud et sécurité
Mais aussi sur l'amélioration des systèmes d'exploitation (pour 45 % des répondants), et la mise en place de solutions plus adaptées aux menaces sécuritaires. Ainsi, plus de la moitié explique avoir mis la sécurité au rang de ses priorités pour 2012. Enfin, près des trois quarts envisagent d'investir en raison de l'obsolescence de leurs logiciels et matériels. Reste que les budgets alloués aux technologies resteront assez tendus en 2012.
Des contraintes budgétaires
60 % des personnes interrogées indiquent d'ailleurs que le rôle grandissant que jouent les technologies dans le bon fonctionnement de l'entreprise et les budgets limités dont celle-ci dispose représente le facteur de stress le plus important à gérer. "Les départements technologiques font face à des obstacles importants : ils désirent s'engager dans des investissements importants mais sont ironiquement freinés par les finances dont ils disposent", rappelle ainsi Peg Miller, responsable du secteur technologique pour Penton Media.

http://www.atelier.net/fr/articles/aux-us-budgets-technologiques-revus-hausse

La publicité multi canal réclamée aux Etats-Unis

Publié le 30 novembre 2011 , A propos de... L'Atelier BNP Paribas - Paris
Les consommateurs sont en demande d'interaction entre les programmes télévisés qu'ils regardent et les appareils mobiles qu'ils possèdent. Une manne à saisir pour les annonceurs.
45% des ménages possédant une connexion Internet souhaitent recevoir sur les terminaux mobiles qu'ils possèdent des offres correspondant aux programmes télé qu'ils regardent ou aux produits et services qu'ils affectionnent. Ces chiffres sont proposés par Parks Associate, qui a mené une étude sur le sujet aux Etats-Unis. Et qui indique que les marques devraient se concentrer rapidement sur des campagnes promotionnelles personnalisées sur les nouveaux supports tels les smartphones et les tablettes. "La synergie entre plusieurs écrans va devenir prépondérante, notamment avec l'essor futur de la TV connectée".

Adopter des stratégies publicitaires multi-écrans

"L'amélioration des interactions et de l'expérience consommateur entre tous ces appareils va rapprocher les clients des marques", explique Heather Way, Reasearch Analyst chez Parks Associate. Les smartphones et les tablettes vont de plus en plus ressembler à des extensions naturelles du cycle d'achat et les consommateurs sont très friands de ces nouveaux terminaux puisque 25% des jeunes utilisateurs d'ordiphones s'en servent déjà pour repérer les meilleurs prix sur des produits. Et de manière plus générale, l'étude rappelle que les utilisateurs sont de plus en plus nombreux à utiliser leurs terminaux mobiles pour des tâches quotidiennes et à solliciter en permanence l'ajout de nouveaux services.

Une utilisation quotidienne dans beaucoup de domaines

55% se servent de leur smartphone pour s'informer et pour s'amuser et 55% des ménages veulent avoir la possibilité de scanner des codes barres et recevoir des informations directement sur leur téléphone. Les marques ne doivent donc pas rater ce virage au niveau publicitaire. Des initiatives multi-écrans ont déjà été lancées dans le pays,  profitant du fait que près d'un tiers des possesseurs de tablettes recherchent des informations concernant le programme qu'ils sont en train de regarder à la télévision. Des systèmes comme Snap Ping permettant des interactions entre l'écran de la télé celui des smartphones afin de recevoir des offres sont déjà en place depuis quelques mois.

http://www.atelier.net/fr/articles/publicite-multi-canal-reclamee-aux-etats-unis

Royaume-Uni : le succès du e-commerce passe par la rapidité du processus

Publié le 30 novembre 2011 , A propos de... L'Atelier BNP Paribas - Paris
Malgré une croissance importante du secteur, les griefs des internautes à l'encontre des entreprises de e-commerce sont nombreux. D'où la nécessité d'optimiser le processus d'achat.
Les attentes des internautes augmentent au fur et à mesure que croît l'e-commerce, rappelle Postcode Anywhere. L'institut a mené une étude auprès d'un millier d'acheteurs bitanniques en ligne, à propos de leurs expériences d'achat, depuis la commande jusqu'à la livraison. Et il est apparu que le critère fondamental qui conditionnait une acquisition plaisante et satisfaisante était la rapidité du processus. Ils sont ainsi plus des trois quarts à affirmer considérer la rapidité d'achat comme un critère essentiel. Un constat corroboré par les deux facteurs d'abandons les plus cités, à savoir les formulaires d'inscription trop fournis, ainsi que les processus de sécurité trop complexes.
La livraison, au cœur des préoccupations des acheteurs
Autre critère important : le processus de livraison. Souvent considéré comme inefficient ou trop opaque, il est décrié par un grand nombre d'acheteurs. Ces derniers sont plus de 50 % à souhaiter pouvoir aller récupérer leurs achats eux-mêmes, en boutique. De même, 65 % des personnes interrogées réclament la mise à disposition d'indications supplémentaires quant à la période de livraison, via la communication de fourchettes horaires précises. A noter que l'on peut observer des différences de comportement selon que l'internaute est un homme ou une  femme. Ainsi, ces dernières sont 36 % de plus que les hommes à déclarer porter une attention particulière aux commentaires laissés par les autres acheteurs.
Un processus  qui doit être appréhendé de manière globale
Guy Mucklow, directeur du management chez Postcode Anywhere résume ainsi la situation: "Malgré un marché extrêmement favorable, à l'origine de 90 % de l'augmentation des ventes du commerce de détail, les entreprises du secteur ne doivent surtout pas considérer cette situation comme acquise". D'après lui, des améliorations dans le processus de paiement, dans la sécurité des données, et par-dessus tout dans le suivi de la livraison doivent encore être mises en œuvre. Il conclut en soulignant que "l'achat ne se termine pas à la déconnexion de l'utilisateur, et c'est ce que les sites de vente en ligne ont encore du mal à intégrer".

http://www.atelier.net/fr/articles/royaume-uni-succes-e-commerce-passe-rapidite-processus

Tablettes Windows : Microsoft arrivera-t-il après la bataille ?


Tablettes Windows : Microsoft arrivera-t-il après la bataille ?Business - A trop tarder à mettre au point un système d’exploitation optimisé pour tablette, Microsoft pâtirait désormais d’un intérêt déclinant de la part des consommateurs selon un sondage de Forrester. Avec une sortie de Windows 8 fin 2012, Microsoft aura-t-il encore ses chances sur tablette ?
Avec un OS (Windows 7) inadapté aux usages tactiles, Microsoft n’a pu trouver sa place sur le marché des tablettes – comme en témoignent d’ailleurs les ventes de ces terminaux. Mais selon une étude, la situation se dégrade encore pour la firme de Redmond.
Début 2011, l’éditeur pouvait minimiser son échec en invoquant les attentes manifestées par les consommateurs (américains) sondés par Forrester. 46% exprimaient ainsi leur préférence à l’égard de Windows en tant que système équipant une tablette.
Intérêt des consommateurs US : -21 points depuis le 1er trimestre
Au troisième trimestre, ces consommateurs ne sont plus que 25% (ce qui le place au-dessus d'Android). En clair, estime Forrester, l’intérêt pour des tablettes Windows s’est littéralement effondré. Un intérêt sapé par l’attente et l’incertitude entretenues par Microsoft ?
Si Windows 8 devrait contrairement à Seven offrir une interface adaptée au tactile, la date de sortie de l’OS n’est pas encore officialisée. Les terminaux se font donc toujours attendre. D’après Forrester, cet effondrement de 21 points entre le 1er et le 3e trimestre devrait alarmer Microsoft.

Lors d’une conférence en mars dernier dédiée aux tablettes en entreprise, l’éditeur se voulait confiant, misant en grande-partie sur les questions d’interopérabilité et de sécurité pour barrer le passage aux tablettes sous iOS ou Android.
« Les problématiques des responsables informatiques, c’est la sécurité, le déploiement, l’administration, la conformité aux règles de l’entreprise… un ensemble de contraintes qu’il faut absolument intégrer » commentait ainsi Marc Jalabert.
Un retard à combler face à des produits de 2eme et bientôt 3e génération
La partie est néanmoins loin d’être perdue pour Microsoft. D’abord, le marché des tablettes (grand-public) est encore naissant. Premier lancé, l’iPad n’est disponible que depuis bientôt 2 ans. Seulement.
L’éditeur pourra profiter de l’expérience des premiers entrants, qui bénéficient néanmoins d’une longueur d’avance. « Alors que les stratèges produits de Windows peuvent apprendre de ces produits, les autres acteurs ont une longue expérience dans l’exécution et l’amélioration de leurs produits » commentent les analystes de Forrester, JP Gownder et Sarah Rotman Epps.
« Apple, Samsung, et les autres ont déjà lancé une deuxième génération de produits et en seront certainement à la troisième génération d’ici le lancement de Windows 8 » ajoutent-ils encore.
Pour se relancer avec Windows 8, Microsoft joue fortement sur la communication, très orchestrée autour de l’OS. Pas sûr néanmoins que cela suffise. Malgré une interface et une ergonomie globalement bien accueillies, Windows Phone 7 (dont s’inspire Windows 8) ne convainc pas encore.
Et la tendance à une consumérisation de l’IT et au développement des terminaux personnels pourrait ébranler la mainmise de Microsoft (et de Windows) sur les SI des entreprises. Le poste de travail classique n’étant cependant pas voué à disparaître à court terme, le bouleversement (éventuel) n’est pas pour demain.

http://www.zdnet.fr/actualites/tablettes-windows-microsoft-arrivera-t-il-apres-la-bataille-39766082.htm#xtor=EPR-100

Le prix de gros du dégroupage ADSL va bien baisser


Le prix de gros du dégroupage ADSL va bien baisserRéglementation - Le prix payé par les opérateurs alternatifs à France Télécom pour louer son réseau haut débit va bien baisser, nous confirme le régulateur. Cette décision n'est pas liée aux pressions de la Commission européenne en la matière.
C'est une première depuis 2009. L'Arcep, le régulateur des télécoms est sur le point d'annoncer une baisse du tarif de gros payé par les opérateurs alternatifs à France Télécom afin d'accéder à son réseau haut débit ADSL (dégroupage).
Selon la Tribune, la baisse devrait intervenir courant décembre et entrer en vigueur le 1er janvier 2012. Elle serait comprise entre 5% et 10%, soit 0,50 euro, ramenant ainsi le tarif dit de dégroupage à 8,5 euros par ligne et par mois, au niveau de la moyenne européenne. En 12 ans, ce tarif aura baissé de 50%.
Pour l'opérateur historique, le manque à gagner sera d'environ 50 millions d'euros par an. Les alternatifs comme SFR et Free économiseront chacun une vingtaine de millions d'euros par an, poursuit La Tribune. Ces baisses ne seront pas répercutées sur le prix de détail payé par les abonnés.
Montant de la baisse pas encore fixé
Interrogé par ZDNet.fr, l'Arcep confirme ces informations mais souligne que cette baisse n'a rien d'exceptionnelle. "Tous les ans depuis 2000, nous réalisons un processus de révision de ce tarif qui s'appuie sur un audit des comptes de France Télécom", nous explique un porte-parole du régulateur.
"Il s'agit de constater la progression et la baisse de certains coûts. Dans le même temps, deux consultations publiques ont cherché à déterminer le taux de rémunération du capital de France Télécom et la durée d'amortissement des actifs de la boucle locale. Tous ces éléments nous permettent de réaliser un calcul qui au final plaide aujourd'hui pour une baisse de ce tarif", poursuit le responsable.
Pour autant, ce dernier souligne que le montant de la baisse "n'a pas encore été fixé".
Par ailleurs, cette décision n'est pas corrélée aux récentes pressions de la Commission européenne sur le prix du dégroupage. Neelie Kroes, la commissaire en charge de la politique numérique de l'Union européenne souhaite en effet baisser drastiquement ce coût afin de dégrader "la rente" ADSL et pousser les opérateurs historiques à plus investir dans la fibre optique.
"La décision de l'Arcep n'est pas liée à cette volonté, d'autant plus que la Commission viserait une baisse bien plus importante, en euros, qui selon nous ne se répercutera pas automatiquement dans les investissements fibre", ajoute le porte-parole.

http://www.zdnet.fr/actualites/le-prix-de-gros-du-degroupage-adsl-va-bien-baisser-39766065.htm#xtor=EPR-100

Le triple play est mort ! trop simple, trop limité

Ces dernières années ont vu une banalisation des services haut débit traditionnels qui a conduit à une réduction des revenus des entreprises de télécommunication et des fournisseurs d'accès. Cherchant à remplacer la perte de revenus de ces entreprises, les spécialistes des secteurs affiliés de l'industrie ont conseillé aux fournisseurs d'innover et d'expérimenter par de 'nouveaux services irrésistibles' surpassant le triple play, ouvrant la porte ainsi à de nouveaux revenus et améliorant la qualité des services existants pour consolider la fidélité des clients. De nouvelles offres de service, de nouveaux bénéfices clients et de nouveaux revenus en perspectives… Une analyse de Itzik Feiglevitch, Product Marketing Director Broadband Solutions, Audiocodes.


Pour attirer de nouveaux abonnés, les fournisseurs se distinguent entre eux par leurs retours d’expériences utilisateurs et leurs classement ‘qualités de services’. Des fonctions telles que qualité de voix haute définition, convergence des services mobiles et fixes, dépannage intuitif, auto-maintenance et renfor-cement des services de soutien sont les nouveaux différentiateurs du futur immédiat. De nouveaux services, tels que, la domotique et la sécurité du domicile sont également des atouts hautement prometteurs aussi bien pour les utilisateurs que pour les offres de fournisseurs.


Le futur technologique va bien au-delà du triple play
La nouvelle génération de passerelles résidentielles haut débit va bien au-delà du triple play. Ces nouveaux dispositifs offrent à l'utilisateur : voix haute définition et maintenance intuitive. Elles accueillent également les nouveaux services ‘’lifestyle’’ tels que domotique et sécurité.


Téléphonies convergentes mobile et fixe
Les entreprises de télécoms et les fournisseurs d'accès cherchent à faire converger les téléphonies fixe et mobile pour offrir un service unique de communication. Les smartphones sont devenus des dispositifs incontournables du quotidien mais une majorité d’utilisateurs préfèrerait commuter sur une ligne fixe surtout quand il est avéré que l’appel y est facturé moins cher. La convergence de la téléphonie VoIP mobile et de la téléphonie fixe permet aux fournisseurs d'offrir une solution unique qui laisse les abonnés utiliser leurs portables chez eux, mais par l'intermédiaire d'une ligne fixe. Une application VoIP mobile s'enregistrant automatiquement sur la passerelle résidentielle de l'abonné permet à tous les appels sur appareil portable faits du domicile d'être redirigé sur la ligne fixe. En dehors de la maison, les utilisateurs peuvent "emporter" leur numéro de ligne fixe et utiliser leur smartphone sur n'importe quel réseau WiFi.


Domotique et sécurité du domicile
Récemment, les systèmes d'automatisation étaient encore restreints aux locaux haut de gamme ou aux ‘’enthousiastes du bricolage’’. Le marché de la domotique a dû faire face à de nombreux freins, dont l'absence de sensibilisation des clients et les craintes concernant les coûts, les besoins et la complexité. Toutefois, en dépit de ces problèmes, ABI RESEARCH [ Home Automation and Monitoring, avril 2011 ] affirme que le marché est arrivé à un point d'inflexion et va se développer considérablement au cours des 5 années à venir. Un cycle vertueux apparait, mettant en jeu : la disponibilité de technologies fiables, sans câblage ajouté, basées sur les normes telles que ZigBee, Z-Wave et DECT, et sur le développement de plateformes de logiciels de domotique.

Pour les fournisseurs ce point d'inflexion fait apparaître une opportunité d'offre directe au public de services de domotique et de sécurité du domicile. Les fournisseurs pourront proposer des offres commerciales haut débit, séduisantes et abordables, et en retour augmenter leurs revenus via à une nouvelle organisation de services tout en améliorant la fidélisation clients.
Skyscraper-ad
port Design



Voix haute définition et qualité d'expérience
La qualité de la voix est considérée comme un autre facteur critique sur le marché actuel. Les fournisseurs cherchent à permettre une meilleure qualité de voix, ce qui peut faire la différence entre capter ou perdre des abonnés. Le réseau téléphonique public commuté [ PSTN ] traditionnel est limité à une bande étroite pour la voix ce qui génère des appels d'une qualité passable. L'introduction de la technologie à large bande dans les communications VoIP [ HDVoIP ] offre une meilleure qualité d'écoute. Au regard de l’offre technologique actuelle, la large bande donne l'impression d'être dans la même pièce que le correspondant, avec une conversation plus naturelle. Les opérateurs peuvent utiliser le HDVoIP comme élément différen-tiateur pour permettre la prolongation des appels en terme de temps, conduisant à un revenu par utilisateur plus élevé ( ARPU ) comme un taux de défection abonné plus faible.

L’offre de VoIP présente une autre problématique : comment fournir une qualité de voix supérieure pour les utilisateurs au vu de la complexité des nouvelles technologies réseaux ? Les fournisseurs se doivent d’utiliser un système de gestion de contrôle qualité en mode SaaS pour évaluer les réseaux, les mesurer, les surveiller et les suivre afin d'optimiser la ‘’qualité d'expérience’’ de leurs services VoIP.


Assistance et dépannage par l'utilisateur
Ces dernières années la complexité de la passerelle résidentielle s'est intensifiée au fur et à mesure que le nombre de services supportés s’accroit. Les fournisseurs reconnaissent que la majorité des utilisateurs résidentiels ne sont pas des experts techniques et que des problèmes élémentaires tels que le câblage ou une piètre configuration de la passerelle sont source de grande frustration. En fournissant des d'outils de diagnostic et d'assistance accessibles directement par l'utilisateur, le fournisseur réduit considéra-blement le nombre d'appels faits par les clients au centre d'assistance technique. En un mot, grâce à ces outils, les abonnés sans connaissances techniques peuvent diagnostiquer et dépanner les problèmes associés aux services de données, de voix et de vidéo sans plus passer par les hot lines ou la lecture fastidieuse des manuels. Les utilisateurs peuvent également accéder à la passerelle dédiée pour diagnos-tiquer automatiquement les problèmes ou, après avoir répondu à une série de questions simples, se voir offrir une solution. Les outils de diagnostic interne et de dépannage par l'utilisateur vont continuer à se développer même pour des problèmes ordinaires. Dans ce cas, des écrans contextuels ‘’web-based’’ et des messages vocaux alertent l’utilisateur en cas de problèmes et proposent les options de récupération.


A propos d'AudioCodes :
Audiocodes conçoit, développe et vend des produits et des applications avancés de téléphonie par Internet (VoIP) et des produits et applications convergentes de réseaux de données et VoIP aux prestataires de services et entreprises. Audiocodes a récemment introduit Connected Home Solution, une solution qui incorpore réseau à domicile, multimédia, convergence de la téléphonie haute définition mobile et fixe ainsi que domotique et sécurité du domicile. La passerelle MP-252 Multimedia Home Gateway est basée sur la série de passerelles résidentielles MP-2xx d'Audiocodes et sur l'architecture logicielle VoIPerfect d'Audiocodes, résultant en une expérience de téléphonie haute définition avec support multimédia. La passerelle MP-252 est livrée avec un modem intégré VDSL2/ADSL2+, un support d'accès 3G, un sans fil 802.11n, une connectivité LAN, des appareils DECT pouvant accueillir HD VoIP et Bluetooth pour connecter les portables.
 
http://www.itrnews.com/articles/125969/triple-play-est-mort-simple-limite.html?key=862d53eea2c1d2fe

Internet haut débit : les tarifs de gros devraient bien diminuer

Comme tous les ans, l'Arcep scrute les comptes et les prévisions de l'opérateur historique France Télécom/Orange. L'autorité détermine ainsi les tarifs de gros qui doivent être payés par les opérateurs utilisant les installations d'Orange. Selon l'Arcep, ces tarifs vont diminuer l'an prochain.

Arcep logo
Afin de fixer les tarifs de gros sur le marché d'Internet haut débit, l'Arcep analyse les comptes mais également les prévisions de l'opérateur historique Orange. Cette évolution permet au régulateur des Télécoms de dégager ce qui s'appelle des « prix de gros ». Ces prix sont ensuite réglés par l'opérateur qui utilise le réseau d'Orange.

Contactée par la rédaction, l'Arcep a donc confirmé que la tendance générale est bien à la baisse. Même si certains facteurs comme l'amortissement du génie civil (l'entretien des fourreaux) coûtent encore cher, d'autres postes permettent de dégager des tarifs en diminution.

Selon La Tribune, cette baisse du prix des tarifs de gros serait plutôt conséquente « entre 5 % et 10 %, soit 0,50 euro par abonnement mensuel, ramenant ainsi le tarif dit de dégroupage à 8,5 euros, au niveau de la moyenne européenne » explique le quotidien économique.

Par contre, l'Arcep dément « toute corrélation entre cette baisse et les propos de Neelie Kroes qui propose une diminution des tarifs de dégroupage pour les opérateurs historique. En France, la tendance générale est à la baisse de ces tarifs depuis 2002 ». En attendant, la décision de fixer les nouveaux prix sera prise « à la fin de l'année », promet le régulateur des Télécoms. Par contre, il est peu probable que les opérateurs répercutent ces nouveaux prix sur leurs abonnements.

Le droit d'auteur touche-t-il le langage informatique et les fonctionnalités logicielles ?

Dans une affaire opposant une société américaine éditrice de logiciels et l'un de ses concurrents, la Cour de justice de l'Union européenne (CJUE) doit répondre à cette question. Selon l'avocat général, les fonctionnalités d'un logiciel n'entrent pas dans le cadre de la protection du droit d'auteur.

Europe internet
La Cour de Justice de l'Union européenne est saisie d'un dossier opposant la société SAS Institute (Statistical Analysis System) à son rival britannique, World Programing. Les deux entités s'affrontent pour déterminer si cette dernière a le droit d'utiliser certaines fonctionnalités également utilisées dans les produits de son concurrent. L'affaire revêt une importance toute particulière pour les éditeurs car ils seront en mesure de savoir s'ils peuvent attaquer un concurrent lorsqu'il propose une fonctionnalité identique à la leur.

Selon l'avocat général de la CJUE, Yves Bot, ces fonctions n'entrent pas dans le spectre du droit de propriété intellectuelle. Elles ne peuvent donc pas bénéficier des règles s'y référant. Pourtant, l'argument de SAS est clair. La société estime que son concurrent n'a pas pu concevoir de telles fonctions sans copier le code source de son propre logiciel.

Interrogé par Reuters, l'avocat général précise que « si on accepte qu'une fonctionnalité d'un programme soit protégée de la sorte, cela va entraîner une monopolisation des idées au détriment du progrès technologique et du développement industriel ». Il adopte donc une conception plutôt large de ce qu'est un langage informatique puisqu'il estime que le code d'un programme peut être copié sans autorisation mais sous certaines conditions. Par exemple, la copie serait autorisée si les informations sont nécessaires pour rendre interopérables plusieurs éléments de différents programmes.

La Cour n'est pas obligée de suivre les recommandations de l'avocat général mais il arrive souvent qu'il en soit ainsi. Le jugement final devrait être rendu l'an prochain.

Facebook : introduction en bourse au 1er semestre 2012

mardi 29 novembre 2011
Le sujet n’est pas nouveau et a déjà fait l’objet de nombreuses spéculations (Réseaux sociaux : LinkedIn, Facebook, Viadeo… face à la bourse), mais il semblerait que cette fois les choses se précisent sérieusement. Selon le Wall Street Journal, l’introduction serait prévue au cours du deuxième trimestre 2012. Dans une récente interview à la chaine PBS, Mark Zuckerberg avait confirmé l’introduction mais pas la date. Le leader des réseaux sociaux viserait de lever 10 milliards de dollars ce qui porterait la capitalisation boursière de l’entreprise à quelque 100 milliards de dollars soit plus que celles de sociétés comme HP ou  3M.

Cette future introduction à la bourse de New York n’est pas sans rappeler celle de Google en 2004. On se souvient que Google avait levé 1,6 milliard de dollars et que le cours de l’action introduit à 85 dollars n’avait fini la journée qu’à 100 dollars. La capitalisation à l’époque de Google était de « seulement » 27 milliards de dollars. Aujourd’hui, Google vaut 185 dollars ce qui la situe dans le peloton de tête des entreprises cotées.

En mai dernier, LinkeIdn avait levé que 352 millions de dollars, mais l’action introduite à 45 dollars a fini sa première journée à 94 dollars ce qui valorisait alors l’entreprise à près de 9 milliards de dollars. Jeff Weiner le directeur général de LinkedIn qui avait vendu 5 % de ses parts le jour de l’introduction empochait plus de 5 millions de dollars. Et les parts qui lui restent représentent plus de 200 millions de dollars.

Mais tout cela est extrêmement volatile, tout particulièrement en cette période d’incertitude généralisée. Groupon spécialisé dans les bonnes affaires et les achats groupés s’est introduit au début du mois. En trois semaines, le titre est tombé à 15 dollars alors qu’il avait atteint les 26 dollars. Les dirigeants doivent avoir quelques sueurs froides lorsqu’ils pensent à l’offre d’achat faramineuse de 6 milliards de dollars l’année dernière.

Facebook est donc un phénomène qui regroupe sur sa plate-forme sociale plus de 800 millions d’« amis » soit plus d’un habitant de la planète. Cela donne une idée de la démesure dès que l’on donne quelques chiffres pour décrire l’activité du réseau social. Conçu comme une plate-forme d’échange entre personnes physiques, le réseau social concerne aujourd’hui toutes les organisations, entreprises comme institution politique. Il n’est plus d’événement dans le monde dans lequel Facebook ou Twitter jouent un quelconque rôle.

Les analystes considèrent donc que Facebook pour atteindre 100 milliards de dollars de capitalisation boursière au moment de son introduction. Déjà, les transactions effectuées sur les marchés privés valorisent l’entreprise à 85 milliards de dollars. A horizon 2015, Geoff Yang de la société de capital risque Redpoint Ventures prévoit 140 milliards de dollars en 2015 (Is Facebook Worth $100 Billion?).

mardi 29 novembre 2011

"En Allemagne, avoir un magasin optimisé pour le mobile sera nécessaire"

Publié le 29 novembre 2011 , A propos de... L'Atelier BNP Paribas - Paris
Alors que le marché du m-commerce évolue rapidement outre-Rhin, des efforts restent à fournir pour contenter des clients, adeptes du catalogue et du scan.
Entretien avec Andrea Anderheggen, co-fondateur et président de ShopGate, qui propose la création de sites de vente en ligne pour mobile et l'application ShopGate App, qui réunit tous les magasins partenaires sur une seule plate-forme.
L'Atelier : Comment se porte le marché du m-commerce en Allemagne ?
Andreas Anderheggen : Le pays progresse assez rapidement dans ce secteur mais nous avons beaucoup de retard sur des marchés plus matures comme aux Etats-Unis ou encore en Grande Bretagne. Cela est surtout dû à la frilosité des commerçants qui n'ont pas encore saisi l'importance que prendrait le secteur du mobile dans leurs chiffres d'affaires. A l'heure actuelle, entre 5 % et 10 % des internautes se rendent sur les sites de vente sur mobile dans le pays. Ce n'est pas très élevé de prime abord mais avec la pénétration des smartphones, le nombre de visiteurs double tous les ans. Les marques et les enseignes doivent s'apercevoir que le commerce est en train d'évoluer rapidement, et que bientôt, avoir un magasin en ligne optimisé pour le mobile sera nécessaire.
Quelles sont du coup pour le moment les fonctions les plus prisées par les internautes mobiles allemands ?
Les Allemands apprécient les nouveautés mais aiment bien s'appuyer sur des éléments qu'ils connaissent et maîtrisent depuis longtemps, notamment le catalogue, qui reste très populaire chez nous. La capacité de pouvoir scanner directement les photos des produits est donc plutôt appréciée. Ce système peut être étendu aussi dans le domaine de la publicité physique (prospectus, affiches, packaging, courriers...). L'internaute veut amener tous ces éléments de marketing du monde réel au virtuel sans avoir besoin de rentrer chez lui ou d'aller directement dans la boutique. Toutes ces opportunités autour du scan sont également très avantageuses pour les marques puisqu'elles peuvent directement voir de quel support se sont servis les gens pour accéder à leur site et donc les campagnes publicitaires qui marchent le mieux.
Quels sont, selon vous, les éléments à améliorer pour développer le m-commerce pour les entreprises allemandes ?
Outre une implication plus forte des commerçants comme je l'ai déjà évoqué, il y a toujours des efforts à faire, dans le processus d'achat par exemple. Celui-ci doit être le plus rapide et le plus sûr possible, d'une part pour favoriser l'adoption de cette pratique mobile et d'autre part pour éviter que le client abandonne en cours de route. Il faut également développer encore plus le couponing mais là encore, la balle est dans le camp des magasins. S'ils ne proposent pas d'offres régulières dans ce domaine pour attirer les consommateurs, on aura beau mettre tous les outils à leur disposition, cela ne servira à rien. L'avantage, c'est que le marché allemand est très porteur de par sa taille et l'implication de nombreuses sociétés à l'international. Nous espérons donc pouvoir rattraper rapidement la qualité et la quantité de services disponibles dans d'autres pays.

http://www.atelier.net/fr/articles/allemagne-un-magasin-optimise-mobile-sera-necessaire

La technologie Térahertz à portée des communications sans fil

Le 28 novembre 2011 par Ridha Loukil
Circuit Terahertz miniature
Circuit Terahertz miniature
Des chercheurs japonais ont réussi à développer un dispositif de communication à onde millimétrique suffisamment compact et bon marché pour attaquer les applications grand public. Une véritable révolution dans le sans fil à ultra haut débit.
Imaginez un dispositif de communication radio qui offre un débit potentiel de 30 Gbit/s, qui tient dans un encombrement de 3 x 1,5 mm et qui ne coûterait que quelques euros à produire. Tel est l'incroyable résultat auquel sont parvenus les chercheurs du fabricant japonais de composants électroniques Rohm et de l’Université d’Osaka.

Il s’agit d’un système Térahertz fonctionnant dans la bande de fréquence de 300 Ghz où les ondes radio mesurent 10 mm de longueur. La technologie Térahertz explique le débit de transmission élevé susceptible d'être obtenu. Mais jusqu’ici, elle se traduisait par des systèmes encombrants et coûteux. Acceptables dans des applications de détection (dans les aéroports par exemple) ou d'imagerie médicale. Mais pas dans des applications grand public comme la transmission sans fil de la vidéo non compressée, par exemple du lecteur Blu-ray vers l’écran plat.

Pour faire tomber cet obstacle, les chercheurs japonais utilisent comme émetteur/récepteur des diodes résonnantes à effet tunnel. La puce intègre une antenne de la taille d'un grain de riz. Elle dispose de deux zones, l'une servant d'oscillateur (émetteur radio), l'autre de détecteur (récepteur), en jouant sur la tension électrique qui lui est appliquée. Grâce aux diodes à effet tunnel, la sensibilité en détection a été multiplié par quatre par rapport aux solutions Térahertz traditionnelles. Les chercheurs ont mis au point un procédé de modulation qui donne à ce composant miniature une fonction de transmission sans fil à ultra haut débit.

Le dispositif a prouvé ses capacité dans une expérience de transmission de vidéo à haute définition au rythme de 1,5 Gbit/s. Mais selon les chercheurs, il est possible d’atteindre un débit de 30 Gbit/s. De quoi satisfaire les besoins de la future télévision à super haute définition (résolution quatre fois celle de la haute définition actuelle) déjà en expérimentation au Japon. L’industrialisation de cette technologie est prévue dans 3 à 4 ans.

Ridha Loukil

http://www.industrie.com/it/la-technologie-terahertz-a-portee-des-communications-sans-fil.12295?xtor=EPR-25&emv_key=AJ%205QmugnaTq78yA9MA

Les puces photoniques sur silicium prêtes à envahir le marché

Le 28 novembre 2011 par Ridha Loukil
Photonique sur silicium
Photonique sur silicium
L’institut de microélectronique IME, de Singapour, se prépare à commercialiser une série de composants de base développés en coopération avec Alcatel-Lucent et GlobalFoundries.
L’horizon de la photonique sur silicium s’approche à grands pas. L'Institut de Microélectronique (IME), à Singapour, a ainsi l’intention de commercialiser des innovations clés dans ce domaine destinées à doper le débit de transmission des données et à soutenir les communications à large bande. Ces puces ont été développées dans le cadre de sa plate-forme recherche sur la photonique sur silicium, en partenariat avec Alcatel-Lucent Bell Laboratories et Globalfoundries.

La photonique sur silicium fait l’objet d’intenses recherches dans le monde. Elle vise à remplacer les interconnexions électriques actuelles en cuivre entre puces et entre cartes électroniques par des liaisons optiques. A la clé, une augmentation des débits de transfert des données, une réduction de la consommation électrique, l’immunité aux perturbations électromagnétiques et la libération des contraintes de distance.

Les composants photoniques, utilisés aujourd’hui dans les télécoms, font appel à des composés semiconducteurs exotiques comme l’arséniure de gallium. L’objectif des recherches est d’utiliser le silicium, matériau banalisé dans la fabrication des puces électroniques, pour réduire les coûts et l’encombrement. Intel, IBM, Fujitsu et Alcatel-Lucent figurent parmi les industriels les plus actifs en recherche dans ce domaine.

Avec ses deux partenaires, IME compte proposer dans les prochaines années une famille de blocs photoniques de base permettant aux développeurs de créer des solutions de transmission de données puissantes, rapides et abordables. L’offre comprendra des modulateurs optiques, des photo-détecteurs, des guides d'ondes et d'autres circuits utiles à la construction d’équipements de réseautage. Les circuits photoniques développés dans le cadre de ce partenariat seront produits sur des tranches de silicium de 200 mm de diamètre chez GlobalFoundries, un fondeur de circuits intégrés électroniques.

Ridha Loukil

http://www.industrie.com/it/les-puces-photoniques-sur-silicium-pretes-a-envahir-le-marche.12293?xtor=EPR-25&emv_key=AJ5QmugnaTq78yA9MA

Le MIT invente la diode optique

Le 28 novembre 2011 par Ridha Loukil

Caroline Ross au MIT
Caroline Ross au MIT
Cette découverte apporte une pièce maitresse au puzzle de la photonique sur silicium. De quoi ouvrir la porte à la réalisation de puces capables de traiter le signal lumineux sans conversion à l'électronique.
Vous connaissez la diode, un composant électronique qui laisse passer le courant électrique dans un sens et le bloque dans l’autre. Voici son équivalent optique. Il vient d’être inventé par des chercheurs MIT. Il est présenté comme une pièce cruciale du puzzle nécessaire à la création de puces photoniques sur silicium qui seront au cœur des appareils électroniques de demain.

Dans de nombreux systèmes de communication optique actuels, les données transitent sous forme de signal lumineux via des fibres optiques. Une fois le signal optique arrivé à sa destination, il est converti sous forme électronique, traité par des circuits électroniques et ensuite reconverti en signal lumineux à l’aide d’une diode laser. Le nouveau dispositif créé par les chercheurs du MIT pourrait éliminer ces étapes de conversion, permettant au signal lumineux d'être traité tel quel.

A l’instar de la diode électronique, la ''diode optique'' crée un passage à sens unique pour le signal lumineux. « Cela est essentiel, explique Caroline Ross, professeur au MIT et coauteur de la publication scientifique en ligne sur cette découverte dans le journal Nature Photonics. Sans un tel dispositif, des réflexions parasites pourraient déstabiliser les lasers utilisés pour produire les signaux optiques et réduire l'efficacité de la transmission de données. Actuellement, un dispositif discret appelé isolateur est utilisé pour exécuter cette fonction, mais le nouveau système permettrait à cette fonction de faire partie de la même puce qui effectue d'autres tâches de traitement du signal ».

Pour développer le dispositif, les chercheurs ont dû trouver un matériau à la fois transparent et magnétique, deux caractéristiques rarement réunies. Ils ont fini par utiliser une forme d'un matériau appelé grenat, qui est normalement difficile de pousser sur les plaquettes de silicium utilisées pour les puces électronique. Le grenat présente la caractéristique de transmettre de façon différente la lumière dans une direction et dans l'autre, à cause d’une différence d’indice de réfraction. Un film mince de grenat a été déposé pour couvrir la moitié d'une boucle reliée à un canal transmission lumineuse sur la puce. Résultat : dans un sens, la lumière passe librement, tandis que, dans l'autre sens, elle est détournée dans la boucle.

Ridha Loukil

http://www.industrie.com/it/le-mit-invente-la-diode-optique.12300?xtor=EPR-25&emv_key=AJ5QmugnaTq78yA9MA

France : 400.000 tablettes vendues en décembre et 1,5 million en 2011


France : 400.000 tablettes vendues en décembre et 1,5 million en 2011Chiffres - GFK revoit à la hausse ses prévisions pour la France avec des ventes (attendues) de tablettes en décembre pratiquement équivalentes à celles de l’année 2010, soit 400.000 unités. Pour 2011, le cabinet table désormais sur 1,5 million de tablettes, contre 1 million en début d’année.
En mars dernier, à l’occasion de l’évènement TiE (Tablet in Entreprise), auquel assistait ZDNet.fr, le cabinet GFK dévoilait ses prévisions en termes de ventes de tablettes dans l’hexagone : 1 million d’unités.
En 2010, les constructeurs avaient écoulé 435.000 tablettes (GFK tablait sur 450.000), dont 160.000 durant les seules fêtes de fin d’année. En 2011, les acquisitions de tablettes devraient finalement plus que doubler.
La tablette, un achat de complément
Le cabinet, sur son fil Twitter, a publié de nouvelles estimations pour cette année. GFK France prévoit ainsi que plus d’1,5 million de tablettes se vendront auprès des consommateurs français.
Un seuil qui sera atteint, estime GFK, grâce notamment aux seules ventes de décembre. Il anticipe ainsi « 400.000 tablettes vendues sur Déc2011, quasiment la totalité des volumes 2010 (435.000 ventes l'an passé). »
Selon l’étude "référence des équipements multimédias", parue début novembre, 525.000 foyers français prévoient d’acheter une tablette d’ici 6 mois. Toujours d’après ce baromètre Gfk/Médiamétrie, ces acheteurs ont principalement entre 35 et 49 ans.
« 40% des foyers qui prévoient d’en acheter une ont un chef de famille dans cette tranche d’âge » est-il précisé. Au niveau mondial, ce sont approximativement 63 millions de tablettes qui seront écoulées en 2011. En Europe, près de 7 sur 10 seront, a priori, des iPad.

Top 10 Consumer Web Products of 2011

BestOf2011.pngOur annual Best Of series continues with the top 10 Web products that revolutionized old services and created new ones this year. Yesterday, Richard MacManus rounded up the top 10 social Web products, featuring services that focus on social networking and community building. This round-up is about the Web products that changed the things we do online.
The categories vary here from browsers to cloud drives to mobile apps and more. But all of these services redefined a core use case for the Web, and some of them invented activities we didn't know we needed. Here are our top 10 Consumer Web Products of 2011:
Alcatel-Lucent With the launch of the Alcatel-Lucent Developer Platform, Alcatel-Lucent provides service providers and enterprises with tools that enable third-party developers to build, test, manage and distribute applications across networks, including television, broadband Internet and mobile.
Ad powered by BTBuckets

1. Chrome

This year, Google decided to make Chrome the most important Web browser in the world. It rocketed upwards in market share, now neck and neck with Firefox in the #2 browser spot, and if anyone can take down Internet Explorer, Google can.
Chrome released new features at a blistering pace this year. Its core mission in 2011 was to focus on Web apps. Google has renovated its Chrome Web Store for apps, as well as the New Tab page, where Chrome Web apps are launched. It's blurring the line between Web and native applications.
Some developers are working on a tablet-based version of Chrome that could bring the browser and its Web app ecosystem to all kinds of devices. Chrome in the Android ecosystem would be obvious, but the latest Google app for iPad looks just like Chrome, too, Web apps and all. Sneaky, eh?
Upcoming features include new APIs for text-to-speech and advanced audio features. Just this month, Google bought Apture, which could bring media-rich contextual search into every page in Chrome. And multiple accounts are coming to Chrome soon, so users can easily carry their browser data with them across devices.
webppenguin150.jpgThanks in large part to the passionate work of outside developers, Chrome (and its open-source Chromium code base) is even influencing the way the Web in general works. Chrome and Firefox developers are working together on Web Intents, standard protocols to let independently developed Web apps communicate with each other. It's also pushing a new image format to make the whole Web faster by reducing the file size of images.
Browser choice is a personal matter for users, but no other browser comes close to Chrome's influence on the state of the art.
chromewebstore_oct25.jpg

2. Dropbox

dropbox150.jpgDropbox is hot, and this year cemented its importance. By choosing a metaphor with which most computer users were already familiar, Dropbox has become a key player in the consumer cloud. It's a folder that syncs to the Internet. That's all there is to it. People and teams use it for backup as well as for syncing files across devices.
Its flexibility has also allowed Dropbox to become the back-end - the file system that wasn't - for exciting new apps and services, especially on mobile devices. Amazing life-hacking services like 1password use Dropbox for syncing. So do all the great third-party text apps for iOS, which doesn't have a native Google Docs client like Android does. There are even experimental blogging tools and website hosting services built on Dropbox.
Is Dropbox really the world's 5th most valuable startup, as Business Insider named it this year? We don't know yet. It has had some hiccups, such as a privacy scare earlier this year. But we also learned this year that Dropbox turned down a nine-digit acquisition offer from Steve Jobs in 2009. That's confidence.

3. iCloud

icloud_150_oct11.jpgAfter being rebuffed by Dropbox, Apple set out to build its own file syncing between Macs and its iOS devices, replacing the embarrassing MobileMe desktop syncing service. iCloud shipped with iOS 5 in October of this year, and it's an effort to be even more basic than Dropbox. It's not even a folder; it just pushes files along behind the scenes, so your stuff is just there when you open apps to use it, whether on Mac OS or iOS.
icloud_jillscott.jpgIt can sync contacts, calendars, media, documents, and even settings, as long as this syncing is written into the app. Apple's own apps use it, and though third-party apps haven't done much with it yet, they will. The first full third-party implementation of iCloud shipped just yesterday in iA Writer for iPad and Mac.
The service has more kinks in it than Dropbox, and it's not cross-platform. But this it's-just-there syncing paradigm will form the backbone of Apple's vision of computing, and that vision is infectious. The iPad and iPhone are selling in huge quantities, smashing Apple's own estimates. Even Macs are gaining marketshare. 2012 will be a big year for Apple, and iCloud will be the Web service that supports it.
If you use Apple devices and haven't set up iCloud, here's how to get started.

4. Kindle

amazonkindle150.jpgWe're used to thinking of the Kindle as a product, a device. But this year, Amazon made clear that Kindle is a service, not a product. Unlike Apple, for whom software is the service that sells profitable devices, Amazon will break even, or even take a loss, on each device in order to put its media and retail services in users' hands.
Kindles are just windows into Amazon's stores. You can save $30 on your device just by accepting ads as your screensaver. And this year, Amazon added the 7-inch, full-color Kindle Fire to the family, expanding the Kindle service to video, music, magazines, games and apps. It builds on the existing Amazon Prime video streaming service and its Cloud Drive for music.
kindlefamily.jpg
The Kindle Fire also introduced Amazon Silk, a cloud-accelerated Web browser that uses browsing history to predictively pre-load Web pages for faster browsing on slow, handheld devices. Amazon has always known that load time can make or break a sale, so the Kindle service is designed to make buying, watching, reading and listening through Amazon as convenient as possible.

5. Evernote

evernote_150.jpgYou may not know it yet, but Evernote will be around for a while. In fact, its CEO wants it to be around for 100 years. It's another syncing service, but it's not like the others above. It works across platforms, unlike iCloud, and it works inside files, instead of agnostically pushing them around like Dropbox.
Evernote lets users create and store rich-text files, images, to-do lists, whatever kinds of little files they need, and it syncs to all their devices. It packs impressive technology like optical character recognition, letting users snap pictures of notes, receipts or business cards and capture the text. It offers handy services like web clipping and an Instapaper-like service for saving articles for later. And it offers standalone apps and browser extensions, letting users access it however best fits their workflow.
What's next for Evernote? If you have an idea, build it yourself. Evernote is building a 100-year platform to let its users capture anything and access it anywhere.
Next Page: Five services that changed the way we find and share stuff on the Web this year.

http://www.readwriteweb.com/archives/top_10_consumer_web_products_of_2011.php?utm_source=ReadWriteWeb+Newsletters&utm_campaign=248ba9a189-RWWDailyNewsletter&utm_medium=email

L'offre de Free Mobile pourrait débuter à 5,90 euros

free mobile
Selon un consensus Reuters, Free Mobile proposera des offres entre 10 et 27 euros par mois. Un forfait de deux heures pourrait même l'être à 5,90 euros.
Publié le 28/11/2011, 12h03
Déjà prêt pour son lancement (lire l'article "Free Mobile serait déjà prêt pour son lancement", du 17/11/2011), Free Mobile devrait proposer des offres d'abonnement en moyenne 40 % moins chères que celles de ses concurrents, selon Reuters. Les offres pourraient se situer entre 5,90 euros et 27 euros par mois. Les analystes interrogés pensent que Free risque de proposer une offre intégrant la téléphonie IP via Skype pour offrir l'appel sur téléphones fixes, en France et à l'international.

A 5,90 euros, la première offre pourrait proposer deux heurs d'appel. Aucun détail n'est fourni sur les autres offres mais les analystes tablent sur un lancement du service en deux temps, à commencer par une version beta auprès de certains abonnés de longue date. A l'occasion du lancement opérationnel de l'opérateur, Xavier Niel aurait laissé entendre que Free Mobile ne fournirait ni mobile, ni boutiques. Reuters avait indiqué la semaine dernière que les offres seront disponibles dans le réseau The Phone House.
A lire ailleurs

Pour rappel, Free Mobile a annoncé avoir dépassé le seuil des 27% de couverture de la population française, lui permettant de s'appuyer sur le réseau d'Orange dans le cadre d'un accord d'itinérance. A ce jour, Free compte 4,7 millions d'abonnés à son offre Internet fixe.
 
http://www.journaldunet.com/ebusiness/telecoms-fai/tarifs-free-mobile-1111.shtml?f_id_newsletter=6061&utm_source=benchmail&utm_medium=ML7&utm_campaign=E10211858&f_u=23951499