lundi 30 décembre 2013

Un ordinateur en kit, pour apprendre à coder

A lire sur: http://www.industrie-techno.com/un-ordinateur-en-kit-pour-apprendre-a-coder.26605#xtor=EPR-25

PAR  PUBLIÉ LE  À 10H49
Ordinateur en kit Kano
Faire de l’ordinateur un jeu, aussi facile à construire que le dernier vaisseau pirate Lego. C’est le but de l’équipe qui a lancé Kano, un ordinateur en kit à 99 dollars, basé sur le système d’exploitation open source Debian Linux. La machine est entièrement fabriquée par l’utilisateur, qui apprend les bases du code informatique.
Il arrivera à l'intérieur d'une petite caisse en carton qui tient dans votre boîte aux lettres. Qui donc? L’ordinateur Kano, livré en pièces détachées. Le cœur de la machine est un nano ordinateur mono carte, pas plus grand qu’un billet de banque. Baptisé Rasperry Pi modèle B, il fonctionne avec un processeur ARM et dispose de 512 Mo de mémoire vive. Une série de pièces se branchent sur cet élément de base : une carte mémoire équipée du logiciel d’exploitation Kano OS (développé pendant six mois par les porteurs du projet à partir de Debian Linux, un système d’exploitation open source), un clavier disposant d’un pavé tactile, un haut parleur, quelques câbles (USB, Ethernet)… L’ordinateur se monte comme un meuble Ikea, à l’aide du mode d’emploi.

Ensuite, il ne reste plus qu’à… jouer ! Pour apprendre à coder dans les langages Smalltalk, Javascript ou Python, le plus simple est de programmer un jeu vidéo basique, comme Pong (une balle rebondit de plus en plus vite entre deux baguettes). Le système Kano Block rend le codage instinctif : le néophyte inscrit des lignes de code sur un fichier et la structure de son jeu, visible sur une autre fenêtre, évolue en parallèle. Les « Kanophiles » ne sont pas seuls face à leur appareil : « Nous sommes en train de mettre au point «Kano World”
», une plate-forme Internet pour que les utilisateurs puissent discuter entre eux », détaille Alex Klein, qui a initié le projet.

Kano n’est pas encore commercialisé mais il intéresse déjà le grand public : ses créateurs ont récoltés plus de 900 000 dollars de dons grâce à une campagne de crowdfunding toujours en cours sur le site américain Kickstarter. Mais Alex Klein vise aussi les entreprises : « Kano permettra au secteur privé, mais également aux institutions publiques et aux organisations non gouvernementales, de donner à leurs salariés de nouvelles compétences de codage indispensables au XXIe siècle. »

Sur la vidéo ci-dessous, découvrez comment fabriquer votre ordinateur en 107 secondes.

Animation : la fabrication d'un textile intelligent

A lire sur: http://www.industrie-techno.com/animation-la-fabrication-d-un-textile-intelligent.26602#xtor=EPR-25

PUBLIÉ LE  À 10H26
Textile intelligent
Fabriquer des textiles lumineux ou produisant leur propre énergie : c'est ce que permet la technologie E-thread de microencapsulation de composants électroniques dans du textile, l'une des30 technologies phares de 2013, décryptées par la rédaction dans votre magazine du mois de décembre. Découvrez les étapes de fabrication d'un T-shirt intégrant des LED.

Top five manufacturing IT stories of 2013

A lire sur: http://searchmanufacturingerp.techtarget.com/news/2240210633/Top-five-manufacturing-IT-stories-of-2013

The year 2013 was one for the history books when it came to technological advances and forward thinking in the manufacturing IT space. Mobile devices and 3D printers evolved from what-if to must-have items for many shop floors, while manufacturers explored new ways to achieve same-day shipping and attract more young recruits. In light of all this, anybody who still insists that manufacturers are behind the times when it comes to technology hasn't been paying very close attention. Let's take a look at the top stories that made 2013 a banner year for manufacturing IT.
Manufacturers stood up to the Goliath of Amazon shipments
There's no way around the reality of Amazon's same-day shipping model -- customers are getting used to receiving their packages faster than ever, and manufacturers need to find a way to keep up. In 2013, many of them found innovative ways to do just that.
Some manufacturers, such as Longmont, Colo.-based Specialty Products Company, have boosted their shipping times by dealing partly through Amazon itself while also offering direct shipping from their own e-commerce sites. Others, such as the Winamac, Ind.-based Braun Corp., have made the move to larger or multiple warehouse facilities to allow for faster and more efficient order processing. The end result is the same: smaller manufacturers are meeting the instant-gratification needs of customers and staying competitive in an Amazon world.
Mobile devices became more common -- but not safer -- in manufacturing
Manufacturers took an enthusiastic, if rather reckless, approach to mobile computing in 2013. TechTarget's Annual IT Priorities survey found that while nearly 40% of manufacturers are working on or planning to adopt mobile devices for their business, only about 30% are really thinking about mobile device management (MDM) or mobile security measures.
This lack of a security focus was only made more concerning due to the rising popularity of Bring Your Own Device (BYOD) -- allowing employees to use their personal smartphones and tablets to access company data and apps. While BYOD may be a frugal approach in the short term, experts agree it opens manufacturers to long-term security issues, with IT departments straining to manage multiple operating systems and device models. Making a solid mobile security plan and sticking to it can avoid future headaches and potentially serious data breaches. 
3-D printing took on new dimensions
If there was one technology on everyone's minds -- and expo floors -- in 2013, it was 3-D printing. With a seemingly endless range of use cases, from jewelry to prosthetics to weapons and even food, manufacturers began to look at 3-D printing as a serious next-gen approach to production.
One of the biggest changes that 3-D printing could bring to a manufacturing organization is a shift from large bulk-order production to small, sometimes one-unit, custom-designed products. This sort of designer manufacturing could revolutionize the industry, experts say, but it's important to keep things in perspective for now. The average 3-D printer is still thousands of dollars above the budget of small and mid-sized manufacturers, not to mention the average consumer. Regardless, 3-D printing seems to be here to stay, and something to watch closely in 2014.
Manufacturers struggled to remain relevant to young job seekers
A still weak economy managed to produce hundreds of thousands of new hires in 2013, but not many of them saw manufacturing as their next step. ThomasNet's Industry Market Barometer report found that manufacturing is in need of a major image overhaul if it is to survive the coming mass retirement of Baby Boomers.
According to ThomasNet, manufacturers need to make sure young job hunters know the business isn't limited to the old-fashioned, assembly-line careers of their parents and grandparents. Indeed, today's manufacturing environments are tech-heavy and in need of tech-saavy recruits -- precisely the sort of skillset that Gen Y has in spades. Advertising this fact at job fairs and internship programs will help the industry secure the new blood needed to thrive in the years to come.
Infor released major SyteLine update
One of the biggest vendor stories of 2013 was Infor's announcement of SyteLine 9.00, a major upgrade to the ERP platform. The release included improved cloud deployment and development, single-instance vs. multi-site database model options, more flexible financials and stronger support for environmental and safety compliance standards.
Experts noted that the SyteLine update positions Infor as a stronger competitor to ERP industry giants SAP and Oracle. However, they also cautioned that it's too early to tell whether SyteLine 9.00 will live up to its lofty promises and how these changes will affect customers in the long-term.

Brenda ColePublished: 06 Dec 2013

Managing mobile business computing in a manufacturing environment

A lire sur: http://searchmanufacturingerp.techtarget.com/answer/Managing-mobile-business-computing-in-a-manufacturing-environment

I know that mobile business computing is becoming more common in manufacturing, but is anybody using only mobile devices to run their business applications? Is that even a feasible or wise idea?
While it is feasible, running your business applications using only mobile devices may not be the best approach, although there are certain scenarios where this may be the only option available or accessible for remote users. Opt for a manufacturing application withmobile and collaborative capabilities; this reduces risk and ensures safer connections for your data. 
Even if you decide to go with a cloud service, deeply investigate how mobile devices access the cloud and then how that connects to your data and organization. This option may boil down to choosing between single-tenant or multi-tenant cloud software.
Dylan Persaud





Etude : ralentissement de la BI mobile dans le monde

A lire sur: http://www.lemagit.fr/actualites/2240210705/Etude-ralentissement-de-la-BI-mobile-dans-le-monde

Cyrille ChaussonPublié: 09 déc. 2013

L’adoption de la Business Intelligence mobile ralentit tout comme celle des très tendance outils analytiques de réseaux sociaux, nous apprend la dernière étude mondiale BARC BI qui s’est appuyée sur les réponses de quelque 3 149 entreprises issues de plusieurs secteurs industriels dans le monde.
Les résultats ont permis de déterminer que 16% des entreprises ont mis en place des programmes de BI mobile, contre 8% il y a deux ans et 13% l’année dernière. Selon Carsten Bange, CEO de BARC, « l’année dernière, 32% affirmaient envisager d’implémenter de la BI mobile d’ici 2013. Mais malgré ce fort intérêt, la conversion a été plus lente que prévu ».
« Nous avons observé des démarrages plutôt basiques, comme les tableaux de bord sur tablette, mais une fois le projet commencé, nous avons observé certains problèmes, liés particulièrement à la sécurité et à la gestion centralisée des terminaux mobiles. Les dispositifs de sécurité viennent juste d’être intégrés dans certains logiciels. Nous avons rencontré un seul projet qui, après avoir été développé complètement auprès de 100 personnes, fut stoppé par le CSO. Prendre en compte la sécurité depuis les premières étapes est une leçon à retenir. »
Il pointe alors du doigt la diversité des terminaux et des OS comme un élément bloquant des projets de BI mobile. Un autre facteur est la nécessité de s’adapter à différentes tailles d’écran. Ce qui fonctionne sur un écran d’iPad ne fonctionnera pas aussi bien sur un autre.
Les projets de BI mobile sont plus visibles en Afrique du Sud (30% en service) et en Asie-Pacifique (26%) qu’en Europe (15%) et en Amérique du Nord (16%). Au sein même du Vieux Continent, la région du nord est moins attirée par la BI mobile que les régions du sud. Le Royaume-Uni et l’Irlande affichent un taux d’activité de 17% contre 14% pour les pays germanophones et 27% pour les pays du sud.
Comme prenant à contre-pied tout le buzz des éditeurs, l’étude révèle que l’analyse des données des réseaux sociaux est également peu fréquente. Seulement 4% des entreprises y ont recours et 76% affirment que cela n’est pas nécessaire du tout. « On entend beaucoup de choses autour des réseaux sociaux, mais les chiffres montrent que très peu d’entreprises basculent - la réalité est ainsi bien différente. Et seulement très peu envisagent d’y avoir recours », commente Bange.
Au delà du département financier
L’étude pointe également une croissance marquée du pourcentage d’employés ayant recours à des outils de de BI ces cinq dernières années. Le secteur de la finance reste le métier le plus utilisateur de BI cette année - 85% des départements financiers s’y adossent. Mais, il est également à noter que les départements ventes, IT, production, achats, logistique et RH - ainsi que la direction - ont tous augmenté leur niveau d’utilisation de la BI depuis 2008.
« La BI était traditionnellement réservée aux départements financiers, mais est aujourd’hui devenue plus répandue. L’augmentation des usages est particulièrement prononcé dans les équipes de direction, des ventes et des achats », ajoute Bange. « Cela tient beaucoup aux capacités offertes par les outils de BI en self-service, et leurs capacités visuelles très séduisantes sur lesquelles les éditeurs ont misé et ont ainsi augmenté la facilité d’utilisation. »
Mais ce n’est pas seulement une question de tableaux de bord plus attirants, poursuit-il. Le besoin de transparence est encore plus présent, tout comme la demande pour une information disponible plus rapidement. ». Selon lui, « la demande en analyse de données est également plus prononcée ».
De plus, l’utilisation de ces outils par les responsables de la direction a augmenté depuis la crise financière de 2008. Toutefois, affirme-t-il, la mode pour le Big Data n’est pas encore considérée comme de la BI, il lui reste encore à atteindre le niveau d’interprétation.
La consommation des outils de BI au delà des départements financiers est marquante, dit-il. Mais elle n’a pas augmentée comme prévu dans les départements marketing. Entre 2008 et 2013, leur utilisation est restée bloquée à 45%. L’utilisation par le senior management est passée de 48% à 74% et par les départements commerciaux de 53% à 65%. Une poignée de départements opérationnels - production, achats, logistiques - a augmenté leur usage, à 14%
La tendance pour la BI en self-service est forte d’un point de vue général. En Europe, le Royaume-Uni domine en termes d’usage avec 58%. La France est derrière avec 34%.

Tor pourrait devenir un standard d’Internet

A lire sur: http://www.lemagit.fr/actualites/2240210762/Tor-pourrait-devenir-un-standard-dInternet

Valéry MarchivePublié: 09 déc. 2013

Alors que les géants de l’Internet généralisent le chiffrement des liens entre leurs centres de calcul, l’IETF travaille à chiffrer une part croissante des échanges en ligne, en réaction aux révélations relatives aux activités d’écoute de la NSA. Mais certains, au sein de l’Internet Engineering Task Force vont plus loin et réfléchissent à l’intégration native d’une couche de sécurisation supplémentaire. 
Un groupe d’ingénieurs de l’IETF vient ainsi de demander aux pilotes du projet Tor d’étudier la possibilité d’en faire un standard. Pour mémoire, ce projet consiste à produire un réseau décentralisé visant à anonymiser les échanges basés sur le protocole TCP. Ainsi, un site Web visité en passant par Tor ne connaît pas l’adresse réelle de l’ordinateur utilisé. 
Toutefois, les discussions n’en sont qu’à un stade très préliminaire. Andrew Lewman, directeur exécutif de Tor, explique dans les colonnes du MIT Technology Review, que « nous en sommes simplement au stade de ‘voulons-nous sortir ensemble?’. Il n’est pas clair que nous allons le faire, mais cela vaut le coup d’étudier les implications. »
Depuis qu’ont commencé les révélations liées au programme Prism de la NSA, d’autres initiatives ont vu le jour en faveur d’un renforcement de la confidentialité des échanges en ligne. Ainsi, l’Electronic Frontier Foundation (EFF) recommande l’utilisation de l’extension HTTPS Everywhere. Disponible pour Chrome et Firefox, cette extension force l’utilisation de canaux chiffrés pour la consultation des sites Web supportant le protocole HTTPS mais ne le proposant pas encore par défaut. Pas de quoi garantir la complète inviolabilité de ses communications, mais suffisamment pour réduire les traces de ses activités sur le Web aisément accessible à des organismes trop curieux. L’extension HTTPS Everywhere a été créée en coopération par les équipes du projet Tor et par l’EFF.




Le numérique français s’insurge contre le projet de loi de programmation militaire

A lire sur: http://www.lemagit.fr/actualites/2240210764/Le-numerique-francais-sinsurge-contre-le-projet-de-loi-de-programmation-militaire

Valéry MarchivePublié: 09 déc. 2013

L’Asic (Association des sites Internet communautaires) et la Quadrature du Net n’ont pas trainé pour réagir auprès l’adoption en première lecture par l’Assemblée Nationale du projet de loi de programmation militaire pour la période 2014-2019. Et c’est son article 13 (voir encadré) qui cristallise les inquiétudes (voir encadré). Ainsi, dans un communiqué, la Quadrature du Netestime qu’il « organise la généralisation de la surveillance en temps réel des informations et documents traités et stockés dans les réseaux, ce qui concerne potentiellement les données de tous les citoyens ». Et de relever que le projet de loi dispose que les requêtes d’accès à ces données « peuvent être émises par de nombreux ministères », depuis la Défense jusqu’aux Finances, allant « au-delà de ce qui est nécessaire à l’objectif poursuivi de protection des citoyens », selon l’association. 

CE QUE DIT L'ARTICLE 13 

« Afin de prévenir les actes de terrorisme, les agents individuellement désignés et dûment habilités des services de police et de gendarmerie nationales spécialement chargés de ces missions peuvent exiger des opérateurs et personnes mentionnés au II de l'article L. 34-1 la communication des données traitées par les réseaux ou les services de communications électroniques de ces derniers, après conservation ou en temps réel, impliquant le cas échéant une mise à jour de ces données. »
Le think tank Renaissance Numérique ne dit pas le contraire. Dans un billet de blog, il relève « trois arguments » contre l’article 13 : « parce que cette loi permet une surveillance accrue et généralisée des citoyens, […] les acteurs de l’Internet, les garants administratifs et associatifs de défense des droits et libertés informatiques doivent être entendus. […] Parce que la loi permet d’accéder aux données de connexion et aux contenus dans des conditions déjà déclarées anticonstitutionnelles par le Conseil constitutionnel en 2011 », lors des débats sur la loi Loppsi 2, faute de sollicitation de l’autorité judiciaire pour l’émission de requêtes d’accès aux données personnelles. 
Menace économique
Les inquiétudes quant à l’impact économique du scandale Prism, outre-Atlantique, ne semblent pas encore atteindre les parlementaires français. Mais les acteurs nationaux du numérique y semblent particulièrement sensibles. L’Asic s’inquiète ainsi de dispositions « qui, si elles sont adoptées, pourraient mettre en péril l’écosystème innovant mais fragile de l’économie numérique en France », en provoquant « un déficit de confiance vis-à-vis des solutions nationales d’hébergement ». 

Même son de cloche du côté de Syntec Numérique. Dans un communiqué, la chambre syndicale des SSII relève que, « sans que les représentants du secteur aient été consultés, le cadre juridique de l’accès aux données [se] trouve profondément modifié » par les dispositions de l’article 13 du projet de loi. Syntec numérique relève lui aussi « les vices d’inconstitutionnalité possibles entachant ce dispositif » ainsi que le risque économique potentiel « pour l’offre numérique française, en plein essor, notamment de services Cloud, en pouvant contrarier la confiance des utilisateurs et des clients de ces services ». Le syndicat demande « que le Conseil National du Numérique puisse être saisi sur ces dispositions et ainsi organiser une consultation ». Et tant pis si cela implique de ralentir le processus parlementaire. 

Real Humans : des machines qui parlent comme des hommes, ou presque...

A lire sur: https://interstices.info/jcms/ni_74169/real-humans-des-machines-qui-parlent-comme-des-hommes-ou-presque

Et si des robots ressemblant aux humains cohabitaient avec eux, comme dans la sérieReal Humans ? Il faudrait alors leur parler, qu’ils soient capables de comprendre ce qu’on leur dit et de s’exprimer à leur tour par la parole.
Real Humans - 100% humains (Äkta Människor) / Photo Johan Paulin.Série suédoise créée par Lars Lundström, diffusée sur SVT1 depuis 2012, en France sur ARTE depuis 2013.
Co-production : Matador Film, Sveriges Television, avec la participation d’ARTE France (durée des épisodes : 58 min.)

La série TV Real Humans, diffusée en France sur ARTE, met en scène des robots ayant une apparence humaine, appelés des hubots (contraction de human robots). Ces robots, aidant les humains dans leurs différentes tâches quotidiennes, ont une particularité : ils sont doués d'une intelligence très développée. Et l’un des enjeux narratifs de la série porte sur l’autonomie que leur confère cette faculté.
La situation imaginée n'est pas nouvelle, elle est analogue aux premiers fantasmes technologiques qui ont nourri l'imaginaire collectif depuis les années 1960. L'une des premières formes d'intelligence robotique mise en scène par le cinéma est HAL 9000, le robot du film 2001, l'Odyssée de l'espace de Stanley Kubrick, sorti en 1968 et inspiré d'une nouvelle écrite par Arthur Clarke en 1951. Dans ce film, Kubrick décrit notamment le voyage en vaisseau vers Jupiter d'une mission scientifique. Les astronautes coopèrent facilement avec HAL, le robot doté d'intelligence artificielle qui les accompagne. Jusqu'au jour où HAL se voit menacé de déconnexion. Là, il voit rouge et s'attaque directement aux spationautes. Cette vision proposée des usages de la technologie a suscité de nombreuses controverses.
Plusieurs films ou livres d'anticipation décrivent des conflits opposant les hommes aux machines. Il n'en reste pas moins vrai qu'au début des années 2000, le monde imaginé par Stanley Kubrick n'était pas advenu, ou pas encore ? Nous n'avions pas de mission habitée vers Jupiter, certainement pas la capacité de le faire et encore moins une intelligence artificielle capable de se rebeller contre l'homme. Sauf dans la fiction. Et, si 2001, l'Odyssée de l'espace a donné corps à un champ de réflexion, il en va certainement de même pour la série Real Humans.
Les scénaristes de la série Real Humans ont choisi de s'inscrire dans la lignée des fictions qui mettent en scène des robots à l'image de l'homme. Ils ont cependant introduit des éléments qui permettent immédiatement au public de distinguer les personnages humains des hubots : une rigidité de la démarche et du visage, et surtout, le regard. En effet, les hubots ne clignent pas des yeux ! Ce qui est technologiquement invraisemblable, puisque même les poupées pour enfants ont des yeux articulés... Alors, si on savait réaliser un système qui pense par lui-même et pour lui-même, on devrait être capable de concevoir des paupières qui se ferment. Mais c'est un souci constant des gens de l'image de faire en sorte que le spectateur ne se trouve pas exactement dans la même position que les personnages. Comme les hubots sont joués par des acteurs humains, un fort enjeu de la mise en scène est de gommer le caractère humain de manière homogène pour tous les personnages robots. Dans une autre fiction déjà ancienne, les envahisseurs, qui n'étaient pas des robots mais des extra-terrestres, eux, ne pouvaient pas plier le petit doigt. Un détail subtil, mais imparable.
Si cette série ne réinvente pas les enjeux, elle soulève de nombreuses interrogations, non seulement sur le développement technologique, mais aussi sur la condition humaine. Elle invite à se poser la question de la finalité de la technologie qui, dans le même temps, développe des systèmes suppléant à notre vieillissement ou nos handicaps, et des armes de plus en plus intrusives (conduisant à une surveillance permanente, comme dans la série Person of Interest) ou des drones.

De nombreuses questions ouvertes

La conception d'une intelligence artificielle d'aussi haut niveau embarquée dans une machinerie physiologiquement comparable à celle de l'Homme pose un grand nombre de questions de nature différente. Balayons-en rapidement quelques-unes.
Tout d'abord, où se situe l'intelligence ? La question n'est pas tant de savoir dans quelle partie de l'anatomie du robot l'intelligence doit être placée, mais plutôt de savoir si c'est un robot isolé qui est intelligent, grâce à une intelligence embarquée, ou si c'est une collection de robots qui résolvent une tâche en commun. Dans ce second cas, l'intelligence est dite collective. La résolution d'une tâche peut alors provenir de la somme des robots et non d'un seul, il s'agit d'une intelligence décentralisée.
Du point de vue technologique, comment reproduire les textures de la peau, les maintenir et les faire évoluer ?
Comment produire des mouvements qui ressemblent à ceux des humains, ou du moins, qui s'adaptent à l'humain ? Il nous serait en effet inconcevable d'utiliser un robot d'aide qui ne sache réaliser que des mouvements violents, pouvant nous blesser... Cet aspect relève de la mécatronique.
Autre question technique, comment faire en sorte que ces robots aient une autonomie énergétique suffisante ? Cette faiblesse est d'ailleurs très bien retranscrite dans la série, où finalement pour survivre, les hubots restent à la recherche de courant électrique, comme les humains en situation de survie cherchent de la nourriture.
Comment adapter le robot à une situation non prévue, de manière analogue à l'homme ?
Comment rendre le robot empathique ? Comment le doter d'états émotionnels, et les présenter à l'utilisateur ?
Du point de vue philosophique, est-il plus facile ou au contraire plus difficile pour l’être humain d’accepter d’être aidé par un robot qui lui ressemble ?
Qu'est-ce qui différencie un robot humanoïde doté d'intelligence artificielle d'un être humain ? Faut-il considérer qu'un robot intelligent, humanoïde ou non, est aussi responsable qu'un humain ?
La problématique sur laquelle nous avons choisi de nous focaliser dans ce document est la suivante : comment faire communiquer ces robots au travers de la langue naturelle, c'est-à-dire à la fois pour la compréhension et la production de cette langue ? C'est en effet le processus d'interaction utilisé entre les humains et les hubots. Finalement, sans traitement de la langue, l'intelligence sophistiquée des hubots ne serait pas au service des humains.

Des robots communiquant par la parole

Ce qui est impressionnant - tel était déjà le cas dans 2001, l'Odyssée de l'espace - c'est que la forme d'intelligence artificielle présentée dans la série Real Humans a une faculté de langage à l'égal des humains. Elle est capable tout autant de produire des énoncés dans une langue donnée que de les comprendre. Il est facile de constater que nous n'en sommes pas là aujourd'hui... Certes, l'apparition d'interfaces homme-machine en langue naturelle dans les téléphones portables pourrait le laisser croire. Mais ces systèmes sont efficaces uniquement parce qu'ils évoluent dans un univers restreint et ne proposent donc qu'un nombre très réduit d'interactions.
Mais alors, sommes-nous loin de ces échanges naturels avec les machines ? Quelles sont les étapes à franchir, qui nous permettraient de dialoguer avec une intelligence artificielle de manière fluide, comme nous pouvons le faire entre humains ?

Traitement automatique des langues

Pour une machine, la difficulté à comprendre la langue naturelle provient en partie du nombre important de phénomènes linguistiques en jeu dans une simple interaction. Et pour chaque sorte de phénomènes, plusieurs interprétations sont possibles. Par exemple, comment distinguer les deux phrases suivantes, en anglais, qui se prononcent d'une façon très similaire : « wreck a nice peach » ou « recognize speech » (« détruire une belle pêche » ou « reconnaître la parole ») ? Seul le contexte d'énonciation nous permet de discriminer la bonne version.
La grande différence entre la langue naturelle et les langages formels, tels qu'on les utilise largement en informatique, est qu'un énoncé en langue naturelle ne peut se comprendre qu'au travers de toutes ses dimensions, et chacune de ces dimensions apporte son lot d'ambiguïtés :
  • phonologie : signal sonore
  • morphologie : structuration interne des mots
  • syntaxe : relation des mots au sein d'une phrase
  • sémantique : interprétation des items de sens composés
  • pragmatique : interaction avec le contexte
  • et au-delà, en relation avec nos connaissances du monde
En tant qu'humains maîtrisant une langue, nous réalisons les opérations de désambiguïsation nécessaires sans même y réfléchir.

Le problème de l'ambiguïté

Sans entrer dans une liste à la Prévert des problèmes rencontrés, on peut comprendre qu'il n'est possible de déterminer la catégorie syntaxique d'un mot que dans le contexte de son utilisation, ici dans une phrase. Par exemple le mot « la » peut être :
  • un déterminant, comme dans le syntagme « la pomme »,
  • un pronom, dans la phrase « Jean la mange »
  • un nom, eh oui, c'est possible : « le la était désaccordé ».
Ces choix sont primordiaux pour trouver les différentes relations syntaxiques qui existent. L'exemple suivant est très célèbre parmi les spécialistes du traitement automatique des langues : « La petite brise la glace » peut se comprendre avec comme sujet « la petite » ou bien « la petite brise », pour un petit vent froid. Dans le premier cas, le verbe est « brise », dans l'autre c'est « glace ». Le sens sera très différent en fonction de ce que l'on aura choisi au niveau syntaxique.
Un autre niveau d'ambiguïté vient de l'interprétation en fonction des connaissances du monde. Par exemple, « la pièce est dans le porte-monnaie » et « le porte-monnaie est dans la pièce » sont deux énoncés contenant les mêmes mots, avec les mêmes relations syntaxiques, et pourtant ici, le sens de « pièce » diffère considérablement. Dans le premier cas, il s'agit d'une pièce de monnaie et dans le second, d'un espace d'un bâtiment. Si cet exemple ne pose aucun problème d'interprétation à un humain, pour un système automatique, c'est d'une difficulté sans commune mesure, puisqu'il faut être capable d'abstraire de l'énoncé toutes les informations jusqu'à les mettre en relation avec nos connaissances du monde.
Actuellement, les recherches en phonologie, morphologie et syntaxe sont très avancées. Du point de vue linguistique, les phénomènes usuels des langues indo-européennes (comme le français ou l'anglais) sont nettement étudiés. Ce qui permet de définir des systèmes efficaces pour en rendre compte. Cependant, il existe encore de nombreuses langues, notamment en Afrique et en Amérique du Sud, pour lesquelles il n'existe quasiment pas d'étude (Koalib, Murucundu...). Du point de vue calculatoire, les outils abstraits pour en rendre compte évoluent. Il n'en reste pas moins que la question de la classe de langages formels qui recouvre la langue naturelle n'est toujours pas définie. On suppose qu'elle est faiblement sensible au contexte, sans pouvoir définir précisément en quoi elle diffère des langages sensibles au contexte.
Une fois résolus les problèmes de syntaxe, beaucoup de questions subsistent sur l'interprétation du contenu des phrases, ainsi que sur la relation des phrases entre elles dans la construction d'un texte cohérent. De nombreux phénomènes sont en jeu, tant dans la modélisation sémantique que pragmatique. L'une des difficultés actuelles est d'arriver à déterminer ce qui dans la modélisation est pertinent. Une fois cela déterminé, alors nous retombons sur le problème de gestion des ambiguïtés dans ce nouveau niveau de représentation. Ce qui pourrait se résoudre en partie, si nous avions une manière d'interroger une représentation de nos connaissances du monde... Cependant, de nombreuses équipes de recherche se concentrent actuellement sur la question de la modélisation de la pragmatique à partir des recherches en sémantique (que ce soit sur la sémantique lexicale, ou en utilisant des propriétés logiques...).

La réactivité des systèmes

On peut identifier deux approches pour répondre à ces problèmes d'ambiguïté : les approches symboliques (à base de règles) et les approches numériques (à base des probabilités). De manière générale, les approches symboliques ont explosé dans les années 1980, car elles permettaient de traiter quelques cas particuliers de besoins avec les ordinateurs domestiques. C'est à ce moment que l'on a vu apparaître les premiers correcteurs orthographiques. Leur grande force est qu'elles sont capables de rendre finement compte de propriétés linguistiques complexes. Mais leur grand défaut est qu'elles nécessitent une capacité et un temps de calcul très significatif. De l'autre côté, les approches numériques sont beaucoup plus performantes pour la recherche d'une solution, mais il devient très difficile, sinon impossible, d'introduire des propriétés linguistiques dans le traitement. Et ces systèmes se retrouvent quelque part entre langage formel et langue naturelle.
En revenant sur la question précédente de l'analyse syntaxique, les analyseurs syntaxiques (parsers) à base de règles sont actuellement capables de reconnaître une phrase standard d'article de journal en une quinzaine de secondes. Ce qui est une performance, mais qui peut paraître un temps extrêmement long pour un utilisateur de système. Les meilleurs systèmes peuvent descendre légèrement en dessous, lorsqu'ils sont très spécialisés pour une langue particulière, comme le français ou l'anglais. Reste malgré tout la question de déterminer parmi tous les résultats trouvés lequel est le meilleur. À nouveau, cela dépend très largement du nombre de mots présents.
De l'autre côté, les parsers basés sur des approches numériques obtiennent des performances remarquables, en dessous de la seconde. Il n'en reste pas moins que pour des phrases utilisant des structures linguistiques complexes comme dans les articles de journaux, la fiabilité du résultat proposé est très réduite. C'est en fonction du contexte d'utilisation que la granularité de la qualité de la réponse apportée va être acceptable ou pas.
Alors, le grand défi pour définir des outils pertinents et efficaces réside dans l'hybridation des méthodes, tirant parti à la fois de la rapidité de traitement des approches numériques et de la qualité de réponse des approches symboliques. Les signes d'une convergence des approches sont nombreux, qu'ils proviennent de prises de position d'éminents chercheurs de la thématique ou de groupes industriels majeurs.

La génération

On entend bien ici que les hubots sont capables de percevoir un signal, de le décomposer en morceaux de sons cohérents, d'inférer pour chacun un mot avec toute sa construction interne (genre, nombre, cas...) et que pour un ensemble de mots, ils sont capables de construire des phrases, d'en inférer des représentations du sens et d'interpréter le tout dans un ensemble de connaissances du monde. Et de le faire en temps réel ! Nous venons de voir que cela n'est actuellement pas réaliste. Mais même si tel était le cas, le problème n'en serait pas réglé pour autant.
Si les ambiguïtés existent dans cet enchaînement de représentations vers l'abstraction, que l'on appelle sens de l'analyse, elles existent tout autant dans l'autre sens : d'une représentation abstraite vers sa concrétisation sonore. On appelle cet autre sens celui de la génération. Il est évident qu'on n'attend pas seulement des hubots qu'ils soient capables de comprendre ce qu'on leur raconte, mais qu'ils soient en plus capables de nous transmettre une information. Recommencent alors les difficultés et les ambiguïtés dans les passages d'un mode de représentation à un autre.
Dans une représentation simplifiée des choses, cette présentation suit le principe de la traduction automatique. Dans cet exercice, on part d'un énoncé, un système l'analyse jusqu'à en comprendre le contenu le plus abstraitement possible, puis le décline dans une autre langue. Chacune des langues — la langue de départ (source) et la langue d'arrivée (cible) — est alors vue comme régie par des spécificités. Le passage de l'une vers l'autre se fait alors par un langage pivot, le plus abstrait possible.
Tout utilisateur d'un moteur de traduction automatique a déjà pu constater que ces systèmes sont loin d'être parfaits. Rappelons qu'en 1964 le rapport ALPAC condamnait la traduction automatique sur l'exemple devenu fameux de double traduction anglais-russe-anglais : « the spirit is willing but the flesh is weak » (l'esprit est ardent mais la chair est faible) qui devient « the vodka is strong but the meat is rotten » (la vodka est forte mais la viande est pourrie). Malgré de grandes faiblesses, les systèmes actuels sont d'une qualité très supérieure.
Le problème de l'ambiguïté, abordé précédemment dans le sens de l'analyse, se retrouve complètement dans le sens de la génération. Les différentes possibilités peuvent être vues comme des paraphrases. La question de la génération a été évoquée dans un document sur la génération automatique de textes, où des analyses en langue naturelle à partir de données bancaires sont automatiquement produites. Ce qui apparaît clairement, c'est que la qualité du résultat proposé est très bonne, au sens où ce qui est produit est parfaitement acceptable pour un locuteur natif. Mais la contrepartie pour obtenir cette grande qualité est d'utiliser un domaine très restreint et une diversité linguistique très limitée. Ce qui signifie que les phrases suivent des structures très prototypiques où la coordination, les subordonnées relatives, ou encore les gérondifs sont absents. D'un point de vue qualitatif, seuls les contextes très techniques donnent de bons résultats, ce qui implique que dans un contexte plus littéraire, ces systèmes ne sont pas fonctionnels. Et encore moins dans un contexte réel.

Et demain ?

S'il y a un point sur lequel nous sommes certains de ne pas nous tromper, c'est que la mise en production de machines, ou de robots, capables de communiquer par la langue comme de réels humains n'est pas une chose envisageable à court et moyen terme. Un dernier indice pour confirmer l'intuition... si nous avions de telles machines, eh bien nous aurions la capacité d'analyser et de générer en temps réel, et nous aurions donc des systèmes de traduction de langue à langue de parfaite qualité. Or si certains types d'ambiguïtés peuvent être gérés presque en temps réel, il est actuellement impossible d'envisager que toutes le soient en même temps avec un résultat réaliste.
Et bien sûr, n'oublions pas toutes les autres questions soulevées. Pour faire de nos robots des hubots, il faudrait avant tout qu'ils soient capables de penser par eux-mêmes... Cet aspect a déjà été discuté sur Interstices à partir de l'idée reçue Un cerveau artificiel, c'est pour demain.
Gageons que la science-fiction a encore de beaux jours devant elle, même si la science lui grignote du terrain tous les jours !

Research: 41% increasing IT security budget in 2014

A lire sur: http://www.techproresearch.com/article/research-41-increasing-it-security-budget-in-2014/

Security concerns, budgets, trends and future plans were the focus of a recent Tech Pro Research survey.
Security is always a concern for IT professionals, and media news reports of breaches and leaks, combined with internal threats, have further increased worries.

A recent Tech Pro Research survey focused on IT security. The survey attracted 244 respondents from around the globe and from organizations of all sizes. The resulting report, IT Security: Concerns, budgets, trends and plans, focuses on the key elements from the survey.

In the survey, budgets were a hot subject. Overall, 41 percent of respondents said they will increase their IT security budget next year. This is a 16 percent increase compared to the number of budgets that rose in 2013. In addition, only 13 percent of all respondents said they plan to decrease their security budget next year. 
Screen Shot 2013-11-25 at 2.35.31 PM.jpg

About two-thirds of the respondents said they are more concerned now with security, after media news reports of breaches and leaks. However, only large organizations with more than 1,000 employees are planning to improve IT security controls. Smaller companies are lagging behind in implementation of IT security controls.
Security projects were also discussed, with the top project for 2013 the same as 2014: Development of better risk management processes.

Screen Shot 2013-11-25 at 3.38.39 PM.jpg

One of the top concerns for businesses in 2014 will be Bring Your Own Device (BYOD). Lack of employee awareness in regard to social engineering attacks was the number one concern in 2013 but moved to second place for 2014, with BYOD taking the top slot. BYOD has been such an ongoing topic that Tech Pro Research created a ready-made BYOD policy that companies can download to use as their own policy.

Screen Shot 2013-11-25 at 3.42.48 PM.jpg
The report also addresses the following IT security topics:

- Employee awareness challenges
- Improved risk management leads
- Moving to risk management
- Managing internal threats
- BYOD challenges

AFNOR appelle à rejoindre le groupe contre la fuite d'information

A lire sur: http://www.finyear.com/AFNOR-appelle-a-rejoindre-le-groupe-contre-la-fuite-d-information_a27753.html

L’élaboration du 1er guide AFNOR de bonnes pratiques de lutte contre la fuite d’information, a démarré. L’expertise d’industriels, de spécialistes de la santé, de la finance, de l’assurance... manque encore au groupe de travail. Il est encore temps de le rejoindre.


La prochaine réunion : le 19 décembre
 

Ce guide, dont la première version est attendue en 2014, proposera les meilleures pratiques pour prévenir et gérer la fuite de l’information, ou Data Leak Prevention, en se basant sur des politiques centralisées et une analyse des contenus. 

Pour être mieux armé contre l’insécurité informatique, la cybercriminalité, l’espionnage industriel et la fuite de l’information, il est urgent que chaque organisation adopte un même référentiel, un même langage et des règles communes. C’est le sens de la démarche d’AFNOR en appelant un maximum d’acteurs concernés à s’engager dans un travail de réflexion et d’échange. 

Le groupe de travail en place, composés d’experts, de représentants d’organismes institutionnels et juridiques (ministères, CNIL, avocats, fournisseurs/éditeurs de technologies, cabinets de conseils) ainsi que de sociétés utilisatrices, invite tous les professionnels concernés à apporter leur contribution et à rejoindre le tour de table. 

Pour Bruno Hamon*, Spécialiste des NTIC et président du groupe de travail AFNOR. 

“ Nous avons commencé à travailler depuis plusieurs mois, avec pour objectif de sortir dès 2014 une première version du guide. Pour réaliser un tel travail, nous formons une équipe composée d’avocats, d’éditeurs de logiciels, d’experts en système informatique… mais il nous faut maintenant l’expertise d’industriels, des spécialistes de la santé, de la finance et de l’assurance. Ces métiers sont en première ligne face au risque de voir leurs données sensibles et/ou privées s’éparpiller entre de mauvaises mains. Aujourd’hui la sécurité de l’information s’applique à tous les aspects de la sûreté. C’est pourquoi, les entreprises doivent se préoccuper avant tout du « contenu » plus que du « contenant » en développant des processus afin de prévenir la fuite de l’information en tant que patrimoine informationnel.“ 

Bruno Hamon est spécialiste des NTIC depuis 30 ans, il fonde en 2010 la société MIRCA (www.mirca.fr), cabinet de conseil en sécurité de l’information. Au sein d’AFNOR, il préside entre 2005 et 2011 les groupes de travail sur les PCA (Plan de continuité d’activité) qui élaboreront un « Guide des bonnes pratiques pour la mise en place de PCA ».En 2012, AFNOR le sollicite de nouveau pour animer le groupe de travail œuvrant sur la fuite d’information avec pour objectif de rédiger le premier « Guide des bonnes pratiques en DLP (Data Leak Prevention) ». 

A propos d’AFNOR 
L'association AFNOR et ses filiales constituent un groupe international au service de l'intérêt général et du développement économique. Il conçoit et déploie des solutions fondées sur les normes, sources de progrès et de confiance. Les missions d'intérêt général sont assurées par l'association dans le cadre d'un décret qui lui confère l'animation et la coordination du système français de normalisation, la représentation des intérêts français dans les instances européennes et internationales de normalisation, l'élaboration et la diffusion des normes. Ses filiales - formation, évaluation et certification, réseau international - quant à elles, exercent des activités de marché dans un environnement concurrentiel et en respectent strictement les règles. La direction générale du Groupe est assurée par Olivier Peyrat. Pour en savoir plus : afnor.org


L’automatisation du traitement des commandes : un virage essentiel pour les entreprises

A lire sur: http://www.finyear.com/L-automatisation-du-traitement-des-commandes-un-virage-essentiel-pour-les-entreprises_a27831.html

Christophe Rebecchi, Directeur Général ReadSoft France.



Christophe Rebecchi
Christophe Rebecchi
De nombreuses entreprises s’appuient toujours sur des traitements manuels de documents, ce qui se révèle à la fois fastidieux, coûteux, voire risqué. Ne pas maîtriser le processus de traitement des commandes clients à des impacts stratégiques, business et financiers. Cette donnée stratégique mérite d’être prise en compte et de se poser les bonnes questions pour éviter tout désagrément. 

Nous entendons souvent les mêmes commentaires de la part de nos clients : le processus de saisie et de traitement des bons de commande clients dans SAP est un travail qui prend du temps, qui est coûteux, et qui est source d’erreur. 

Concrètement, trop de personnes s’occupent des commandes entrantes et il n’y a pas de processus standard clair. Ce constat est assez répandu, et ce dans tous les secteurs et quelle que soit l’activité de l’entreprise.