Rencontre régionale des journalistes et professionnels des médias: appel à adapter le système de formation aux mutations numériques    Algérie-Inde: renforcer la coopération dans les domaines de l'énergie et des mines    El Mahdi Oualid: adopter un référentiel national de formations et de compétences pour faciliter le recrutement    CIJ: l'Algérie participe aux audiences sur la demande d'avis relatif aux Obligations de l'entité sioniste concernant les activités des Organisations onusiennes en Palestine    Le drapeau algérien installé au siège du Conseil de paix et de sécurité de l'UA    L'ambassadeur de Zambie auprès de l'Algérie souligne la profondeur des relations bilatérales    Le DG de l'ASBU salue le rôle de l'Algérie dans le soutien à l'action arabe commune    La BNA augmente son capital social de 100%    Goudjil félicite la championne olympique Kaylia Nemour pour son excellente performance à la Coupe du monde de gymnastique au Caire    Hadj 2025 : poursuite des réservations en ligne des chambres d'hôtels à La Mecque    Oran : visite guidée des médias au Centre d'instruction des troupes d'infanterie à Arzew    Constantine commémore le 64e anniversaire de la mort en martyr de Messaoud Boudjeriou    Gymnastique/Coupe du Monde-2025: 2e médaille d'or pour Kaylia Nemour au Caire    Ghaza: le bilan de l'agression génocidaire sioniste s'alourdit à 52.314 martyrs et 117.792 blessés    Santé: rencontre de coordination pour évaluer la performance du secteur    Deuxième session du Baccalauréat des arts: lancement des épreuves pratiques    CHAN 2025/Algérie-Gambie: première séance légère pour les Verts    Colloque scientifique à Alger sur le manuscrit d'Avicenne "Le canon de la médecine"    « Le stress, un facteur de développement d'un certain nombre de troubles mentaux »    Saâdaoui annonce la propulsion de trois nouvelles plate-formes électroniques    Ça se complique au sommet et ça éternue à la base !    Le FC Barcelone arrache la Coupe du Roi face au Real Madrid    Mise au point des actions entreprises    Les renégats du Hirak de la discorde    Quand les abus menacent la paix mondiale    Plus de 116.000 tonnes d'aide en attente    Un site historique illustrant l'ingéniosité du fondateur de l'Etat algérien moderne    Sept produits contenant du porc illégalement certifiés halal    Pour bénéficier des technologies de pointe développées dans le domaine de l'hydrogène vert    Quand les abus menacent la paix mondiale    Quand les constructions inachevées dénaturent le paysage    Le temps des regrets risque de faire encore mal en cette fin de saison    Se présenter aux élections ne se limite pas aux chefs de parti    Un art ancestral transmis à travers les générations    Condoléances du président de la République à la famille de la défunte    Un programme sportif suspendu    La Fifa organise un séminaire à Alger    Khaled Ouennouf intègre le bureau exécutif    L'Algérie et la Somalie demandent la tenue d'une réunion d'urgence du Conseil de sécurité    30 martyrs dans une série de frappes à Shuja'iyya    Lancement imminent d'une plate-forme antifraude    Les grandes ambitions de Sonelgaz    La force et la détermination de l'armée    Tebboune présente ses condoléances    Lutte acharnée contre les narcotrafiquants    La Coquette se refait une beauté    Cheikh Aheddad ou l'insurrection jusqu'à la mort    Un historique qui avait l'Algérie au cœur    







Merci d'avoir signalé!
Cette image sera automatiquement bloquée après qu'elle soit signalée par plusieurs personnes.



Les autoroutes de l'avenir
Gestion de l'information numérique
Publié dans Horizons le 12 - 12 - 2012


L'humanité a produit environ 1,3 milliard de Go de données numériques en 2010, soit plus que la totalité des informations produites par l'Homme entre la préhistoire et 2003. Le géant américain IBM met en garde les entreprises contre ce déluge informationnel en invoquant une nouvelle « loi » de l'informatique : « plus la puissance de calcul des ordinateurs progresse et plus les entreprises deviennent bêtes ». « Chaque minute de chaque journée, explique Patrick Cason, Directeur Commercial et Marketing chez Easynet France sur le site www.distributique.com, nous générons des montagnes de données. En 60 secondes, nous envoyons plus de 204 millions d'emails et plus de 100.000 tweets et nous téléchargeons 47.000 applications. Nos réseaux d'entreprise et ceux de nos clients supportent des centaines d'applications qui utilisent et créent d'importantes sommes de données chaque jour : applications vidéo, suites d'applications métier, logiciels collaboratifs, CRM, ERP, applications Cloud en SaaS - la liste est longue ». Il fait référence, pour 2012, aux résultats d'une enquête menée auprès d'un groupe de clients, dont 90 % d'interrogés ont indiqué que l'explosion du volume des données serait l'un des principaux challenges pour leur entreprise cette année. Et ce n'est pas difficile de comprendre pourquoi, ajout-t-il « Les données sont, littéralement, une énorme problématique ». Le cabinet d'études IDC estime, de son côté, « qu'un milliard d'appareils connectés seront mis en service d'ici la fin 2012, et cela va doubler d'ici 2016. Ces appareils vont partager des sommes phénoménales de données inestimables pour les agences marketing, les revendeurs, les institutions gouvernementales, les professionnels de la santé, la liste est sans fin, tout comme le nombre de données comportementales et de localisation que nous produisons. » L'explosion du volume des données informatiques, du fait du développement de l'Internet et des nouvelles technologies de l'information, a ouvert de nouveaux horizons, notamment aux entreprises. Certaines utilisent déjà une partie de ces données pour prédire le comportement des consommateurs et améliorer leur offre de produits et services. C'est le cas, par exemple de Google, Facebook, Amazon, Microsoft, Walmart et LinkedIn, qui ont investi dans l'analyse de données informatiques ces dernières années. Quand elles ne mènent pas elles-mêmes ces analyses en interne, les entreprises peuvent les sous-traiter à des sociétés spécialisées, qui fleurissent aujourd'hui dans le monde entier. En 2011, tous les grands acteurs se sont positionnés. IBM, Oracle et Microsoft proposent des offres. IBM cible plutôt les grandes entreprises ayant déployé un cloud privé, même si son offre Cognos Consumer Insight peut être proposée en mode SaaS. De son côté, Teradata a racheté le spécialiste Aster Data et propose de déployer un cluster dans une ferme de machines classiques. Microsoft a lancé une offre packagée sur Windows Azure, tandis qu'Oracle fait de même sur le cloud Amazon AWS, tout en proposant un logiciel. Quant à SAS, son offre High Performance Analytics est déclinée sous forme de logiciel et d'un service cloud. Ce « marché du Big Data », qui a émergé autour de l'exploitation de la masse de données informatiques disponibles est estimé à 28 milliards de dollars par le cabinet Gartner pour 2012, et 36 milliards pour 2013. Dans son étude « Big Data Drives Rapid Changes in Infrastructure and $232 Billion in IT Spending Through 2016 », le cabinet d'analyses Gartner a estimé que les dépenses informatiques liées au Big Data devraient atteindre les 232 milliards de dollars entre 2011 et 2016. Ces dépenses ne prennent pas en compte l'infrastructure matérielle. Elles sont donc réparties entre les services, le logiciel et l'analytique des réseaux sociaux. Les experts rappellent toutefois qu'il n'existe pas de solution proprement dite « Big Data » mais une combinaison d'outils nécessaires pour traiter une volumétrie galopante de données. Point de vue confirmé par l'analyste du cabinet Gartner, Roxane Edjali, qui précise que les principaux marchés impactés par le Big Data sont ceux du logiciel et du stockage. De fait, le traitement de données en masse suppose avant tout des réseaux rapides et dimensionnés en conséquence, de grandes capacités de stockage avec des supports performants (type mémoire Flash) ou encore des bases adaptées à l'analyse et bien entendu des outils pour exploiter les données, issues principalement du domaine décisionnel. En d'autres termes, le marché du Big Data se résume à « une conjonction d'événements » et ne devrait pas « donner lieu à un marché en tant que tel » selon Roxane Edjali. C'est de toute façon un business en pleine expansion du fait de l'augmentation des flux de données, et surtout parce que leur analyse, quand elle est bien menée, permet aux entreprises d'améliorer leur performance. Deux chercheurs du Massachusetts Institute of Technology (SloanBusiness School), Erik Brynjolfsson et Heekyung Kim, en partenariat avec Lorin Hitt, chercheur à l'université de Pennsylvanie (Wharton Business School), ont effectué une intéressante étude sur la question, menée auprès de 179 entreprises cotées. Au final ils parviennent à démontrer que les organisations qui s'appuient sur l'analyse des données pour développer leur stratégie augmentent leurs niveaux de productivité de 5 à 6 %. Une approche intelligente de l'information leur permet d'augmenter leur chiffre d'affaires en ajustant leur offre aux attentes de leurs clients potentiels, et de réduire leurs coûts. La capacité d'analyse de données informatiques serait donc devenue la source d'un avantage compétitif. Pour avoir un tel avantage, encore faut-il que les entreprises soient capables non seulement de collecter et de stocker les informations pertinentes à leurs activités, mais aussi de les trier et de les analyser. Il leur faut donc s'équiper de nouveaux logiciels qui permettent une telle analyse, et recruter des experts capables de créer et de gérer ces bases de données. Le rôle de ces professionnels est de sélectionner les données les plus intéressantes pour leur organisation, de les intégrer et de développer des modèles d'analyse susceptibles d'aider au mieux les cadres dirigeants dans les prises de décisions stratégiques. Traiter et analyser de la volumétrie suppose en effet un véritable savoir-faire, démocratisé en partie ces dernières années par la Business Intelligence. « La Business Intelligence classique part de la stratégie de l'entreprise et allume des voyants correspondant aux objectifs », résume Romain Chaumais cofondateur d'Ysance, société spécialisée dans le business informatique. A l'inverse, le Big Analytics dégage une logique dans un océan de données bien trop nombreuses pour qu'un humain puisse les analyser. « Le datamining automatisait déjà cette analyse mais avec des échantillons représentatifs. Le Big Data attaque les données dans leur totalité, ce qui permet d'identifier la moindre anomalie, détaille Romain Chaumais. L'informatique décisionnelle (en anglais : BI pour Business Intelligence) désigne, peut-on lire sur le site Wikipedia « les moyens, les outils et les méthodes qui permettent de collecter, consolider, modéliser et restituer les données, matérielles ou immatérielles, d'une entreprise en vue d'offrir une aide à la décision et de permettre à un décideur d'avoir une vue d'ensemble de l'activité traitée. Ce type d'application utilise en règle générale un entrepôt de données (ou datawarehouse en anglais) pour stocker des données transverses provenant de plusieurs sources hétérogènes ». Mais, ces compétences sont rares et beaucoup de projets décisionnels échouent encore en raison d'une mauvaise analyse conduisant à une modélisation des données inadaptée aux besoins. Conséquence : des délais de réponse trop longs quand l'infrastructure ne permet simplement pas d'obtenir les réponses aux questions que l'on se pose. Et, de fait, si la conjoncture actuelle pousse les entreprises à gérer de plus en plus de données, leur problématique à venir va moins porter sur les outils – ils existent et il suffit de les combiner – que sur les hommes capables de concevoir les bonnes infrastructures, plus communément appelés « data scientists » par la société de solutions informatiques EMC. Et ce, afin que le phénomène Big Data ne se résume pas à engranger plus de données inutilement. Si l'exploitation efficace et raisonnée des données informatiques est un défi technique et managérial pour les entreprises, il en va de même pour les autorités publiques. Ces dernières, en plus de devoir apprendre à exploiter la masse de données disponibles pour améliorer les services publics et mieux maîtriser les dépenses, doivent assurer la protection des données personnelles. Ce qui semble déjà poser problème avec certains géants du net très intéressé par le profilage des internautes.

Cliquez ici pour lire l'article depuis sa source.