lundi 6 janvier 2020

Constellation Starlink, entre humanité et hégémonie

Fondée en 2002, la société Space X d’Elon Musk lance des satellites dans l’espace pour étendre le réseau Internet au monde et combattre la « fracture numérique » en créant une constellation artificielle nommée Starlink.


Internet mondial
D’après les données de la banque mondiale [1], le pourcentage d’utilisateurs d’internet est passé de 0 à 50% de la population mondiale en près de 30 ans. Aujourd’hui, utilisé par plus de la moitié de la population mondiale (près de 4 milliards de personnes), Internet s’est transformé en un outil indispensable de notre quotidien.

Actuellement, les réseaux mobiles 4G et 5G, l’ADSL, la fibre optique et Internet par satellite sont constamment déployés pour apporter le haut débit dans les zones dites « blanches » non couvertes ou « grises » à faible couverture [2]. D'ici 2022, le « Plan France Très Haut Débit » prévoit d’équiper tout le territoire.

Photo de l'Agence Spatiale Européenne
La course à l'espace
Elon Musk (patron de Space X et visionnaire) y perçoit un intérêt et part à la conquête de l’autre moitié de la population avec son projet de constellation Starlink qui permettrait d’offrir une couverture mondiale d’Internet. Pour accomplir sa mission, l’agence aérospatiale doit réaliser près de 200 lancements afin de positionner 12 000 satellites artificiels en orbite terrestre basse (OTB) [3] avant 2024. Les satellites Starlink sont à une distance de 550 km de la Terre permettant de réduire ainsi le temps de latence. 120 satellites sont déjà en orbite et une nouvelle vague sera lancée début 2020.

La course à l’Internet depuis l’espace a d’ores et déjà commencée avec la société française Arianespace en février 2019 pour 650 satellites mis en orbite par la start-up OneWeb. Le projet Kuiper du géant Amazon vient s’y greffer aspirant positionner 3250 satellites à son tour. Une ambition à la fois humaniste et hégémonique car pour Monsieur Musk, «l’objectif à court terme est de s’approprier 3 à 5% du marché mondial de l’internet, soit environ 30 milliards d’euros.» [3], pour un investissement de 10 milliards.

Pollution spatiale

Le projet Starlink a fait parler de lui récemment lorsque des points lumineux sont apparus dans le ciel du Var, la nuit du 24 au 25 décembre. [4] Il s’agit en effet des satellites de Space X. Dès lors, le projet Starlink complexifiant l’observation de multiples phénomènes astronomiques par télescope, Elon Musk est «accusé» de «pollution visuelle».

D’autres types de pollutions sont à observer comme la pollution de l’espace par exemple liée au danger que représente la collision des débris (sur 7500 satellites placés en orbite seul 1200 sont opérationnels) et qui encourage l’Agence Spatiale Européenne (ESA) à réaliser des missions de nettoyage [5]; le rayonnement non-désiré des satellites (risques sanitaires liés aux ondes radiofréquences) [6] peut également poser des barrières au projet même s’ils ne sont pas démontrées par manque d’analyses détaillées; le relais entre satellites et le réseau internet s’établit par «station terrienne» (Space X en envisage l’installation d’1 million).

La sombre liste des risques potentiellement connus ci-dessus, et de manière générale les projets d’Internet à l’échelle astronomique infèrent que certaines controverses voient le jour. L’écologie spatiale pourrait bien être au cœur de nos préoccupations dans les années à venir, au même titre que notre quête actuelle pour la préservation de l’environnement. Cela soulève la question de l’impact écologique spatiale.

Le projet Starlink est-il seulement spéculatif et hégémonique ?

L’Internet accessible à tous perpétuerait la motivation humaine et intemporelle de diffuser l’information et la connaissance. Même si l’humain a toujours été porté par sa capacité d’adaptation, pourrait-on se passer aujourd’hui d’Internet devenu pour certain une «cyberaddiction » qui par extrapolation pourrait porter son usage au premier niveau de la pyramide de Maslow ? La problématique de l'utilisation d’Internet par ailleurs est bien réel (illectronisme, informatisation) mais la solution de l’Internet mondial y répond-elle à elle seule ?

Sources :
[1] Union internationale des télécommunications, Rapport et Base de données sur le développement des télécommunications/TIC dans le monde. Consulté le 28 décembre sur https://donnees.banquemondiale.org/indicateur/IT.NET.USER.ZS

[2] Agence nationale de la cohésion des territoires. Couverture numérique «Le déploiement de l’Internet fixe et mobile s’accélère». Publié le 18 octobre 2019. Consulté le 28 décembre 2019 sur https://www.cget.gouv.fr/actualites/le-deploiement-de-l-internet-fixe-et-mobile-s-accelere

[3] Pierre Thouverez. Technique de l’ingénieur, Informatique et Numérique, «Starlink : un accès internet par satellite accessible partout dès 2020 ?». Publié le le 16 décembre 2019. Consulté le 28 décembre sur https://www.techniques-ingenieur.fr/actualite/articles/satellites-spacex-starlink-musk-innovation-internet-73601/

[4] Aéronautique & défense, «Quand les satellites d'Elon Musk illuminent le ciel du Var». Publié par Les Echos le 28 décembre 2019. Consulté le 28 décembre 2019 sur https://www.lesechos.fr/industrie-services/air-defense/quand-les-satellites-delon-musk-illuminent-le-ciel-du-var-1159288

[5] Anne Bauer. Aéronautique & défense, «L'Europe lance sa première mission de nettoyage de l'espace». Publié le 10 décembre 2019 par Les Echos. Consulté le 28 décembre 2019 sur https://www.lesechos.fr/industrie-services/air-defense/leurope-lance-sa-premiere-mission-de-nettoyage-de-lespace-1155064

[6] Le déploiement de la 5G, «Les fréquences», onde et santé. Consulté le 28 décembre sur https://reseaux.orange.fr/5g-deploiement

samedi 21 décembre 2019

NASA, Google, Blockchain, et "Suprématie Quantique": des coups d'épingles dans la bulle des crypto-monnaies.

Le 20 septembre dernier, la NASA annonça que Google avait réussi la prouesse de construire un processeur quantique de 53 qubits, le Sycamore, capable de résoudre en approximativement 200 secondes une équation qui aurait pris dix mille ans à être résolue par le plus puissants supercalculateurs de la planète, le summit d'IBM (1). Si la nouvelle fut rapidement retirée du site de l'Agence Spatiale, elle fut loin de passer inaperçue.

D'une part, IBM n'a pas tardé à tempérer la nouvelle: son propre supercalculateur serait capable de résoudre la même équation en deux jours et demi, et non pas en dix mille ans. Étant en passe de surpasser l'exploit de l'ordinateur de Google, il serait loin d'être définitivement hors jeu. De plus, l'ordinateur de Google ne serait bon qu'à effectuer certaines tâches restreintes. D'autre part, et dans un tout autre univers, certains blogs spécialisés (2) ou analystes défenseurs des crypto-monnaies (3) ne manquèrent pas de publier des communiqués rassurants quant à l'avenir de la blockchain

Car en effet celle-ci repose sur un système de cryptage algorithmique garantissant l'anonymat des transactions faites – entre autres – avec le bitcoin et la non falsification des unités crypto-monnétaires. La  suprématie quantique arrivera au moment ou un ordinateur quantique dépassera le plus puissant ordinateur classique, assurant à son possesseur une puissance de calcul telle que cela pourrait théoriquement menacer ces deux principes de base de toutes cripto-monnaies. De plus, cela mettrait à mal le principe du minage, qui nécessite une très grande puissance de calcul pour produire une nouvelle unité, et en limite ainsi la quantité émise sur le marché. Cette rareté, cette sécurité et cet anonymat, plaçant l'utilisateur hors d'atteinte des États et de tout contrôle, fait le succès des crypto-monnaies auprès des spéculateurs.

Comme chacun sait, au sein d'un marché la spéculation est fruit de la confiance collective sur la promesse des gains futurs. Lorsque la confiance est perdue, la bulle éclate. Aussi la fin du succès des crypto-monnaies ne sera peut-être pas due à l'hégémonie technologique de la firme de Moutain View ou de celle d'IBM, ni d'autres d'ailleurs, mais bien de la perte de confiance des acteurs du marché. Sycamore, ordinateurs quantiques et "suprématie", une tempête dans un verre d'eau? Voyons cela de plus près en changeant de perspective et en observant tout d'abord l'effet de ces annonces sur les recherches des internautes américains sur Google en 2019 :

Pour la recherche "quantum supremacy" (4) :
Deux pics de recherches apparaissent, du 22 au 28 septembre (43 points), et du 20 au 26 octobre (100 points).

Pour la recherche "quantum computer" (5) :
On relèvera trois pics de recherches: du 30 juin au 6 juillet (39 points)(6), du 22 au 28 septembre (40 points et du 20 au 26 octobre (100 points), la confirmation de la nouvelle par Google date du 23 octobre.

Regardons à présent les statistiques de l’occurrence "cryptocurrency" (7) :
On notera là aussi trois pics de recherches: le premier du 16 au 22 juin (100 points) correspond à l'annonce de Facebook sur le projet de la Libra, un du 22 au 28 septembre (39 points) et un du 20 au 26 octobre (38 points). Cette synchronicité parfaite serait-elle le fruit du hasard ?

Pour le découvrir, observons ce graphique d'une plateforme d'échange reflétant l'évolution du cours de la paire bitcoin/euro sur l'année 2019 (8).
Si le bitcoin accuse une baisse importante lors de la première annonce de la NASA; passant de 9241 euros le 20 septembre à 7381 le 26 septembre, à contrario il remonte de manière significative lors de la confirmation de la nouvelle par Google, passant de 6700 à 9100 du 24 au 26 octobre, puis perd régulièrement sa valeur jusqu'à aujourd'hui, le 21 décembre 2019, à 6500 euros.

La très curieuse remontée d'octobre s'explique probablement par la teneur des déclarations de Google. La firme affirme en effet dans l'article de Nature du 23 octobre que son processeur quantique n'est pas capable de résoudre les algorithmes de Shor (9). Or, c'est à partir de cet algorithme qu'il serait possible de décrypter la blockchain le plus efficacement (10). Une confirmation donc, mais qui infirme les craintes du marché.

Pourtant, entre septembre et décembre, le bitcoin, dont les mouvements reflètent ceux des principales crypto-monnaies, a vu sa valeur diminuer d'environ 3300 euros entre 26 octobre et le 18 décembre (5800 euros) soit plus du tiers de sa valeur. Pire, après avoir atteint sont plus haut niveau fin juin 2019 (11300 euros) depuis son record de 2017 (15800 euros), il n'a eu de cesse de perdre de la valeur. Nous laisserons au lecteur le soin conclure sur la nature de la relation entre la dévaluation du bitcoin et les découvertes de Google. L'avenir nous dira si cette baisse est une tendance de fond ou si elle se limite à des effets d'annonces clairement perceptibles.

Sources:

1: Saadli Hicham, La volonté de suprématie quantique : nouvelle confrontation des puissances dans le monde immatériel, https://infoguerre.fr/2019/11/20137/ , 20 novembre 2019, consulté le 20 décembre 2019.

2: Banner Hellmouth, 2019, Google va t-il « tuer Bitcoin » avec la suprématie quantique ?, https://journalducoin.com/bitcoin/google-va-t-il-tuer-bitcoin-avec-la-suprematie-quantique/ , 28 septembre 2019, consulté le 21 décembre 2019. Les articles de ce type sont légions sur le net.

3: Bonelli Frédéric, 2019, Pourquoi l’ordinateur quantique ne va pas tuer les crypto-monnaies, https://www.forbes.fr/finance/pourquoi-lordinateur-quantique-ne-va-pas-tuer-les-crypto-monnaies/, 6 novembre 2019, consulté le 21 décembre 2019.

4: Quantum supremacy - Découvrir - Google Trends, https://trends.google.com/trends/explore?geo=US&q=quantum%20supremacy, consulté le 21 décembre 2019.

5: Quantum computer -Découvrir - Google Trends, https://trends.google.com/trends/explore?geo=US&q=quantum%20computer, consulté le 21 décembre 2019.

6: On notera la proximité entre ce pic de recherche et la réception de l'article de Google par le comité de lecture de la revue Nature, le 22 juillet. Encore une corrélation? Voir les données en fin d'article du site de Nature de l'article de Google: Arute Frank, Arya Kunal, et all., 2019, « Quantum supremacy using a programmable superconducting processor », Nature, octobre 2019, vol. 574, no 7779, p. 505‑510,disponible en ligne: https://www.nature.com/articles/s41586-019-1666-5, consulté le 21 décembre 2019.

7: Cryptocurrency -Découvrir - Google Trends, https://trends.google.com/trends/explore?q=cryptocurrency&geo=US, consulté le 21 décembre 2019.

8: bitstamp, BTC EUR – Graphique de prix Bitcoin Euro, https://fr.tradingview.com/symbols/BTCEUR/, consulté le 21 décembre 2019.

9: "However, realizing the full promise of quantum computing (using Shor’s algorithm for factoring, for example) still requires technical leaps to engineer fault-tolerant logical qubits". Voir: Arute Frank, Arya Kunal, opus cité.

10: Henri Reich, How Quantum Computers Break Encryption | Shor’s Algorithm Explained - YouTube, Minutephysics, https://www.youtube.com/watch?v=lvTqbM5Dq4Q, consulté le 20 décembre 2019.

jeudi 19 décembre 2019

Ecologie numérique : les data, une consommation énergétique

Le magazine Archimag a mené une étude sur la consommation d'énergie par les data. Il note que les activités sur internet consomme de plus en plus d'électricité et que les données que nous produisons par des data centers sont particulièrement énergivores. "A l'échelle européenne, un code de bonne conduite incite les professionnels à mieux dimensionner leurs centres de données." [1] 


Internet consomme beaucoup d’électricité. En effet, les données que nous créons et nous transmettons consomme de l'énergie et contribuent largement à la dégradation de notre écosystème. Selon l'organisation non gouvernementale Greenpeace  : "Si internet était un pays, il serait classé dans le top cinq des plus gros consommateurs mondiaux d'électricité." Selon d'autres associations, "internet pourrait même se hisser à la troisième place des puissances énergivores avec 1500 TWH par an, derrière la Chine et les Etas-Unis." [2]
Archimag a cité l'exemple de la vidéo de la chanson coréenne Gagnam style visionnée 3,4 de fois sur YouTube qui a généré une demande d'électricité équivalente à la consommation annuelle d'une petite centrale. Il faut noter également que à l'heure du triomphe de Netflix et des autres plateformes de visionnage en ligne, notre consommation d'électricité n'est pas près de baisser. 
Aussi, les courriels que nous envoyons chaque jours enrichis de pièces jointes volumineuses et des data centers qui hébergent toutes ces données... "En matière d'émission de CO2, internet pollue 1,5 fois plus que le transport aérien. La moitié des gaz à effet de serre produits par internet provient de l'utilisateur, l'autre moitié étant divisée entre le réseau et les data centers", explique le site Fournisseur Energie.   
Pour résoudre le problème, en France, le groupe de travail EcoInfo du CNRS propose une série de recommandations à l'usage des entreprises, mais aussi en direction des particuliers. [3] Un "guide des bonnes pratiques pour le code de conduite européen sur les datacentres" fait appel à la "sobriété numérique". Il prône notamment "d'adapter les niveaux de redondance aux besoins réels des entreprises plutôt que de surdimensionner les centres de données" [4]
Cependant, le refroidissement des centres de données, quant à lui, est traditionnellement assuré par des pompes à chaleur. Cela engendre l'énorme inconvénient de consommer beaucoup d'énergie pour produire de l'air froid. Un système alternatif est envisagé par le code de conduite européen : le "free cooling" ou rafraîchissement gratuit. Le "free cooling" est en mesure de générer du froid sans recourir aux pompes à chaleur. "Il s'agit d'un procédé qui utilise la différence de température entre l'air en sortie des ordinateurs et la température de l'air extérieur afin d'aider au système de refroidissement à eau." [5] 
En effet, ce type de refroidissement est de plus en plus adopté par des entreprises, des institutions et des organisations. Archimag a cité le cas de l'université de Strasbourg qui a reconstruit son centre de calcul autour d'une solution de "free cooling indirect à air" et aussi le cas de l'université de Grenoble dont le supercalculateur Froggy est refroidi avec de l'eau tiède. Selon Archimag, ce système est très satisfaisant. "La machine est relativement stable et la redondance des chassis hydrauliques des baies fonctionne bien", expliquent les porteurs du projet.   
Sources:
[1] Bruno Texier, Ecologie numérique: les data, une gouffre énergétique à combler, 20/11/2019 https://www.archimag.com/demat-cloud/2019/11/20/ecologie-numerique-data-gouffre-energetique-combler consulté le 13/12/2019. 
[2] Ibid.
[3] ecoinfo.cnrs.fr 
[4]  Bruno Texier, Ecologie numérique: les data, une gouffre énergétique à combler, opcit. 
[5] Ibid. 

mercredi 18 décembre 2019

Un guide pratique sur l'ouverture des données publiques culturelles

Le Ministère de la Culture a publié en juillet 2019 un guide pratique sur l’ouverture des données publiques culturelles. L’objectif de ce guide est d’accompagner et d’accélérer la mise en œuvre des démarches d’ouverture des données publiques dans le domaine culturel en respectant les contraintes posées par le droit de la propriété intellectuelle et la protection des données personnelles. [1]

Depuis la loi pour une République numérique de 2016, les administrations et les établissements publics chargés d’une mission de service public ont l’obligation d’ouvrir leurs données (open data), les rendant ainsi librement accessibles et réutilisables dans la limite du droit d’auteur et de la protection des données personnelles.  Le ministère de la Culture s’investit depuis 1996 dans la numérisation des contenus culturels pour les rendre accessibles au plus grand nombre. Afin d’accélérer cette démarche, il a engagé un plan d’ouverture, de communicabilité et de diffusion des données culturelles numériques pour la période 2019-2022. [2]

Dans cette optique, ce guide pratique de 32 pages accompagne les services du Ministère de la Culture et les établissements publics culturels dans la mise en œuvre de leur démarche d’open data. L’intérêt de ce guide est double : d’une part, il clarifie le cadre légal de l’open data culturel (respect de la propriété intellectuelle ; protection des données personnelles) et, d’autre part, il propose une méthode concrète pour organiser cette démarche d’ouverture des données (Sélectionner les données ; préparer les données ; diffuser et valoriser les données). Des fiches thématiques sont proposées en annexes et abordent notamment des aspects techniques ou réglementaires (Comment produire un fichier CSV ? Quels sont les licences ouvertes homologuées par l’Etat ?). [3]

Les indications pratiques de ce guide ont pour but d’enrichir la plate-forme data.culture.gouv.fr. Mise en ligne en décembre 2016, celle-ci offre à l’internaute la possibilité de visualiser les ressources culturelles numériques du ministère par le biais de divers outils tels que des cartographies ou des graphiques. Les données présentées concernent l’activité des institutions culturelles, les aspects économiques du secteur, des ressources iconographiques ou des événements culturels. A titre d’information, le jeu de données le plus consulté sur le site est la liste et la localisation des immeubles protégés au titre des Monuments historiques (plus de 28 000 téléchargements à ce jour). Les publics visés, chercheurs, journalistes mais aussi entreprises et développeurs, ont la possibilité de consulter et de réutiliser les données qui sont en licence ouverte. [4]

Les perspectives et les bénéfices de l’ouverture des données culturelles s’avèrent multiples : poursuivre la démocratisation de la culture, accroître la visibilité et la notoriété des institutions culturelles, faciliter les travaux de recherche, ouvrir des ressources à de nouveaux publics. Il ne faut pourtant pas omettre d’indiquer les difficultés susceptibles de freiner ces démarches telles que la longueur et le coût des campagnes de numérisation ou les difficultés posées par le droit d’auteur, notamment en ce qui concerne les collections d’art contemporain.

Sources : 

[1] Ministère de la Culture. Open data : un guide pratique dédié aux données publiques culturelles. culture.gouv.fr [en ligne]. [Consulté le 18 décembre 2019]. Disponible à l’adresse : < https://www.culture.gouv.fr/Sites-thematiques/Innovation-numerique/Donnees-publiques/Open-data-un-guide-pratique-dedie-aux-donnees-publiques-culturelles >

[2] Ministère de la Culture. Programme national de Numérisation et de Valorisation des contenus culturels (PNV). culture.gouv.fr [en ligne]. [Consulté le 18 décembre 2019]. Disponible à l’adresse : < https://www.culture.gouv.fr/Sites-thematiques/Innovation-numerique/Programme-national-de-Numerisation-et-de-Valorisation-des-contenus-culturels-PNV2 >

[3] Portaildoc – Le portail documentaire de l’INTD. Ministère de la Culture/Ouverture des données publiques culturelles : guide pratique. In « La littérature grise, une sélection du CREPAC », n°20, 21/11//2019. portaildoc-intd.cnam.fr [en ligne]. [Consulté le 18 décembre 2019]. Disponible à l’adresse : < https://portaildoc-intd.cnam.fr/KP_visio.htm?prd=19215463124910336459&record=19215947124910331299&M_Token=470027477539470030482537469031441013436033436047485774433670&key=KPKP0_5_191121 >

[4] data.culture.gouv.fr – La plate-forme de données ouvertes du ministère de la Culture. culture-communication.gouv.fr [en ligne]. [Consulté le 18 décembre 2019]. Disponible à l’adresse : https://data.culturecommunication.gouv.fr/pages/home/

lundi 16 décembre 2019

Open Source Summit 2019 : l’open source au service de la gestion documentaire


https://www.opensourcesummit.paris


La tenue, au mois de décembre, du Paris Open Source Summit a mis en lumière les bons chiffres du marché du logiciel libre dans le monde et en particulier en France. Séduisant un nombre croissant d’entreprises, les solutions open source offrent de nombreux avantages en matière d’innovation, de performance et d'agilité. Les professionnels de l’information-documentaire, pivots de la transition digitale, seront donc à l’avenir amenés à utiliser de plus en plus fréquemment ces outils.


Le marché du logiciel libre en forte croissance

Les chiffres de l’open source invitent à l’optimisme : une croissance prévisionnelle de presque 9% par an, un chiffre d’affaire mondial de plus de 30 milliards de dollars en 2023 dont 7,5 milliards en France (+8,8%), où le logiciel libre représente plus de 10% du marché global de l’informatique. L’Hexagone confirme ainsi sa place de leader européen du marché de l’open source devant l’Allemagne (+8,2%) et la Grande-Bretagne (+7,6%).[1]

Dans un contexte de transformation digitale le recours à l’open source se fait de plus en plus facilement. Une majorité d'entreprises estime qu’elle jouera un rôle très important dans leur transition [1]. Elles suivent ainsi les recommandations du CIGREF qui invitait, dans un rapport publié en décembre 2018, à "franchir le pas de l’open source", le logiciel libre conférant aux entreprises des "avantages stratégiques ainsi que des leviers d’action sur leur compétitivité" [2]. 

OSS 2019 

C’est donc dans une ambiance dynamique et enthousiaste que s’est tenue aux Docks de Paris, les 10 et 11 décembre, la 5ème édition de l’Open Source Summit organisée par le pôle de compétitivité Systematic Paris-Region et le CNLL (Union des entreprises du logiciel libre et du numérique ouvert). Avec 150 exposants, une dizaine d’évènements associés et plus de 400 conférences organisées, l’OSS se présente comme le premier salon européen sur l’open source. Huit thématiques avaient été retenues cette année : Artificial intelligence, Cloud, DevOps, Infrastructure, Embedded & IoT, Data management & Blockchain, Security, Development & emerging languages, Business Apps, Web, E-commerce & Mobile, Gouvernance, proposant ainsi un très large panorama des solutions offertes par l’open source [3]. 

Des outils innovants pour la gestion documentaire

La partie "business app" intéressait au premier chef les professionnels de l’info-doc, acteurs essentiels de la digitalisation des entreprises. En effet, tous les domaines de l’ingénierie documentaire sont désormais concernés par la multiplication des solutions open source : recherche d’informations, GED, cartographie, knowledge management, pratiques collaboratives, datavisualisation, archivage.

Ainsi, de nombreux outils ont été présentés au salon, notamment au cours de conférences dédiées : "VITAM, un système d'archivage pour les grandes volumétries", "Comment ONLYOFFICE aide à organiser les travaux de recherches à l’Institut de Biologie de Lille", "Stratégies de combat pour tester les documents", "Customer Content Management: GED et CRM combinés", «Construire et développer des tableaux de bord pour réseaux sociaux", "Faciliter l'édition collaborative de documents volumineux avec XWiki", "Réussir (ou pas) son projet de moteur de recherche d'entreprise", ou encore "OlaPy, un outil pour l'analyse de données métier" [4].

Le data mining à l’honneur

Le prix du meilleur projet open source, décerné par le CNLL, a été remis à l’ICIJ (International Consortium of Investigative Journalists), à l’origine des Panama Papers, pour le logiciel Datashare
Utilisable par tous les professionnels de l’information, ce dernier permet l’extraction et l’indexation de documents dans de grands volumes de données, favorise la collaboration entre les utilisateurs par le partage et l’enrichissement mutuels des documents et surtout garantit la confidentialité et l’indépendance face aux acteurs dominants du web [5]. 

Alors que le comportement hégémonique des grands éditeurs de logiciels commence à être remis en cause, les entreprises s’équipent de plus en plus d’outils open source. Les professionnels de la gestion documentaire auront donc tout intérêt à suivre l’actualité de ce secteur avec attention. 
Rendez-vous à l’édition 2020 de l’Open Source Summit !


Sources :

[1] - Pour les données statistiques on consultera les deux rapports suivants : "Open source, a dynamic market fuel by digital transformation and innovation", réalisé par Teknowlogy Group pour le CNLL, Syntec Numérique et Systematic, 2019. Consultable sur le site du CNLL (https://cnll.fr/publications) et DigitalOcean, "Currents, Open Source 2019", 12/2019 (https://digitalocean.com/currents/december-2019/). [Consultés le 14/12/2019]

[2] - CIGREF, "L'Open source, une alternative aux grands fournisseurs", 12/2018. 
https://www.cigref.fr/wp/wp-content/uploads/2018/12/Cigref-Open-source-Alternative-Grands-Fournisseurs-franchir-pas-open-source-Decembre-2018.pdf 
[Consulté le 14/12/2019]

[3] - Open Source Summit, Thématiques 2019.
[Consulté le 14/12/2019]

[4] - Toutes les conférences de l'OSS 2019 sont à retrouver en vidéo sur la chaîne Youtube de l'évènement. 
https://www.youtube.com/user/OpenWorldForum
[Consulté le 14/12/19]

[5] - Will Fitzgibbon, "Datashare: Help test and improve our latest journalism tool", 5/02/2019


Data centers : vers une production plus verte ?

L'entreprise Hewlett Packard Enterprise (HPE) et le National Renewable Energy Laboratory (NREL, le laboratoire national américain sur les énergies renouvelables) se sont associés pour réfléchir et mettre au point des technologies permettant d'améliorer l'efficacité énergétique des data centers. Basé sur l'intelligence artificielle et le machine learning, le projet nommé AI Ops R&D est prévu pour trois ans [3].

Il n'est plus d'usage de n'envisager Internet et le numérique que comme faisant partie d'un monde virtuel. Les ordinateurs, les smartphones, les data centers sont autant d'ancrages physiques qui rappellent que pour chaque donnée traitée, diffusée ou partagée, il y a un support auquel elle est intrinsèquement attachée. Heureusement, le monde des nouvelles technologies n'échappe pas à cet élan écologique qui bouleverse les consciences individuelles, collectives et entrepreneuriales.

Des data centers énergivores.

Rappelons brièvement qu'un data center (ou centre de données), est une infrastructure composée de réseaux d'ordinateurs, de serveurs informatiques et d'espaces de stockage qui permettent l'hébergement ainsi que le traitement de quantités colossales de données informatiques. A l'heure actuelle, le numérique représente 10% de la production électrique mondiale, les data centers en accaparent 18% selon l'association négaWatt [4]. Françoise Berthoud -- informaticienne au Gricad et fondatrice d'EcoInfo -- assure que les nouvelles technologies représentent 4% de nos émissions de gaz à effet de serre, et avec une augmentation de 5 à 7% tous les ans [1].

L'effet Big Data de ces dernières années a donc un impact écologique désastreux : la multiplication exponentielle des données informatiques, renforcée par l'essor du cloud, demande des data centers de plus en plus énergivores. Non seulement parce qu'il y a la nécessité d'avoir une alimentation en électricité intense et continue, mais surtout parce qu'il faut pallier l'effet joule (soit la chaleur thermique produite par un courant électrique) via la climatisation pour préserver l'intégrité des circuits électroniques.

Envisager un data center plus efficient et écologique.

S'emparant de ce sujet sensible, les grandes entreprises (comme les GAFA) se tournent vers les Greens data centers. En utilisant des matériaux de construction à faible émission, ou des convertisseurs catalytiques par exemple. Ou bien encore comme Apple et Facebook, en maximisant le free cooling, soit le refroidissement naturel grâce à l'air extérieur, en délocalisant les centres dans les pays nordiques (Suède notamment). Microsoft a quant à lui immergé son Natick dans les eaux de l'Ecosse, pompant l'eau de mer pour alimenter le circuit de refroidissement [2]. Plus proche de nous, la valorisation de la chaleur produite permet de chauffer depuis 2017 la piscine parisienne des Buttes au Cailles.

D'où l'enjeu du projet d'HPE et du NREL, qui consiste à examiner les données historiques sur plusieurs années provenant de capteurs installés au sein du data center Energy Systems Integration Facility (ESIF, l'un des plus performants dans son domaine) afin d'anticiper et de corriger rapidement les anomalies récurrentes. Les données collectées permettent également de mesurer son efficience via les calculs des Power Usage Effectiveness (PUE), Water Usage Effectiveness (WUE) et Carbon Usage Effectiveness (CUE). Les résultats sont encourageants : en moyenne ESIF récupère 97% de la chaleur émise par ses superordinateurs pour chauffer les bureaux et les laboratoires à proximité [3].
Le but recherché est de penser et de concevoir un nouveau type de data center, créer des outils de validation pour l'intégration et le déploiement continus des fonctions IT de base dans le data center moderne [3].

Puisque le data center est devenu un élément incontournable de notre société et de nos paysages, autant réduire son impact énergétique et composer avec les effets incontournables de son usage qui peuvent se révéler être, sinon bénéfiques au moins plus verts et orientés vers le durable et l'écologie. Si nous y mettons de la bonne volonté et de l'intelligence, quelle soit humaine ou artificielle.


[1] CAILLOCE, Laure, 2018. Numérique: le grand gâchis énergétique. Lejournal.cnrs.fr [En ligne]. 16 mai 2018. [Consulté le 5 décembre 2019]. Disponible à l'adresse : <https://lejournal.cnrs.fr/articles/numerique-le-grand-gachis-energetique>

[2] CLEANFOX, 2019. Les Green Data Centers, indispensables pour un numérique durable. Cleanfox.io [En ligne]. 18 juillet 2019. [Consulté le 5 décembre 2019]. Disponible à l'adresse : <https://cleanfox.io/blog/pollution-numerique-fr/les-green-data-centers-indispensables-pour-un-numerique-durable/#>

[3] PATRIZIO, Andy, ELYAN, Jean, 2019. Des datacenters plus verts chez HPE grâce à l'IA. Lemondeinformatique.fr [En ligne]. 3 décembre 2019. [Consulté le 5 décembre 2019]. Disponible à l'adresse : <https://www.lemondeinformatique.fr/actualites/lire-des-datacenters-plus-verts-chez-hpe-grace-a-l-ia-77266.html>

[4] SERMONDADAZ, Sarah, 2018. Numérique et écologie : les data centers, des gouffres énergétiques ? Sciencesetavenir.fr [En ligne]. 9 mars 2018. [Consulté le 5 décembre 2019]. Disponible à l'adresse : <https://www.sciencesetavenir.fr/high-tech/informatique/numerique-et-ecologie-les-data-centers-des-gouffres-energetiques_121838>

dimanche 15 décembre 2019

La dématérialisation : une étape indispensable dans le processus de la transformation numérique des entreprises

Depuis que les entreprises se sont rendues compte qu'elles pouvaient tirer profit des données numériques, la transformation numérique des entreprises est devenue une question majeure pour le développement et l'évolution de leurs activités respectives. La dématérialisation étant l'une des étapes indispensables dans le processus de la transformation numérique, Archimag s'est encore une fois penché sur cette question à travers l'article du 12/12/2019 de C. Jost et M. Remize.

Image: projet de dématérialisation auquel j'ai participé

Pendant que certaines entreprises s'acharnent pour mettre en place un projet de dématérialisation, d'autres se posent encore la question de savoir s'il faut franchir cette étape même s'ils savent bien que cela reste indispensable et bénéfique à leurs activités [1]. Pour accompagner cette deuxième catégorie d'entreprises à sortir de l'impasse, il reste indispensable de parler des avantages et des inconvénients de la dématérialisation dans une entreprise. 

La dématérialisation étant de façon simple le passage du support papier au numérique, elle présente de nombreux avantages aux entreprises et organismes qu'ils soient privés ou publics. Dans un contexte ou de nombreuses entreprises se plaignent du manque de place pour le stockage de leurs documents papier, la dématérialisation vient soulager ses inquiétudes car elle permet de gagner une place considérable. Désormais le papier preneur est accessible en numérique[2][3].

Mieux, la dématérialisation permet aux entreprises de centraliser les documents et de permettre aux différents collaborateurs de l'entreprise d'avoir accès aux informations en temps réel et au même moment. Pendant que les mouvements de grève perturbent le déplacements des salariés, la dématérialisation qui permet de centraliser les documents sur une solution pourrait permettre à ceux qui optent pour le télétravail de mieux se concentrer sans perdre trop de temps sur différents documents[2].  

Bien que la dématérialisation soit une solution pour l'efficacité de la gestion documentaire, la sécurité des informations est l'une des préoccupations majeur des entreprises. Des documents très importants pourraient se retrouver dans un système ou dans un cloud sans contrôle. Sur cette question, il est important de rassurer les entreprises car les spécialistes ont prévu des solutions adaptées à chaque projets de dématérialisation[2][3]. Les entreprises n'ont alors aucune crainte à avoir en ce qui concerne la dématérialisation qui est l'une des étapes indispensables dans le processus de la transformation numérique.


[1] ''Le quiz ultime de la dématérialisation : êtes-vous plutôt papier, hybride ou avez-vous réalisé votre transition numérique'' Archimag, 12 décembre 2019 Internet (consulté le 13 décembre 2019) https://www.archimag.com/demat-cloud/2019/12/11/quiz-ultime-dematerialisation-papier-hybride-transition-numerique

[2] ''La dématérialisation des documents : avantages et inconvénients'' Novatim, Internet (consulté le 14 décembre 2019) https://www.novatim.com/actualite/dematerialisation-documents-avantages-inconvenients/

[3] ''La dématérialisation de documents, qu'est-ce-que c'est et quels en sont les avantages ? '' CELGE, 6 décembre 2019 Internet (consulté le 13 décembre 2019) https://www.celge.fr/article-conseil/la-dematerialisation-de-documents-quest-ce-que-cest-et-quels-en-sont-les-avantages 

[4] ''Qu'est-ce que la transformation numérique ? '' Hewlett Packard Entreprise, Internet (consulté le 14 décembre 2019) https://www.hpe.com/fr/fr/what-is/digital-transformation.html