samedi 21 décembre 2019

NASA, Google, Blockchain, et "Suprématie Quantique": des coups d'épingles dans la bulle des crypto-monnaies.

Le 20 septembre dernier, la NASA annonça que Google avait réussi la prouesse de construire un processeur quantique de 53 qubits, le Sycamore, capable de résoudre en approximativement 200 secondes une équation qui aurait pris dix mille ans à être résolue par le plus puissants supercalculateurs de la planète, le summit d'IBM (1). Si la nouvelle fut rapidement retirée du site de l'Agence Spatiale, elle fut loin de passer inaperçue.

D'une part, IBM n'a pas tardé à tempérer la nouvelle: son propre supercalculateur serait capable de résoudre la même équation en deux jours et demi, et non pas en dix mille ans. Étant en passe de surpasser l'exploit de l'ordinateur de Google, il serait loin d'être définitivement hors jeu. De plus, l'ordinateur de Google ne serait bon qu'à effectuer certaines tâches restreintes. D'autre part, et dans un tout autre univers, certains blogs spécialisés (2) ou analystes défenseurs des crypto-monnaies (3) ne manquèrent pas de publier des communiqués rassurants quant à l'avenir de la blockchain

Car en effet celle-ci repose sur un système de cryptage algorithmique garantissant l'anonymat des transactions faites – entre autres – avec le bitcoin et la non falsification des unités crypto-monnétaires. La  suprématie quantique arrivera au moment ou un ordinateur quantique dépassera le plus puissant ordinateur classique, assurant à son possesseur une puissance de calcul telle que cela pourrait théoriquement menacer ces deux principes de base de toutes cripto-monnaies. De plus, cela mettrait à mal le principe du minage, qui nécessite une très grande puissance de calcul pour produire une nouvelle unité, et en limite ainsi la quantité émise sur le marché. Cette rareté, cette sécurité et cet anonymat, plaçant l'utilisateur hors d'atteinte des États et de tout contrôle, fait le succès des crypto-monnaies auprès des spéculateurs.

Comme chacun sait, au sein d'un marché la spéculation est fruit de la confiance collective sur la promesse des gains futurs. Lorsque la confiance est perdue, la bulle éclate. Aussi la fin du succès des crypto-monnaies ne sera peut-être pas due à l'hégémonie technologique de la firme de Moutain View ou de celle d'IBM, ni d'autres d'ailleurs, mais bien de la perte de confiance des acteurs du marché. Sycamore, ordinateurs quantiques et "suprématie", une tempête dans un verre d'eau? Voyons cela de plus près en changeant de perspective et en observant tout d'abord l'effet de ces annonces sur les recherches des internautes américains sur Google en 2019 :

Pour la recherche "quantum supremacy" (4) :
Deux pics de recherches apparaissent, du 22 au 28 septembre (43 points), et du 20 au 26 octobre (100 points).

Pour la recherche "quantum computer" (5) :
On relèvera trois pics de recherches: du 30 juin au 6 juillet (39 points)(6), du 22 au 28 septembre (40 points et du 20 au 26 octobre (100 points), la confirmation de la nouvelle par Google date du 23 octobre.

Regardons à présent les statistiques de l’occurrence "cryptocurrency" (7) :
On notera là aussi trois pics de recherches: le premier du 16 au 22 juin (100 points) correspond à l'annonce de Facebook sur le projet de la Libra, un du 22 au 28 septembre (39 points) et un du 20 au 26 octobre (38 points). Cette synchronicité parfaite serait-elle le fruit du hasard ?

Pour le découvrir, observons ce graphique d'une plateforme d'échange reflétant l'évolution du cours de la paire bitcoin/euro sur l'année 2019 (8).
Si le bitcoin accuse une baisse importante lors de la première annonce de la NASA; passant de 9241 euros le 20 septembre à 7381 le 26 septembre, à contrario il remonte de manière significative lors de la confirmation de la nouvelle par Google, passant de 6700 à 9100 du 24 au 26 octobre, puis perd régulièrement sa valeur jusqu'à aujourd'hui, le 21 décembre 2019, à 6500 euros.

La très curieuse remontée d'octobre s'explique probablement par la teneur des déclarations de Google. La firme affirme en effet dans l'article de Nature du 23 octobre que son processeur quantique n'est pas capable de résoudre les algorithmes de Shor (9). Or, c'est à partir de cet algorithme qu'il serait possible de décrypter la blockchain le plus efficacement (10). Une confirmation donc, mais qui infirme les craintes du marché.

Pourtant, entre septembre et décembre, le bitcoin, dont les mouvements reflètent ceux des principales crypto-monnaies, a vu sa valeur diminuer d'environ 3300 euros entre 26 octobre et le 18 décembre (5800 euros) soit plus du tiers de sa valeur. Pire, après avoir atteint sont plus haut niveau fin juin 2019 (11300 euros) depuis son record de 2017 (15800 euros), il n'a eu de cesse de perdre de la valeur. Nous laisserons au lecteur le soin conclure sur la nature de la relation entre la dévaluation du bitcoin et les découvertes de Google. L'avenir nous dira si cette baisse est une tendance de fond ou si elle se limite à des effets d'annonces clairement perceptibles.

Sources:

1: Saadli Hicham, La volonté de suprématie quantique : nouvelle confrontation des puissances dans le monde immatériel, https://infoguerre.fr/2019/11/20137/ , 20 novembre 2019, consulté le 20 décembre 2019.

2: Banner Hellmouth, 2019, Google va t-il « tuer Bitcoin » avec la suprématie quantique ?, https://journalducoin.com/bitcoin/google-va-t-il-tuer-bitcoin-avec-la-suprematie-quantique/ , 28 septembre 2019, consulté le 21 décembre 2019. Les articles de ce type sont légions sur le net.

3: Bonelli Frédéric, 2019, Pourquoi l’ordinateur quantique ne va pas tuer les crypto-monnaies, https://www.forbes.fr/finance/pourquoi-lordinateur-quantique-ne-va-pas-tuer-les-crypto-monnaies/, 6 novembre 2019, consulté le 21 décembre 2019.

4: Quantum supremacy - Découvrir - Google Trends, https://trends.google.com/trends/explore?geo=US&q=quantum%20supremacy, consulté le 21 décembre 2019.

5: Quantum computer -Découvrir - Google Trends, https://trends.google.com/trends/explore?geo=US&q=quantum%20computer, consulté le 21 décembre 2019.

6: On notera la proximité entre ce pic de recherche et la réception de l'article de Google par le comité de lecture de la revue Nature, le 22 juillet. Encore une corrélation? Voir les données en fin d'article du site de Nature de l'article de Google: Arute Frank, Arya Kunal, et all., 2019, « Quantum supremacy using a programmable superconducting processor », Nature, octobre 2019, vol. 574, no 7779, p. 505‑510,disponible en ligne: https://www.nature.com/articles/s41586-019-1666-5, consulté le 21 décembre 2019.

7: Cryptocurrency -Découvrir - Google Trends, https://trends.google.com/trends/explore?q=cryptocurrency&geo=US, consulté le 21 décembre 2019.

8: bitstamp, BTC EUR – Graphique de prix Bitcoin Euro, https://fr.tradingview.com/symbols/BTCEUR/, consulté le 21 décembre 2019.

9: "However, realizing the full promise of quantum computing (using Shor’s algorithm for factoring, for example) still requires technical leaps to engineer fault-tolerant logical qubits". Voir: Arute Frank, Arya Kunal, opus cité.

10: Henri Reich, How Quantum Computers Break Encryption | Shor’s Algorithm Explained - YouTube, Minutephysics, https://www.youtube.com/watch?v=lvTqbM5Dq4Q, consulté le 20 décembre 2019.

jeudi 19 décembre 2019

Ecologie numérique : les data, une consommation énergétique

Le magazine Archimag a mené une étude sur la consommation d'énergie par les data. Il note que les activités sur internet consomme de plus en plus d'électricité et que les données que nous produisons par des data centers sont particulièrement énergivores. "A l'échelle européenne, un code de bonne conduite incite les professionnels à mieux dimensionner leurs centres de données." [1] 


Internet consomme beaucoup d’électricité. En effet, les données que nous créons et nous transmettons consomme de l'énergie et contribuent largement à la dégradation de notre écosystème. Selon l'organisation non gouvernementale Greenpeace  : "Si internet était un pays, il serait classé dans le top cinq des plus gros consommateurs mondiaux d'électricité." Selon d'autres associations, "internet pourrait même se hisser à la troisième place des puissances énergivores avec 1500 TWH par an, derrière la Chine et les Etas-Unis." [2]
Archimag a cité l'exemple de la vidéo de la chanson coréenne Gagnam style visionnée 3,4 de fois sur YouTube qui a généré une demande d'électricité équivalente à la consommation annuelle d'une petite centrale. Il faut noter également que à l'heure du triomphe de Netflix et des autres plateformes de visionnage en ligne, notre consommation d'électricité n'est pas près de baisser. 
Aussi, les courriels que nous envoyons chaque jours enrichis de pièces jointes volumineuses et des data centers qui hébergent toutes ces données... "En matière d'émission de CO2, internet pollue 1,5 fois plus que le transport aérien. La moitié des gaz à effet de serre produits par internet provient de l'utilisateur, l'autre moitié étant divisée entre le réseau et les data centers", explique le site Fournisseur Energie.   
Pour résoudre le problème, en France, le groupe de travail EcoInfo du CNRS propose une série de recommandations à l'usage des entreprises, mais aussi en direction des particuliers. [3] Un "guide des bonnes pratiques pour le code de conduite européen sur les datacentres" fait appel à la "sobriété numérique". Il prône notamment "d'adapter les niveaux de redondance aux besoins réels des entreprises plutôt que de surdimensionner les centres de données" [4]
Cependant, le refroidissement des centres de données, quant à lui, est traditionnellement assuré par des pompes à chaleur. Cela engendre l'énorme inconvénient de consommer beaucoup d'énergie pour produire de l'air froid. Un système alternatif est envisagé par le code de conduite européen : le "free cooling" ou rafraîchissement gratuit. Le "free cooling" est en mesure de générer du froid sans recourir aux pompes à chaleur. "Il s'agit d'un procédé qui utilise la différence de température entre l'air en sortie des ordinateurs et la température de l'air extérieur afin d'aider au système de refroidissement à eau." [5] 
En effet, ce type de refroidissement est de plus en plus adopté par des entreprises, des institutions et des organisations. Archimag a cité le cas de l'université de Strasbourg qui a reconstruit son centre de calcul autour d'une solution de "free cooling indirect à air" et aussi le cas de l'université de Grenoble dont le supercalculateur Froggy est refroidi avec de l'eau tiède. Selon Archimag, ce système est très satisfaisant. "La machine est relativement stable et la redondance des chassis hydrauliques des baies fonctionne bien", expliquent les porteurs du projet.   
Sources:
[1] Bruno Texier, Ecologie numérique: les data, une gouffre énergétique à combler, 20/11/2019 https://www.archimag.com/demat-cloud/2019/11/20/ecologie-numerique-data-gouffre-energetique-combler consulté le 13/12/2019. 
[2] Ibid.
[3] ecoinfo.cnrs.fr 
[4]  Bruno Texier, Ecologie numérique: les data, une gouffre énergétique à combler, opcit. 
[5] Ibid. 

mercredi 18 décembre 2019

Un guide pratique sur l'ouverture des données publiques culturelles

Le Ministère de la Culture a publié en juillet 2019 un guide pratique sur l’ouverture des données publiques culturelles. L’objectif de ce guide est d’accompagner et d’accélérer la mise en œuvre des démarches d’ouverture des données publiques dans le domaine culturel en respectant les contraintes posées par le droit de la propriété intellectuelle et la protection des données personnelles. [1]

Depuis la loi pour une République numérique de 2016, les administrations et les établissements publics chargés d’une mission de service public ont l’obligation d’ouvrir leurs données (open data), les rendant ainsi librement accessibles et réutilisables dans la limite du droit d’auteur et de la protection des données personnelles.  Le ministère de la Culture s’investit depuis 1996 dans la numérisation des contenus culturels pour les rendre accessibles au plus grand nombre. Afin d’accélérer cette démarche, il a engagé un plan d’ouverture, de communicabilité et de diffusion des données culturelles numériques pour la période 2019-2022. [2]

Dans cette optique, ce guide pratique de 32 pages accompagne les services du Ministère de la Culture et les établissements publics culturels dans la mise en œuvre de leur démarche d’open data. L’intérêt de ce guide est double : d’une part, il clarifie le cadre légal de l’open data culturel (respect de la propriété intellectuelle ; protection des données personnelles) et, d’autre part, il propose une méthode concrète pour organiser cette démarche d’ouverture des données (Sélectionner les données ; préparer les données ; diffuser et valoriser les données). Des fiches thématiques sont proposées en annexes et abordent notamment des aspects techniques ou réglementaires (Comment produire un fichier CSV ? Quels sont les licences ouvertes homologuées par l’Etat ?). [3]

Les indications pratiques de ce guide ont pour but d’enrichir la plate-forme data.culture.gouv.fr. Mise en ligne en décembre 2016, celle-ci offre à l’internaute la possibilité de visualiser les ressources culturelles numériques du ministère par le biais de divers outils tels que des cartographies ou des graphiques. Les données présentées concernent l’activité des institutions culturelles, les aspects économiques du secteur, des ressources iconographiques ou des événements culturels. A titre d’information, le jeu de données le plus consulté sur le site est la liste et la localisation des immeubles protégés au titre des Monuments historiques (plus de 28 000 téléchargements à ce jour). Les publics visés, chercheurs, journalistes mais aussi entreprises et développeurs, ont la possibilité de consulter et de réutiliser les données qui sont en licence ouverte. [4]

Les perspectives et les bénéfices de l’ouverture des données culturelles s’avèrent multiples : poursuivre la démocratisation de la culture, accroître la visibilité et la notoriété des institutions culturelles, faciliter les travaux de recherche, ouvrir des ressources à de nouveaux publics. Il ne faut pourtant pas omettre d’indiquer les difficultés susceptibles de freiner ces démarches telles que la longueur et le coût des campagnes de numérisation ou les difficultés posées par le droit d’auteur, notamment en ce qui concerne les collections d’art contemporain.

Sources : 

[1] Ministère de la Culture. Open data : un guide pratique dédié aux données publiques culturelles. culture.gouv.fr [en ligne]. [Consulté le 18 décembre 2019]. Disponible à l’adresse : < https://www.culture.gouv.fr/Sites-thematiques/Innovation-numerique/Donnees-publiques/Open-data-un-guide-pratique-dedie-aux-donnees-publiques-culturelles >

[2] Ministère de la Culture. Programme national de Numérisation et de Valorisation des contenus culturels (PNV). culture.gouv.fr [en ligne]. [Consulté le 18 décembre 2019]. Disponible à l’adresse : < https://www.culture.gouv.fr/Sites-thematiques/Innovation-numerique/Programme-national-de-Numerisation-et-de-Valorisation-des-contenus-culturels-PNV2 >

[3] Portaildoc – Le portail documentaire de l’INTD. Ministère de la Culture/Ouverture des données publiques culturelles : guide pratique. In « La littérature grise, une sélection du CREPAC », n°20, 21/11//2019. portaildoc-intd.cnam.fr [en ligne]. [Consulté le 18 décembre 2019]. Disponible à l’adresse : < https://portaildoc-intd.cnam.fr/KP_visio.htm?prd=19215463124910336459&record=19215947124910331299&M_Token=470027477539470030482537469031441013436033436047485774433670&key=KPKP0_5_191121 >

[4] data.culture.gouv.fr – La plate-forme de données ouvertes du ministère de la Culture. culture-communication.gouv.fr [en ligne]. [Consulté le 18 décembre 2019]. Disponible à l’adresse : https://data.culturecommunication.gouv.fr/pages/home/

lundi 16 décembre 2019

Open Source Summit 2019 : l’open source au service de la gestion documentaire


https://www.opensourcesummit.paris


La tenue, au mois de décembre, du Paris Open Source Summit a mis en lumière les bons chiffres du marché du logiciel libre dans le monde et en particulier en France. Séduisant un nombre croissant d’entreprises, les solutions open source offrent de nombreux avantages en matière d’innovation, de performance et d'agilité. Les professionnels de l’information-documentaire, pivots de la transition digitale, seront donc à l’avenir amenés à utiliser de plus en plus fréquemment ces outils.


Le marché du logiciel libre en forte croissance

Les chiffres de l’open source invitent à l’optimisme : une croissance prévisionnelle de presque 9% par an, un chiffre d’affaire mondial de plus de 30 milliards de dollars en 2023 dont 7,5 milliards en France (+8,8%), où le logiciel libre représente plus de 10% du marché global de l’informatique. L’Hexagone confirme ainsi sa place de leader européen du marché de l’open source devant l’Allemagne (+8,2%) et la Grande-Bretagne (+7,6%).[1]

Dans un contexte de transformation digitale le recours à l’open source se fait de plus en plus facilement. Une majorité d'entreprises estime qu’elle jouera un rôle très important dans leur transition [1]. Elles suivent ainsi les recommandations du CIGREF qui invitait, dans un rapport publié en décembre 2018, à "franchir le pas de l’open source", le logiciel libre conférant aux entreprises des "avantages stratégiques ainsi que des leviers d’action sur leur compétitivité" [2]. 

OSS 2019 

C’est donc dans une ambiance dynamique et enthousiaste que s’est tenue aux Docks de Paris, les 10 et 11 décembre, la 5ème édition de l’Open Source Summit organisée par le pôle de compétitivité Systematic Paris-Region et le CNLL (Union des entreprises du logiciel libre et du numérique ouvert). Avec 150 exposants, une dizaine d’évènements associés et plus de 400 conférences organisées, l’OSS se présente comme le premier salon européen sur l’open source. Huit thématiques avaient été retenues cette année : Artificial intelligence, Cloud, DevOps, Infrastructure, Embedded & IoT, Data management & Blockchain, Security, Development & emerging languages, Business Apps, Web, E-commerce & Mobile, Gouvernance, proposant ainsi un très large panorama des solutions offertes par l’open source [3]. 

Des outils innovants pour la gestion documentaire

La partie "business app" intéressait au premier chef les professionnels de l’info-doc, acteurs essentiels de la digitalisation des entreprises. En effet, tous les domaines de l’ingénierie documentaire sont désormais concernés par la multiplication des solutions open source : recherche d’informations, GED, cartographie, knowledge management, pratiques collaboratives, datavisualisation, archivage.

Ainsi, de nombreux outils ont été présentés au salon, notamment au cours de conférences dédiées : "VITAM, un système d'archivage pour les grandes volumétries", "Comment ONLYOFFICE aide à organiser les travaux de recherches à l’Institut de Biologie de Lille", "Stratégies de combat pour tester les documents", "Customer Content Management: GED et CRM combinés", «Construire et développer des tableaux de bord pour réseaux sociaux", "Faciliter l'édition collaborative de documents volumineux avec XWiki", "Réussir (ou pas) son projet de moteur de recherche d'entreprise", ou encore "OlaPy, un outil pour l'analyse de données métier" [4].

Le data mining à l’honneur

Le prix du meilleur projet open source, décerné par le CNLL, a été remis à l’ICIJ (International Consortium of Investigative Journalists), à l’origine des Panama Papers, pour le logiciel Datashare
Utilisable par tous les professionnels de l’information, ce dernier permet l’extraction et l’indexation de documents dans de grands volumes de données, favorise la collaboration entre les utilisateurs par le partage et l’enrichissement mutuels des documents et surtout garantit la confidentialité et l’indépendance face aux acteurs dominants du web [5]. 

Alors que le comportement hégémonique des grands éditeurs de logiciels commence à être remis en cause, les entreprises s’équipent de plus en plus d’outils open source. Les professionnels de la gestion documentaire auront donc tout intérêt à suivre l’actualité de ce secteur avec attention. 
Rendez-vous à l’édition 2020 de l’Open Source Summit !


Sources :

[1] - Pour les données statistiques on consultera les deux rapports suivants : "Open source, a dynamic market fuel by digital transformation and innovation", réalisé par Teknowlogy Group pour le CNLL, Syntec Numérique et Systematic, 2019. Consultable sur le site du CNLL (https://cnll.fr/publications) et DigitalOcean, "Currents, Open Source 2019", 12/2019 (https://digitalocean.com/currents/december-2019/). [Consultés le 14/12/2019]

[2] - CIGREF, "L'Open source, une alternative aux grands fournisseurs", 12/2018. 
https://www.cigref.fr/wp/wp-content/uploads/2018/12/Cigref-Open-source-Alternative-Grands-Fournisseurs-franchir-pas-open-source-Decembre-2018.pdf 
[Consulté le 14/12/2019]

[3] - Open Source Summit, Thématiques 2019.
[Consulté le 14/12/2019]

[4] - Toutes les conférences de l'OSS 2019 sont à retrouver en vidéo sur la chaîne Youtube de l'évènement. 
https://www.youtube.com/user/OpenWorldForum
[Consulté le 14/12/19]

[5] - Will Fitzgibbon, "Datashare: Help test and improve our latest journalism tool", 5/02/2019


Data centers : vers une production plus verte ?

L'entreprise Hewlett Packard Enterprise (HPE) et le National Renewable Energy Laboratory (NREL, le laboratoire national américain sur les énergies renouvelables) se sont associés pour réfléchir et mettre au point des technologies permettant d'améliorer l'efficacité énergétique des data centers. Basé sur l'intelligence artificielle et le machine learning, le projet nommé AI Ops R&D est prévu pour trois ans [3].

Il n'est plus d'usage de n'envisager Internet et le numérique que comme faisant partie d'un monde virtuel. Les ordinateurs, les smartphones, les data centers sont autant d'ancrages physiques qui rappellent que pour chaque donnée traitée, diffusée ou partagée, il y a un support auquel elle est intrinsèquement attachée. Heureusement, le monde des nouvelles technologies n'échappe pas à cet élan écologique qui bouleverse les consciences individuelles, collectives et entrepreneuriales.

Des data centers énergivores.

Rappelons brièvement qu'un data center (ou centre de données), est une infrastructure composée de réseaux d'ordinateurs, de serveurs informatiques et d'espaces de stockage qui permettent l'hébergement ainsi que le traitement de quantités colossales de données informatiques. A l'heure actuelle, le numérique représente 10% de la production électrique mondiale, les data centers en accaparent 18% selon l'association négaWatt [4]. Françoise Berthoud -- informaticienne au Gricad et fondatrice d'EcoInfo -- assure que les nouvelles technologies représentent 4% de nos émissions de gaz à effet de serre, et avec une augmentation de 5 à 7% tous les ans [1].

L'effet Big Data de ces dernières années a donc un impact écologique désastreux : la multiplication exponentielle des données informatiques, renforcée par l'essor du cloud, demande des data centers de plus en plus énergivores. Non seulement parce qu'il y a la nécessité d'avoir une alimentation en électricité intense et continue, mais surtout parce qu'il faut pallier l'effet joule (soit la chaleur thermique produite par un courant électrique) via la climatisation pour préserver l'intégrité des circuits électroniques.

Envisager un data center plus efficient et écologique.

S'emparant de ce sujet sensible, les grandes entreprises (comme les GAFA) se tournent vers les Greens data centers. En utilisant des matériaux de construction à faible émission, ou des convertisseurs catalytiques par exemple. Ou bien encore comme Apple et Facebook, en maximisant le free cooling, soit le refroidissement naturel grâce à l'air extérieur, en délocalisant les centres dans les pays nordiques (Suède notamment). Microsoft a quant à lui immergé son Natick dans les eaux de l'Ecosse, pompant l'eau de mer pour alimenter le circuit de refroidissement [2]. Plus proche de nous, la valorisation de la chaleur produite permet de chauffer depuis 2017 la piscine parisienne des Buttes au Cailles.

D'où l'enjeu du projet d'HPE et du NREL, qui consiste à examiner les données historiques sur plusieurs années provenant de capteurs installés au sein du data center Energy Systems Integration Facility (ESIF, l'un des plus performants dans son domaine) afin d'anticiper et de corriger rapidement les anomalies récurrentes. Les données collectées permettent également de mesurer son efficience via les calculs des Power Usage Effectiveness (PUE), Water Usage Effectiveness (WUE) et Carbon Usage Effectiveness (CUE). Les résultats sont encourageants : en moyenne ESIF récupère 97% de la chaleur émise par ses superordinateurs pour chauffer les bureaux et les laboratoires à proximité [3].
Le but recherché est de penser et de concevoir un nouveau type de data center, créer des outils de validation pour l'intégration et le déploiement continus des fonctions IT de base dans le data center moderne [3].

Puisque le data center est devenu un élément incontournable de notre société et de nos paysages, autant réduire son impact énergétique et composer avec les effets incontournables de son usage qui peuvent se révéler être, sinon bénéfiques au moins plus verts et orientés vers le durable et l'écologie. Si nous y mettons de la bonne volonté et de l'intelligence, quelle soit humaine ou artificielle.


[1] CAILLOCE, Laure, 2018. Numérique: le grand gâchis énergétique. Lejournal.cnrs.fr [En ligne]. 16 mai 2018. [Consulté le 5 décembre 2019]. Disponible à l'adresse : <https://lejournal.cnrs.fr/articles/numerique-le-grand-gachis-energetique>

[2] CLEANFOX, 2019. Les Green Data Centers, indispensables pour un numérique durable. Cleanfox.io [En ligne]. 18 juillet 2019. [Consulté le 5 décembre 2019]. Disponible à l'adresse : <https://cleanfox.io/blog/pollution-numerique-fr/les-green-data-centers-indispensables-pour-un-numerique-durable/#>

[3] PATRIZIO, Andy, ELYAN, Jean, 2019. Des datacenters plus verts chez HPE grâce à l'IA. Lemondeinformatique.fr [En ligne]. 3 décembre 2019. [Consulté le 5 décembre 2019]. Disponible à l'adresse : <https://www.lemondeinformatique.fr/actualites/lire-des-datacenters-plus-verts-chez-hpe-grace-a-l-ia-77266.html>

[4] SERMONDADAZ, Sarah, 2018. Numérique et écologie : les data centers, des gouffres énergétiques ? Sciencesetavenir.fr [En ligne]. 9 mars 2018. [Consulté le 5 décembre 2019]. Disponible à l'adresse : <https://www.sciencesetavenir.fr/high-tech/informatique/numerique-et-ecologie-les-data-centers-des-gouffres-energetiques_121838>

dimanche 15 décembre 2019

La dématérialisation : une étape indispensable dans le processus de la transformation numérique des entreprises

Depuis que les entreprises se sont rendues compte qu'elles pouvaient tirer profit des données numériques, la transformation numérique des entreprises est devenue une question majeure pour le développement et l'évolution de leurs activités respectives. La dématérialisation étant l'une des étapes indispensables dans le processus de la transformation numérique, Archimag s'est encore une fois penché sur cette question à travers l'article du 12/12/2019 de C. Jost et M. Remize.

Image: projet de dématérialisation auquel j'ai participé

Pendant que certaines entreprises s'acharnent pour mettre en place un projet de dématérialisation, d'autres se posent encore la question de savoir s'il faut franchir cette étape même s'ils savent bien que cela reste indispensable et bénéfique à leurs activités [1]. Pour accompagner cette deuxième catégorie d'entreprises à sortir de l'impasse, il reste indispensable de parler des avantages et des inconvénients de la dématérialisation dans une entreprise. 

La dématérialisation étant de façon simple le passage du support papier au numérique, elle présente de nombreux avantages aux entreprises et organismes qu'ils soient privés ou publics. Dans un contexte ou de nombreuses entreprises se plaignent du manque de place pour le stockage de leurs documents papier, la dématérialisation vient soulager ses inquiétudes car elle permet de gagner une place considérable. Désormais le papier preneur est accessible en numérique[2][3].

Mieux, la dématérialisation permet aux entreprises de centraliser les documents et de permettre aux différents collaborateurs de l'entreprise d'avoir accès aux informations en temps réel et au même moment. Pendant que les mouvements de grève perturbent le déplacements des salariés, la dématérialisation qui permet de centraliser les documents sur une solution pourrait permettre à ceux qui optent pour le télétravail de mieux se concentrer sans perdre trop de temps sur différents documents[2].  

Bien que la dématérialisation soit une solution pour l'efficacité de la gestion documentaire, la sécurité des informations est l'une des préoccupations majeur des entreprises. Des documents très importants pourraient se retrouver dans un système ou dans un cloud sans contrôle. Sur cette question, il est important de rassurer les entreprises car les spécialistes ont prévu des solutions adaptées à chaque projets de dématérialisation[2][3]. Les entreprises n'ont alors aucune crainte à avoir en ce qui concerne la dématérialisation qui est l'une des étapes indispensables dans le processus de la transformation numérique.


[1] ''Le quiz ultime de la dématérialisation : êtes-vous plutôt papier, hybride ou avez-vous réalisé votre transition numérique'' Archimag, 12 décembre 2019 Internet (consulté le 13 décembre 2019) https://www.archimag.com/demat-cloud/2019/12/11/quiz-ultime-dematerialisation-papier-hybride-transition-numerique

[2] ''La dématérialisation des documents : avantages et inconvénients'' Novatim, Internet (consulté le 14 décembre 2019) https://www.novatim.com/actualite/dematerialisation-documents-avantages-inconvenients/

[3] ''La dématérialisation de documents, qu'est-ce-que c'est et quels en sont les avantages ? '' CELGE, 6 décembre 2019 Internet (consulté le 13 décembre 2019) https://www.celge.fr/article-conseil/la-dematerialisation-de-documents-quest-ce-que-cest-et-quels-en-sont-les-avantages 

[4] ''Qu'est-ce que la transformation numérique ? '' Hewlett Packard Entreprise, Internet (consulté le 14 décembre 2019) https://www.hpe.com/fr/fr/what-is/digital-transformation.html


Sources libres, consultations payantes : Projet Gutenberg et détenus mis à mal dans les prisons de Virginie-Occidentale.



Malgré des tablettes électroniques mises gratuitement à la disposition des détenus de Virginie-Occidentale, la lecture d’un livre au format numérique va leur coûter 3 cents par minute de lecture, même si le livre est issu d’un catalogue complètement gratuit comme le Projet Gutenberg. C’est ce que rapporte le media en ligne américain Reason le 22 novembre 2019 [1], relayé en France par David Moszkowicz dans Booksquad le 27 novembre 2019 [2].
Si Greg Newby, CEO de la Project Gutenberg Literary Archive Foundation déplore cette situation, il ne voit « aucun levier qui permette de faire quoi que ce soit ».


Cette situation est le résultat d’un partenariat entre la West Virginia Division of Corrections and Rehabilitation (WVDCR) et l’opérateur Global Tel Link (GTL).
Comme dans d’autres états, les tablettes sont mises gratuitement à la disposition des détenus les plus vertueux pour leur permettre d’envoyer des emails, de communiquer avec leurs familles et donc de lire des livres. Autant de fonctionnalités payantes pour lesquelles la WVDCR touchera 5% de commission.
Même si cette commission est censée alimenter un fonds pour les prisonniers, des voix se sont élevées pour dénoncer une pratique moralement discutable, abusive et génératrice d’inégalités. C’est le cas de l’Appalachian Prison Book Project (association caritative qui offre des livres et des cours aux prisonniers) qui regrette, entre-autre, que ceux qui lisent plus lentement seront pénalisés et redoute que, pour favoriser ce système payant, il y ait à terme des restrictions d’achats ou de dons de livres papier comme ça a déjà été le cas dans d’autres prisons du pays.

Car les livres papier restent libres d’accès et sans coût pour les détenus. Et privatiser l’accès au catalogue d’une bibliothèque gratuite en ligne de plus de 60 000 textes du domaine public toutes langues confondues, comme celle du Projet Gutenberg, est non seulement priver les détenus d’un nouvel espace de liberté, mais aller à l’encontre des principes fondamentaux du projet.

Pour rappel, le Projet Gutenberg a été lancé par l’universitaire Michael Hart en 1971. Son objectif était de « constituer une bibliothèque virtuelle de versions numériques de livres physiques, les textes fournis étant du domaine public et libres de droit. » [3]
Désireux de « faire quelque chose d’utile à la société » et de « rendre les livres disponibles à tous », Michael Hart rappelait peu avant sa mort le 6 septembre 2011 : « À part l’air que nous respirons, les livres numériques sont la seule chose dont nous pouvons disposer à volonté. » [4] Car, comme l'écrivait Hervé Le Crosnier en lui rendant hommage, les ressources numériques sont additives et la gratuité n’est qu’un des aspects d’accès aux livres du projet Gutenberg : « […] il ne s’agit pas simplement de garantir « l’accès », mais plus largement la réutilisation. Ce qui est la meilleure façon de protéger l’accès « gratuit ». [4]

Mais si le projet, qui était de développer la culture livresque, le goût pour l’héritage littéraire, lutter contre l’illettrisme et l’ignorance, joue encore son rôle originel [5], son dévoiement se constate dans l’évolution des pratiques.
Claire Clivaz et Dominique Vinck remarquaient déjà en 2014 : « Nous voyons se mettre en place de nouveaux assemblages de dispositifs souvent hybrides où le livre électronique en vient à coûter plus cher que sa version papier et se déploie de façon différentielle, ce qui construit une nouvelle géographie de l’accès au savoir ». [6]

[1] CIARAMELLA, C.J. West Virginia Inmates Will Be Charged by the Minute to Read E-Books on Tablets. Reason. 22/11/2019. Disponible en ligne [consulté le 1/12/2019] :  https://reason.com/2019/11/22/west-virginia-inmates-will-be-charged-by-the-minute-to-read-e-books-on-tablets/

[2] MOSZKOWICZ, David. Les détenus de Virginie-Occidentale vont payer leurs lectures à la minute. Book Squad. 27/11/2019. Disponible en ligne [consulté le 01/12/2019] : https://www.booksquad.fr/les-detenus-de-virginie-occidentale-vont-payer-leurs-lectures-a-la-minute/

[3] SOUAL, Laurent. « 1. Petite histoire du livre numérique », dans : Le livre numérique en bibliothèque : état des lieux et perspectives. Sous la direction de Soual Laurent. Paris. Éditions du Cercle de la Librairie. « Bibliothèques ». 2015. p. 19-28. Disponible en ligne [consulté le 3/12/2019] : https://www-cairn-info.proxybib-pp.cnam.fr/le-livre-numerique-en-bibliotheque-etat-des-lieux--9782765414773-page-19.htm

[4] LE CROSNIER, Hervé. Le projet Gutenberg est orphelin. Le Monde diplomatique. 11/09/2011. Disponible en ligne [consulté le 12/12/2019] : https://blog.mondediplo.net/2011-09-11-Le-projet-Gutenberg-est-orphelin

[5] À Belfort, les tablettes une fois connectées, les usagers d’un centre social ont accès à des cours, l’encyclopédie Wikipédia, le dictionnaire Wiktionnaire et le Projet Gutenberg.        L’EST RÉPUBLICAIN. Pour réduire la fracture numérique – Belfort : dix tablettes offertes au centre social des Résidences Bellevue. 27/01/2019. Disponible en ligne [consulté le 3/12/2019] :  https://www.estrepublicain.fr/edition-belfort-hericourt-montbeliard/2019/01/27/belfort-dix-tablettes-offertes-au-centre-social-des-residences-bellevue

[6] VINCK, Dominique. CLIVAZ, Claire. Les humanités délivrées. Savoir et culture réinventés hors du livre. Revue d'anthropologie des connaissances. 2014/4 (Vol. 8, n° 4. p. 681-704.  DOI : 10.3917/rac.025.0681. Disponible en ligne [consulté le 3/12/2019] :  https://www-cairn-info.proxybib-pp.cnam.fr/revue-anthropologie-des-connaissances-2014-4-page-681.htm

La fracture numérique en Afrique: Quand la téléphonie mobile devient un palliatif pour l'accès à l'information.

Le potentiel de développement porté par les TIC reste quelque chose de purement théorique pour des millions de personnes compte tenu de l'existence de la fracture numérique qui sépare les « inforiches » des « infopauvres ». Dans la perspective de la construction d'une société de l'information inclusive, la question de l'accès universel aux TIC est donc centrale, notamment pour les pays africains. Cette problématique ne doit cependant pas être réduite à la question de la disponibilité des infrastructures de télécommunications ; elle doit prendre en compte l'accès réel, c'est-à-dire les usages [1]. C’est en ce sens, que la téléphonie mobile par son développement fulgurant est devenue un vecteur de diffusion d’informations et de services à une large échelle.

L'essor du mobile en Afrique :

Au cours de ces dernières années, le taux d’adoption de la téléphonie mobile en Afrique de l’Ouest a rapidement augmenté, notamment grâce à l’extension de la couverture des réseaux mobiles à des localités jusqu’alors mal desservies et à des services et des terminaux mobiles de plus en plus abordables. D’ici 2025, l’Afrique de l’Ouest comptera environ 72 millions de nouveaux abonnés mobiles, et le taux de pénétration atteindra 54 %[3].


L'émergence d'une nouvelle économie  de l'information :

Tous les secteurs d'activité sont concernés  par la diffusion de l'usage des TIC, qu'il s'agisse des services, de l'éducation, de la santé etc.

Le secteur financier :

M-Pesa (M pour « mobile », PESA pour « argent » en langue swahili) est ainsi officiellement lancé en mars 2007 par Safaricom, premier opérateur mobile au Kenya. L’opération connait un succès immédiat et M-Pesa capta rapidement une part significative du marché des transferts d’argent au Kenya. Aujour­d’hui le service compte plus de 18 millions d’utilisateurs qui effectuent près de 8 millions de transactions par jour [3].

La santé :

Ce domaine présente des avancées significatives par son potentiel en matière de prévention, de dépistage, de traitement et d’élargissement de l’accès aux soins. Le recours à la technologie permet tout d’abord d’abolir les distances, de réduire les coûts et de pallier le manque de personnel ou d’infrastructures sanitaires, notamment en faveur de groupes isolés et de zones reculées. Ainsi le développement de kits d’examen portables couplés à la prise de photographies de haute qualité avec des téléphones portables et leur transmission à des spécialistes permettent-ils à des médecins de procéder à des diagnostics à distance pour des traitements plus précoces. Tel a été récemment le cas pour le dépistage de la fièvre Ebola au Rwanda et au Nigeria où la surveillance en temps réel a permis de contenir l’épidémie [4].

Le mobile comme outil d'accès à la connaissance :

En 2014, la Fondation Orange a lancé le programme Digital Schools afin de fournir un contenu éducatif gratuit en format numérique aux élèves des écoles primaires et secondaires dans les pays où l’opérateur est présent, notamment en Côte d’Ivoire, au Niger, au Sénégal, au Mali et en Guinée. Orange s’attend à ce que le programme serve les élèves des zones rurales et suburbaines isolées, où les écoles les plus défavorisées n’ont pas accès aux manuels scolaires[3].

Sources:
[1]SAGNA, Olivier. (2009). La lutte contre la fracture numérique en Afrique : Aller au-dela de l'accès aux infrastructures : Fractures dans la société de la connaissance. Hermès (Paris.1988) [ISSN 0767-9513], 2006, N° 45; pp. 15-24, 205 [11 p.]. 10.4267/2042/24030.
 [3] https://www.gsmaintelligence.com/ (consulté le 26/01/2020)

[4] https://www.vie-publique.fr/ (consulté le 26 /01/2020)

samedi 14 décembre 2019

Une journée RGPD pour les établissements de santé

Ascodocpsy, Groupement d’Intérêt Public (GIP) organise une journée d’étude [1] au sujet du Règlement Général sur la Protection des Données (RGPD) et de son application dans les établissements de santé, le 30 janvier 2020 au Centre Hospitalier Saint Jean de Dieu à Lyon. Un sujet au cœur de toutes les questions sur la digitalisation de notre système de santé et nécessaire à la compréhension de ce règlement.

Les établissements de santé traitent chaque jour des milliers de données dites « sensibles » et doivent être en conformité avec le RGPD applicable depuis mai 2018. Ces données de santé sont à l’origine protégées par le code déontologique du secret médical applicable par tous les professionnels du secteur et interdisant leur transmission à une entité tierce. Le RGPD vient bousculer l’organisation des établissements de santé et de nouveaux comportements et usages doivent être mis en place dans le respect et toute la complexité de ce règlement à décrypter. Il en va de la responsabilité de l’établissement non exempt de failles de sécurité liées à ses propres technologies et qui peut être sanctionné par la Commission Nationale de l'Informatique et des Libertés (CNIL).

Des freins à l’application du RGPD

La mise en place du RGPD nécessite de nombreuses ressources (humaines, temporelles, budgétaires). Afin de pouvoir s’y appliquer, les établissements doivent libérer du temps médical ou autrement demander l’intervention d’un expert externe, dans la mesure où la santé des patients reste avant tout leur priorité. Dès lors, deux possibilités s’offrent à eux qu’il s’agit de bien étudier en terme de gouvernance d’information à caractère personnel.

La complexité de la législation fait également partie des freins à la mise en place du RGPD, au regard du secteur particulier de la santé, de ses limites et de certaines dérogations possibles liées par exemple à des motifs d’intérêt public général comme garantir la santé publique (RGPD, article 065) ou dans le cas d'une recherche interne. Une datavisualisation [2] sur le site de la CNIL propose une cartographie des articles du règlement structurés par thématique dont celle de la santé.

Prouver sa conformité par ailleurs nécessite d’être en mesure de fournir plusieurs documents à la CNIL, demandant une certaine expertise comme par exemple l’Analyse d’Impact relative à la Protection des Données (AIPD) afin d’évaluer les risques liés à d'éventuelles failles de sécurité.

Le « numérique est entrain de bouleverser la filière » selon le rapport sur "l'IA, Etat de l’art et perspective pour la France" publié par les ministères de la cohésion des territoires, de l’économie et des finances [3]. Le marché de l’e-santé en France en 2014 représentait 2,7 Mds d’euros. Le secteur est fortement impacté par les politiques de digitalisation (loi Santé en 2016) ; le Rapport Villani (2018), indique que la santé fait partie des secteurs prioritaires de l’Intelligence Artificielle (IA); la loi « Ma santé 2022 » (2019) appelle à « accélérer le virage numérique » dans le cadre de sa Stratégie de Transformation du Système de Santé (STSS).

Plusieurs projets numériques sont en cours (Dossier Médical Partagé, applications smartphones, plateforme de données de santé anonymisées Health Data Hub, programme HOP’EN…) et d’autres vont être mis en place à partir de 2020 (Espace Numérique de Santé, Identifiant Nationale de Santé, Lab Santé…).

Des risques liés au numérique

La digitalisation expose encore plus les données des patients aux cybermenaces : l’Agence des Systèmes d’Information Partagés de Santé (ASIP Santé) «  a recensé 693 incidents de sécurité déclarés par les structures de santé [4]. Les actes de cybermalveillance représentent 43% des signalements (hameçonnage, rançongiciel, intrusion, etc…). » Le Ministère des Solidarités et de la Santé alerte face à ces nouveaux services numériques en lançant une campagne de cybersécurité « tous cybervigilants » dans les établissements de santé. [5]

Dans son discours du jeudi 20 novembre 2019 [6] sur le Tour de France de la e-santé, Madame la Ministre Agnès Buzyn annonce très clairement le caractère prioritaire de lutte contre les cybermenaces :

« S’agissant de la cyber sécurité, […] l’actualité de ces dernières semaines nous montre qu’il nous faut la placer au sommet de nos priorités. […] «Face aux risques de cyberattaques du système de santé, la cybersécurité à l’échelle de chaque établissement de santé est donc devenue une priorité nationale. » […] « Récemment, chez nous, différentes attaques ont eu des répercussions sur un ensemble de structures de santé d’un groupe privé et au mois de novembre, la presse l’a évoqué, un CHU a été particulièrement touché.» Il s’agit du CHU de Rouen, victime d’un cryptovirus en novembre dernier. Elle cite également la «cyberattaque qui a touché les anglais en juin 2017 et qui a paralysé une partie des établissements de santé de la NHS.»

L’existence des vols de données n’est plus à démontrer ou même le risque de perte de données mettant en danger les usagers (scandale Nightingale de Google, Facebook…) « les GAFA souhaitent récupérer des expertises disponibles en IA en France pour mettre au point leurs propres services ». [3]

Pour aider à combattre les risques liés au numérique, le Ministère de la Santé a mis en place de nombreuses mesures dont l’agrément HDS (Hébergeur de Données de Santé), la « déclaration des incidents de sécurité » [6], la création d’un service nationale de cybersurveillance en 2020 et de nombreuses structures (Délégation Numérique et Santé, Conseil du Numérique en Santé, Agence Nationale de la Sécurité des Systèmes d’Information…)

Des aides pour une "hygiène numérique

"Le RGPD répond à l’appel de la politique nationale de la e-santé". Il est fondamental de définir une procédure de mise en place de la protection des données. Pour cela, le site de la CNIL est une ressource à exploiter. La CNIL propose de se préparer au RGPD en 6 étapes.

La première consiste à désigner un Délégué à la Protection des Données (DPD); étape obligatoire pour les organismes publics et les entreprises intervenant sur des données dites « sensibles ». Le Club de la Sécurité de l’Information Français (CLUSIF) propose également un dossier technique [7] d’aide spécifique au traitement des données de santé.

Pour en savoir plus sur le RGPD, la CNIL propose des actions d’aide via des logiciels, des MOOC, des fiches pratiques, des méthodes, des guides, des références aux articles du règlement, des modèles à suivre accessibles sur son site.

Aujourd’hui « 70% des Français se disent plus sensibles aux problématiques de protection des données. » La mise en oeuvre du RGPD devrait donner confiance aux usagers dans l’utilisation de leurs données personnelles de santé. Mais ces données sont la proie de cyberattaques dont  la menace bien réelle se trouve être la conséquence du virtuel. Pourtant la nécessité de la digitalisation du secteur est inéluctable car l’IA, au service de la recherche pourrait « sauver des vies ».

Au même titre que la plateforme Health Data Hub partage des données de santé anonymisées, dans un contexte maîtrisé et éthique, les établissements de santé doivent faire preuve de rigueur dans l’application du RGPD, se justifiant de surcroit comme un des leviers permettant l’accès à une digitalisation saine du secteur afin de permettre la continuité des politiques e-santé en faveur des services octroyés à chaque patient et de la recherche sur la santé publique. Madame la Ministre Agnès Buzyn parle d’«  hygiène numérique ». [6]

Les établissements de santé se consacrent désormais à une double mission sur la vie de leur patient : protéger à la fois leur santé mais aussi leurs données.

Sources

[1] Le RGPD dans les établissements sanitaires et médico-sociaux – Journée d’étude du 30 janvier 2020. Ascodocpsy. Mise à jour le 13 décembre 2020.

Consulté le 7 décembre 2019 sur



[2] Datavisulation du RGPD. CNIL. Consulté le 7 décembre 2019 sur https://www.cnil.fr/fr/reglement-europeen-protection-donnees/dataviz

[3] Atawo Consulting.Intelligence artificielle - État de l’art et perspectives pour la France. Minsitère de la cohésion des territoires, Ministère de l'économie et des finances. Paru en février 2019. ISBN : 978-2-11-152634-1. ISSN : 2491-0058. Consulté le 7 décembre 2019 sur

[4] Portail d'Accompagnement Cybersécurité des Structures de Santé. Consulté le 7 décembre 2019 sur

[5] Ministère des Solidarités et de la Santé. Campagne national d'information sur la sécurité en santé. Publiée le 28 novembre 2019. Consulté le 7 décembre 2019 sur

[6] Buzin, Agnès. Discours sur le Tour de France de la e-santé du 28 novembre 2019. Consulté le 7 décembre 2019 sur

[7] Club de la sécurité de l'Information Français (CLUSIF). Le traitement des données de santé. Publié en avril 2019. Consulté le 7 décembre 2019 sur


Les recommandations de la commission d'enquête sénatoriale sur la souveraineté numérique

Six mois après sa création, la Commission d'enquête du Sénat sur la souveraineté numérique a remis son rapport le 1e octobre 2019. Considérant le cyberespace comme un champ de compétition entre les États, la Commission estime qu'il y a urgence d'agir pour une meilleure défense de la souveraineté numérique de la France. Aussi cinq (5) recommandations sont formulées pour y arriver. 

Dans ce rapport de plus de 250 pages, la commission sénatoriale définit la souveraineté numérique comme la "capacité de l'État à agir dans le cyberespace (..) [sur la base de l'autonomie] d'appréciation, de décision, et d'action (..), [et à] maîtriser [les] données, [les] réseaux, et [les] communications électroniques". Elle y entrevoit un triple enjeu. Éthique, défendre "l'autonomie informationnelle" des ses citoyens qui sont des sujets de droit et non des données à exploiter. Sécuritaire, assurer sa cyberdéfense. Économique, protéger les données stratégiques de ses entreprises contre les lois à portée extraterritoriale. Le renforcement de la souveraineté passe donc par une meilleure maîtrise des trois (3) couches du cyberespace: la couche matérielle, la couche logique (les protocoles et les logiciels), la couche sémantique ou informationnelle.


1. Définir une stratégie nationale numérique
Pour arriver à une meilleure articulation des efforts jugés trop dispersés, la commission recommande la transformation du Conseil national du numérique en un Forum de concertation temporaire sur la souveraineté numérique. Il réunirait les Administrations de l'État, les collectivités, des parlementaires, des universitaires et des entreprises. A l'expiration de son mandat d'une durée de deux (2) ans, le Parlement et le gouvernement feraient les arbitrages nécessaires relativement aux recommandations pour orienter sur le long terme la politique nationale en matière de souveraineté numérique.

2. Inscrire l'effort de souveraineté numérique dans le temps
Afin faciliter le contrôle parlementaire sur l'exécution de la politique de souveraineté numérique, une loi d'orientation et de suivi de la souveraineté numérique (LOSSN), à l'instar de la loi de programmation militaire, devrait être adoptée. Elle devrait permettre de s'attaquer à deux chantiers urgents: l'attractivité du territoire en ce qui concerne les infrastructures d'internet (câbles sous-marins, centre de données...) et l’accélération de  sa couverture numérique. Et aussi orienter l'action de l’État en vue d'arriver à la fourniture d'une carte d'identité numérique, à la création d'une cryptomonnaie publique sous l'égide de la BCE, et à l'imposition  des multinationales du numérique selon le critère du lieu de consommation.

3. Protéger les données personnelles et les données économiques stratégiques
A partir du bilan sur la portabilité des données personnelles reconnue dans la loi pour une République numérique et le RGPD, il faut envisager la faisabilité du point de vue technique et opérationnelle de l'obligation d'interopérabilité. Par ailleurs, pour échapper aux lois de portée extraterritoriale, il faut travailler à faire émerger des solution d'hébergement et de stockage des données économiques sensibles auprès d'entreprises françaises ou européennes. Bien évidemment, la commission estime d'un côté qu'il faut s'opposer au Cloud Act, et de l'autre invite à réfléchir à l'extension du RGPD aux données sensibles des personnes morales. L'idée étant de pouvoir sanctionner les intermédiaires qui transmettraient ses données à un pays étranger hors de tout mécanisme légal d'entraide.

4. Adapter la réglementation aux défis numériques
Des mesures, s'appuyant notamment sur la directive ECN, peuvent pour renforcer la concurrence dans le secteur et éviter les effets néfastes que poseraient les entreprises systémiques. L'adaptation implique également une utilisation de l'information pour arriver à une meilleure régulation par la donnée. Cela permettrait de mieux orienter le marché en détectant à temps certains signaux faibles et les risques systémiques. Il faut aussi réfléchir à la faisabilité de nouvelles régulations sectorielles comme la mutualisation des données d'une activité afin de faciliter la concurrence (après avoir obtenu un accord en ce sens au sein de l'OCDE) .

5. Utiliser les leviers de l'innovation et du multilatéralisme
Le renforcement de la souveraineté numérique passera par l'innovation dans le domaine du numérique. Cela exige des actions au niveau national et européen afin de mobiliser les ressources nécessaires (via la commande publique, le crédit d'impôt recherche...) pour encourager et soutenir les projets innovants. La France doit porter également cette problématique au niveau international en promouvant sa vision de la cybersécurité selon laquelle, le droit international est applicable au cyberespace, et que l'attribution d'une cyberattaque relève de la décision souveraine de l'État.

Il s'agit bien d'une contribution parlementaire dans l'espoir d'orienter le débat public autour cette notion de souveraineté numérique. Laquelle traduit bien des inquiétudes notamment en ce qui concerne la domination des GAFAM perçus souvent comme les chevaux de Troie d'une politique de puissance des États-Unis.

Sources:

QUIVIGER, Pierre-Yves. Nouveaux cahiers du Conseil constitutionnel [en ligne]. Paris: octobre 2017 [consulté le 4 décembre 2019].  Une approche philosophique du concept émergent de souveraineté numérique. <https://www.conseil-constitutionnel.fr/nouveaux-cahiers-du-conseil-constitutionnel/une-approche-philosophique-du-concept-emergent-de-souverainete-numerique

MISTRAL Jean-Pierre. Village de la Justice [en ligne]. s.l: 5 février 2019 [consulté 8 décembre 2019]. Le Cloud Act, des questions et des réponses <https://www.village-justice.com/articles/cloud-act-des-questions-des-reponses,30601.html >

UTERSINGER Martin. Le Monde [en ligne]. Paris: 20 novembre 2019. L'incertaine mais nécessaire "souveraineté numérique" [consulté le 03 décembre 2019]. <https://www.lemonde.fr/idees/article/2019/11/20/l-incertaine-mais-necessaire-souverainete-numerique_6019810_3232.html >

DES GROTTES Gaëlle Maraud. Wolters Kluwer [en ligne]. Paris: 11 octobre 2019 [consulté le 13 décembre 2019]. Souveraineté numérique: le Sénat pointe l'absence de coordination des politiques publiques. <https://www.actualitesdudroit.fr/browse/tech-droit/intelligence-artificielle/23849/souverainete-numerique-le-senat-pointe-l-absence-de-coordination-des-politiques-publiques >

jeudi 12 décembre 2019

La menace des vidéos trafiquées. Deepfake.

Des logiciels gratuits permettent de remplacer un visage par un autre, faisant tenir à quelqu'un de faux propos... Intéressant le monde du spectacle, cette technologie ouvre aussi la voie à toutes les manipulations [1] et aux fausses informations.


« J'ai une grande nouvelle : aujourd'hui, nous avons éradiqué le sida. Dieu merci. Je m'en suis personnellement occupé » , assène Donald Trump lors d'un bref discours sur fond de drapeaux américains, diffusé cet automne 2019. Il aurait pu le dire... mais le locataire de la Maison Blanche n'a jamais prononcé ces mots. La vidéo est un fake (réalisé par Solidarité sida), et pas n'importe lequel :  un deepfake, c'est-à-dire un média (images et sons) généré ou modifié par un algorithme. En pratique, le deepfake consiste le plus souvent à transformer un visage en un autre... Et donc à faire dire ou faire faire n'importe quoi à n'importe qui. L'information est bien entendu trop belle pour être vraie. Et pour cause : cette vidéo est un faux, une opération de communication sur les réseaux sociaux lancée en octobre par l'ONG Solidarité Sida, qui affirme qu'elle pourrait devenir réalité si les chefs d'Etat le décidaient. [4]

Plus précisément, le deepfake, ou hypertrucage, est une technique de synthèse d'images basée sur l'intelligence artificielle. Le terme deepfake est un mot-valise formé à partir de deep learning (apprentissage profond) et de fake (faux). Cette technique peut être utilisée pour créer des infox (information et intoxication) et des canulars malveillants [2].
Dans le deepfake ci-dessus, les postures et le visage du président américain permettaient de deviner l'imposture. Mais pour combien de temps encore ? « Nous sommes déjà capables de générer des vidéos dont il est pratiquement impossible de savoir, à l'oeil nu, si le contenu est réel ou non », prévient Hao Li. 
Hao Li, chercheur allemand installé en Californie passe son temps en conférence, il a aussi monté sa start-up, Pinscreen, spécialisée dans la création sur ordinateur d'avatars photoréalistes. « Les deepfakes peuvent être utilisés pour répandre de fausses informations, et violer la vie privée des utilisateurs », s'inquiète le spécialiste, conscient des dérives possibles. 

En réalité, n'importe qui, aujourd'hui, avec du temps et quelques compétences informatiques, peut produire un deepfake de A à Z. « Il n'y a pas encore de logiciel tout-en-un qui s'installe sur Windows, mais on trouve facilement les codes en ligne, ainsi que des tutoriels », rappelle Sébastien Marcel, qui dirige une équipe de recherche sur la sécurité biométrique à l'IDIAP, un institut suisse indépendant [5]

Un autre échantillon spectaculaire, montrant l'incrustation de la voix et la bouche de Jordan Peele dans une vraie vidéo de Barack Obama. Cet exemple est un projet du cinéaste Jordan Peele et du PDG de BuzzFeed, Jonah Peretti  [3]

Le phénomène du deepfake a pris une très grande ampleur en quelques mois seulement depuis l’automne 2019, à tel point que certains Etats ont souhaité rapidement réguler l'utilisation de cette technologie.
Dès le 1er Janvier 2020, la Chine va interdire et poursuivre en justice les utilisateurs postant ce type de vidéos et les plateformes les hébergeant. La Californie a déjà adopté une législation similaire mais uniquement pour les publicités politiques. Les Etats-Unis souhaitent légiférer avant le début de la campagne présidentielle de 2020.
Facebook et Twitter sont aussi à pied d'œuvre pour développer des outils qui permettent de détecter automatiquement ce type de vidéos et d'images et à les retirer le plus rapidement de leurs plateformes. [6]

Toutefois, certains militants et chercheurs mettent en garde contre une interdiction pure et simple des hypertrucages. Ils craignent qu’une loi donnant à des représentants du gouvernement le pouvoir de décider ce qui est vrai ou faux, puisse être utilisée pour censurer des opinions impopulaires ou dissidentes.
Plus généralement, Sam Gregory  (Co-Chair Partnership on AI Expert Group on societal influence),  nous met en garde contre les risques mais nous conseille aussi de ne pas céder au battage médiatique. 
« Il est bon de ne pas envisager le pire, mais de profiter de ce moment pour avoir une discussion rationnelle. L’effet le plus néfaste de ces contenus tient au fait qu’ils poussent les gens à tout remettre en question. » [3]

Pour les auditeurs du Cnam ayant accès à Europresse :
[1] Tual, Morgane avec Untersinger,Martin. La menace des vidéos trafiquées. Le Monde, mardi 26 novembre 2019. [En ligne via Europresse] : [consulté le 4 décembre 2019] https://nouveau-europresse-com.proxybib-pp.cnam.fr/Link/CNAM/news%c2%b720191126%c2%b7LM%c2%b7767747

Une version courte de l’article en libre accès :
[1bis] Tual, Morgane avec Untersinger,Martin. La menace des vidéos trafiquées. Le Monde, mardi 26 novembre 2019. [En ligne] : [consulté le 4 décembre 2019]
 https://www.lemonde.fr/pixels/article/2019/11/24/deepfakes-faut-il-avoir-peur-de-ces-videos-trafiquees_6020333_4408996.html

[2] Wikipedia. Deepfake.  Ref n°4 :  « Experts fear face swapping tech could start an international showdown » Jon,Christian, sur The Outline , 28 février 2018. [En ligne] : [consulté le 4 décembre 2019]  https://fr.wikipedia.org/wiki/Deepfake

[3] Gregory, Sam. Comment réagir face aux deepfakes. Internet Health Report 2019, Avril 2019. [En ligne] : [consulté le 4 décembre] https://internethealthreport.org/2019/comment-reagir-face-aux-deepfakes/?lang=fr

Pour les auditeurs du Cnam ayant accès à Europresse :
[4] Granja, Christelle. New fake et vieilles ficelles.... Libération, no. 11960, Cahier spécial, lundi 18 novembre 2019 [En ligne via Europresse] : [consulté le 4 décembre 2019] https://nouveau-europresse-com.proxybib-pp.cnam.fr/Link/CNAM/news%c2%b720191118%c2%b7LI%c2%b799b0da1a1e9c53b91806797d2d50d43b

Une version courte de l’article en libre accès :
[4bis] Granja, Christelle. New fake et vieilles ficelles.... Libération, no. 11960, Cahier spécial, lundi 18 novembre 2019 [En ligne] : [consulté le 4 décembre 2019]
https://www.liberation.fr/futurs/2019/11/17/new-fake-et-vieilles-ficelles_1763934

[5] Benjamin, Jérôme. Images virtuelles, vidéos truquées... Peut-on encore croire ce que l'on voit. Aujourd'hui en France (site web) ,Essentiel matin, vendredi 25 octobre 2019 [En ligne via Europresse] : [consulté le 4 décembre 2019] https://nouveau-europresse-com.proxybib-pp.cnam.fr/Link/CNAM/news%c2%b720191025%c2%b7PJW%c2%b78180148

[6] Grumiaux, Mathieu. La Chine interdira les deepfakes non-signalés dès le 1er janvier 2020. Clubic, 03 décembre 2019 [En ligne] : [consulté le 4 décembre 2019] https://www.clubic.com/technologies-d-avenir/intelligence-artificielle/actualite-878345-chine-interdira-deepfakes-signales-1er-2020.html