lundi 24 mai 2021

Lancement du Programme Atlas : des standards français pour la transformation numérique

En octobre 2019, l'Afnet avait initié un ambitieux projet : le programme Atlas destiné à fournir des standards numériques à l'industrie française. Il réunit de nombreux acteurs industriels pour la création de standards de modélisation de type Product Life & Data Management (PLM/PDM), servant entre autres aux simulations et aux jumeaux numériques.  De tels standards devraient rendre la production de modèles et l'utilisation des technologies de simulation numérique plus accessibles aux entreprises et démocratiser leur utilisation. Le premier workshop du programme, intitulé Simulation Numérique, a eu lieu le 19 mai dernier.

Atlas s'inscrivant dans le Programme Investissements d'Avenir, ces standards se voudront à la fois publics, internationaux et intersectoriels. Les modèles numériques sont aujourd'hui créés à partir de composants issus de dizaines d'outils différents, assemblés au prix d'un effort de mise à niveau des formats utilisés par les différents producteurs des parties composant le modèle final. Deux acteurs participent à leur construction et facilitent les décisions lors du processus de production :

- L’architecte système qui évolue dans un environnement "concepteur". Il définit les spécifications, les performances attendues et la constitution des systèmes.
- L'architecte simulations numériques qui produit des évaluations afin de déterminer le plus tôt possible que les performances attendues soient atteintes et modifie les dessins en conséquence, le cas échéant. 

Leurs travaux sont rendus possibles par la collaboration d'un réseau d'opérateurs favorisant les transferts et la mise à disposition de modèles inter-opérés pour former un modèle global utilisable et fidèle à son objet. Mais de tels réseaux restent encore très rares dans le paysage industriel français et nécessitent des conditions telles qu'une forte concentration de filière [1], ou des activités de recherche de pointe réunissant des laboratoires collaborant autour d'un même sujet [2]. Les réflexions de l'Afnet et ses partenaires portent sur l'acquisition de ces modèles à travers la disponibilité des standards, et comment les relier entre eux, grâce à la définition de méta-modèles.

Pour ce faire l'Afnet s'appuie sur 15 ans d'expérience dans la mise en place et la réflexion autour des standards dans les filières industrielles, comme le pré-projet Seine sous le patronage de la DGE entre 2006 et 2008, et sur les sujets design et manufacturing, supply chain, maintenance et cybersécurité, regroupés autours de projets multi-sectoriels tels BoostAero depuis 2005, ou la norme STEP AP242 depuis 2015. Ces réflexions ont été menées en collaboration entre des associations, des opérateurs et des institutions. Elles ont accompagné la création de plate-formes collaboratives de filières [3], et plus de 7000 entreprises de toutes catégories ont pu y participer.

Les filières participant à Atlas sont catégorisées selon deux types : en « objets » et chaine d'assemblage comme l'aéronautique, l'automobile, l’industrie électronique etc, ou en « projets » comme le bâtiment, la chimie des matériaux, le nucléaire, la métallurgie, ou les systèmes énergétiques. Elles sont représentées par des comités de pilotage stratégique composés de membres de l'Afnet, Industrie du Futur, le programme MINnD, l'AFIS, ainsi que des représentants d'organisations professionnelles tels que la FIEEC, Fer de France. Syntec, France Chimie, AIMCC, Galia, la GICAN, le Gifas, Building Smart France  et PFA.

Le programme est structuré en groupes de travail, réunissant les représentants des filières, en fonction des lots et des sujets qui ont été définis durant la phase préparatoire du projet. Les stratégies et cas d'usage, le développement de standards, l'implémentation chez les éditeurs, la formation des démonstrateurs  (POCs), et la communication au public, forment les lots. Les domaines, qui doivent couvrir l'ensemble du cycle de vie du produit, sont les suivants :

  • Ingénierie système  et MBSE, piloté par l'AFIS
  • PLM, end-to-end et Management des configurations, piloté par l'AFNET
  • Logistique et global Supply-Chain, piloté par l'AFNET
  • Maintenance piloté par l'AFNET
  • Données et Infrastructures (traçabilité, blockchain, cybersecurité, IA) piloté par l'AFNET
  • Le Smart Manufacturing piloté par l'Alliance Industrie du Futur
  • Le BIM piloté par MINnD
  • Cet ensemble doit faciliter la généralisation des concepts de Jumeau numérique - piloté par l'AFNET et  l'Alliance Industrie du Futur qui vont pouvoir s'appuyer sur ces composants. Les homologues internationaux, NAFEMS et INCOSE assureront leur soutien pour la partie simulation numérique.

Une équipe de France sera constituée en partenariat avec l'AFNOR pour que les travaux soient représentés sur la scène internationale et afin d'augmenter la coordination et l'efficacité entre les groupes de travail.
Le projet Atlas pourrait ainsi rejoindre les réflexions de l'INCOSE et de la NAFEMS. Cette dernière a déjà engagé une réflexion couvrant l'ensemble des besoins des secteurs et des cycles de vie des modèles [4]. Deux pistes possibles sont à l'étude :

  • Le MCP, Model Caracterisation Pattern (disponible auprès de l'INCOSE), représentation générale couvrant des modèles 3D, CFD et multi-physique. Ce standard peu déterminé est spécifiable à partir de listes d'attributs spécifiques à attribuer selon le type de modèle. Il est très complexe, mais permet de disposer d'une couverture globale du cycle de vie dans une optique de réutilisation.
  • Le MIC, Model Identity Card est un concept couvrant le début de cycle jusqu'à l'exploitation du modèle, visant à préparer les phases de construction de modèles complexes, dans la façon d'établir et peupler les architectures, produites par des entités différentes de l'intégrateur. Il permet de spécifier, contrôler les modèles, gérer leur assemblage et les capitaliser.

Concernant l'Archivage, une piste est à l'étude : le projet LOTAR (LOng Term ARchival), basé sur le standard ISO STEP AP 209 destiné au stockage des données de simulation. En terme d'application directe, MoSSEC est une adaptation des MIC pour être compatible avec LOTAR. Il semble que cette piste soit privilégiée pour le moment.

La validation du programme a eu lieu en octobre 2020. Ce projet, financé moitié par l’État, moitié par les filières industrielles pour un montant total de dix millions d'euros, amorce un cycle de trois ans. L'Afnet recherche des participants pour une réflexion élargie et profitable à un maximum de secteurs. Les plans de travail sont en cours et doivent être élaborés avant 2022.

samedi 22 mai 2021

La gestion des connaissances en 2021

La gestion des connaissances permet principalement aux organisations de capitaliser les savoirs, de faciliter leurs transmissions et de faire évoluer les métiers. Cela passe notamment par le partage efficace des informations et par le travail collaboratif. [1]

Mettre en place un dispositif de gestion des connaissances 

Les entreprises rencontrent des difficultés concernant la conservation et l'exploitation de leur patrimoine informationnel. Cela handicape leur efficacité interne, ternit leur attractivité et freine leur compétitivité. [2]

Le Knowledge Management va permettre de conserver facilement la connaissance et les savoir-faire, d'assurer un accueil convivial et professionnel aux nouveaux arrivants, de faciliter la montée en compétences des collaborateurs, tout en valorisant et rendant disponibles les expertises.

Mettre en œuvre la démarche de Knowledge Management

La capitalisation des connaissances est un projet d'entreprise à part entière qui mobilise de manière transversale toutes les composantes de l'organisation. Cette gestion des connaissances est donc un enjeu majeur ; notamment pour anticiper la perte des savoirs due aux départs en retraite et/ou des mutations des collaborateurs expérimentés. [3]

Cette démarche va également permettre la valorisation et le renouvellement du patrimoine informationnel de l'organisation. Celle-ci peut être divisée en 3 phases : 

- L'analyse stratégique du patrimoine informationnel. Il faut identifier les différents types de connaissances et en particulier, les connaissances dites critiques, la démarche doit être également incluse dans les objectifs stratégiques de l'entreprise ; 

- La préservation du patrimoine de connaissances. Cette phase concerne tous les domaines de connaissance à forte composante tacite, essentiellement détenue par les experts. 

- Le partage ou le transfert des connaissances. La conservation permet de recueillir et de structurer le contenu sensible d'un domaine de connaissance, et ainsi constituer un corpus de connaissances. Il est essentiel ensuite de transférer la connaissance à des communautés qui doivent l'utiliser pour leurs pratiques opérationnelles. [2]

Rendre accessible les connaissances

Pour capitaliser et partager les connaissances, il faut mettre à disposition au minima :

- Un portail (appelé aussi base de connaissances) comme accès unique aux ressources et à d'autres informations utiles aux collaborateurs ; 

- Des communautés de pratiques (CoP) pour encourager et favoriser le travail collaboratif. Ces dernières se basent sur la confiance mutuelle et le bien commun de tous. Elles ont pour finalité la valorisation des savoirs échangés et créés en les capitalisant. [4]

La gestion des connaissances se positionne désormais comme une démarche incontournable pour innover et rester compétitif.

Sources

[1] Archimag. La gestion des connaissances : une démarche incontournable pour innover et rester compétitif. Publié le 23.11.2020. Disponible en ligne : <https://www.archimag.com/bibliotheque-edition/2020/11/23/gestion-connaissances-km-demarche-incontournable-innover-rester> 

[2] Ourouk. Livre blanc : renouveler le regard sur le knowledge management : une approche par les usages. Edition 2021. Disponible en ligne (consulté le 22.05.2021) : <http://www.ourouk.fr/livre-blanc-sur-le-knowledge-management2021>

[3] Archimag. Comment éviter la perte d'informations, d'expérience et de connaissances. Publié le 11.12.2020. Disponible en ligne : <https://www.archimag.com/digital-workplace/2020/12/11/knowledge-management-plateforme-unification>

[4] INTD. Titre 1 - Chef de projet en ingénierie documentaire et gestion des connaissances. Cours de Louis-Pierre Guillaume. Avril 2021.

jeudi 13 mai 2021

Où le régulateur, voulant sauver la planète grâce à la finance, favorisera la numérisation de l'économie

Ces dernières années, la réglementation a été un levier de premier choix pour pousser les entreprises à franchir le tournant numérique. Si le règlement européen sur la publication d’informations en matière de durabilité dans le secteur des services financiers Sustainable Finance Disclosure Regulation (SFDR) a pour but de proposer un label écologique aux investisseurs, elle pourrait accélérer indirectement la tranformation numérique des entreprises en faisant des institutions financières de nouveaux intermédiaires de cette transformation.

Opérations à distance, analyses des marchés, trading à hautes fréquences, le secteur financier a toujours eu de l’appétence pour les données massives. Mais depuis quelques années les organismes de surveillance des marchés les obligent à produire et transmettre un certain nombre de données, dans un but qui dépasse le cadre de la poursuite du gain ou de l'efficacité opérationnelle. Des institutions de surveillance, telle l'Autorité des Marchés Financiers, réclament elles aussi leur part d'informations. 

Ainsi l'AMF reçoit à elle seule plus d'un terabit de données par mois [1], soit plus d'une centaine de millions de lignes, en provenance des rapports des établissements financiers français. La plateforme ICY [2] mise en place en 2018 par l'Autorité, pour l'aider à la lutte contre la fraude, les escroqueries, le financement du terrorisme. Si les institutions financières sont les premières de cordée pour l'adoption de l'intelligence artificielle [3], elles concentrent, la majorité de leurs dépenses en TICs dans une perspective anti-blanchiment et Know Your Customer [4], afin d'éviter d'être rendues complices d'éventuelles malversations.

Dans ce même esprit reporting, le 10 mars 2021, la loi SFDR [5] est entrée en application. Elle-même s'inscrit d'ailleurs dans la politique de l'OCDE [6] en matière de transition écologique et pourrait avoir des implications qui transcendent le champ d'application du secteur financier. Cette loi obligera les organismes financiers mentionnant la finance durable dans leurs communications à justifier la traçabilité de leurs instruments, l'utilisation précise des investissements qui en sont issus par des bénéficiaires dont les activités devront dorénavant  être passées à la loupe. 

Cette mesure de transparence doit permettre au consommateur européen d'être mieux informé de l'utilisation de son épargne et limiter le green washing. Plus qu'un simple argument marketing accompagnant les documents et contrats de leur clientèle d'épargnants, la régulation devrait prévoir un certain nombre d'avantages fiscaux aux détenteurs du précieux sésame si elle suivait, à terme, les recommandations de l'OCDE. L'article 4 de la loi obligera aussi les organismes financiers à faire figurer la mention de l'absence du "label" finance durable lorsqu'elles ne souscriront pas aux exigences de reporting inscrites dans la législation.

Ces reportings, dont les modèles sont inspirés un corpus de formats européens [7] et internationaux [8], nécessitent un certain nombre de données de type Know Your Customer. Les banques seront donc poussées [9] à réclamer des informations,  dont la liste n'est pas encore totalement arrêtée [10], mais très conséquentes, aux entreprises émettrices des actions composant leurs supports d’investissements estampillés "finance durable" ou "écolabel" avant d'accepter de les y inclure. Ces informations transmises sous forme de données détaillés [11] sur leurs activités ne devraient pouvoir être délivrées que dans la mesure où elles ne soient capables de les leur fournir, grâce à un système d'information suffisamment développé et intégré à leurs processus de production.

C'est donc par des avantages en terme de financement que les entreprises pourraient être encouragées à la fois à adopter  une démarche écologique [12] et à se doter des moyens de fournir les informations réclamées par les banques. Le projet de loi actuellement en discussion au Sénat "Climat et résilience" devrait avoir un impact potentiel similaire [13]. 

Si les avantages et pénalités (non) prévus aux règlements sont loin d'être suffisants pour engager l'économie vers un tournant écologique, la création même de ces taxonomies et leur implémentation très progressive dans les secteurs concernés laissent planer la possibilité d'un revirement réglementaire plus engageant, voir coercitif. Il s'agit donc d'un sujet à surveiller de près dans les prochaines années.

mercredi 12 mai 2021

Recherche documentaire : une étude pour déterminer les pratiques des chercheurs français

Le consortium Couperin.org a publié début mars les résultats d’une enquête [1] lancée entre mai et juin 2020 par le biais d’un questionnaire relayé par les établissement et réseaux scientifiques français. Le but était de recueillir les pratiques de recherche documentaire des chercheurs, et ainsi de comprendre les réflexes des usagers en matière d’outils et d’interfaces de consultation. Parmi les 5598 réponses analysées, 74% des répondants provenaient du corps de recherche Sciences et Technique médicales, 26% au corps des Sciences humaines et sociales.

Des portails institutionnels trop lourds 

L’étude indique que 45% des répondants se connectent souvent aux portails documentaires de leurs institutions respectives. Cependant, ceux-ci mettent en lumière une certaine lourdeur dans l'accès aux ressources académiques. Ce manque d’ergonomie des portails se formalise par des parcours d’accès trop longs, une multiplicité des portails, ou encore une trop grande diversité des droits d’accès. [2]

Les outils d’accès aux ressources scientifique

L’utilisation d’un moteur de recherche généraliste reste une pratique fréquente pour les chercheurs : plus de deux tiers des répondants disent les utiliser dans le cadre de leurs recherches d’informations. L’enquête indique également que l’utilisation des moteurs de recherche généralistes est plus élevée chez les répondants âgés de 30 à 45 ans.

Concernant l’accès à un article intégral, 57% des répondants indiquent utiliser Google Scholar qui semble donc ancrée dans les pratiques des chercheurs, devant les plateformes éditeurs (Elsevier, Springelink, …) utilisées par 47% des répondants. Il est cependant intéressant de noter que 80% des répondants appartenant au corps des Sciences Humaines et Sociales indiquent utiliser des plateformes de revues telles que CAIRN ou JSTOR comme point d’entrée à l’accès de l’information. L’utilisation des archives ouvertes (HAL) est annoncée par 40% des répondants.

Sci-Hub, plateforme fournissant un accès libre à des dizaines de million d’articles scientifiques piratés est utilisé par 36% des répondants, dont 50% pour les moins de 50 ans. [3]

Un manque de connaissance des outils 

80% des répondants disent ne pas connaître les outils de facilitation à l’accès des textes intégraux tels que Unpaywall ou Open Acces Button : ces outils proposent souvent des extensions sur navigateurs qui signalent les liens vers des versions accessibles des articles.

ISTEX [4], le vaste programme d’acquisition d’archives scientifiques proposant un accès en ligne aux collections rétrospectives des publications scientifiques reste également méconnu par 80% des répondants à l’étude. Il en est de même PANIST [5], plateforme d’accès aux archives courantes acquises auprès de l’éditeur Elsevier, méconnue par 87% des répondants.

L’enquête met également en lumière la faible utilisation des services de documentation par les répondants. En effet, seulement 4% d’entre eux disent toujours faire appel au service documentaire pour leurs recherches. Ils sont cependant 50% à y faire appel lors de recherches ponctuelles.

Sources :

[1] BALIGAND Marie Pascale, COLCANAP Grégory, HARNAIS Vincent, ROUSSEAU-HANS Françoise, WEIL-MIKO Christine. Les pratiques de recherche documentaire des chercheurs français en 2020 : étude du consortium Couperin. Couperin.org [2021]. En ligne [consulté le 12/05/2021]. Disponible en ligne à l’adresse <https://hal.inrae.fr/hal-03148285/document>

[2] OURY Antoine. Recherche : Google et Sci-Hub, plus pratiques que les accès des bibliothèques ?. Actualitté.com [03/03/2021]. En ligne [consulté le 08/05/2021]. Disponible à l'adresse <https://actualitte.com/article/99158/edition/recherche-google-et-sci-hub-plus-pratiques-que-les-acces-des-bibliotheques

[3] DEMEURRE Yohan. Cette hackeuse pirate la science pour la rendre disponible à tous ! Sciencepost [31/03/2021]. En ligne [consulté le 08/05/2021]. Disponible à l'adresse <https://sciencepost.fr/cette-hackeuse-pirate-la-science-pour-la-rendre-disponible-a-tous/

[4] Ministère de l’enseignement supérieur et de la recherche. Présentation du projet ISTEX. . En ligne [consulté le 08/05/2021]. Disponible à l'adresse <http://www.cpu.fr/wp-content/uploads/2012/04/Projet_ISTEX.pdf>

 [5] Couperin. Ouverture de PANIST, la Plateforme d'Archivage National de l'Information Scientifique et Technique. En ligne [consulté le 08/05/2021].  Disponible à l'adresse <https://www.couperin.org/breves/1369-ouverture-de-panist-la-plateforme-d-archivage-national-de-l-information-scientifique-et-technique>

dimanche 9 mai 2021

Digital Workplace : Un espace de travail dématérialisée

Les nouvelles technologies ont bouleversé nos façons de travailler, simplifiant les processus, fluidifiant les échanges en augmentant la productivité. En effet, en pleine transition numérique, la Digital Workplace apparaît de plus en plus comme un moyen de répondre aux attentes des collaborateurs tout en modernisant les espaces de travail. Avec la crise de la covid-19, on a assisté à une accélération du déploiement de la Digital Workplace  au sein des organisations [1]. Répondant aux attentes des employés et des décideurs, la Digital Workplace semble avoir de belles perspectives devant elle, d’autant que le marché est particulièrement en constante évolution. Pour preuve, il devrait atteindre les 2 milliards d’euros en France en 2023, avec une croissance annuelle moyenne avoisinant les 5 % [1].

La Digital Workplace en quelques mots :

  • Elle unifie l’ensemble des outils de communication de votre entreprise (e-mails, messagerie instantanée, réseau social d’entreprise et visioconférence) ;
  • Elle réinvente la gestion des documents et le partage d’informations ;
  • Elle simplifie le travail en équipe grâce à des espaces dédiés au travail collaboratif ;
  • Elle rassemble au même endroit tous les outils utiles à vos collaborateurs ;
  • Elle offre une nouvelle expérience collaborateur, davantage tournée vers l’intelligence collective et les modes de travail alternatifs[2].

Digital Workplace, nouveau pilier des entreprises :

Véritable accélérateur de la transformation numérique, la pandémie de la Covid-19 a convaincu les entreprises de la nécessité de repenser efficacement le « travailler ensemble», et ce dans une perspective durable. La conviction de Devoteam Management Consulting, cabinet de conseil en management et transformation digitale est claire :  "la Digital Workplace est un élément clé dans cette transformation. Elle offre aux collaborateurs la possibilité d’accéder à distance et à tout moment à leur environnement de travail tout en optimisant la collaboration. Les solutions doivent être simples, multi-terminaux, sans rupture entre les modes de communication et sécurisées ! " souligne Sophie Malarbet, Associate Partner au sein du Cabinet [3].

Articulation entre Digital Workplace et la tendance anywhere opérations 

La pandémie mondiale a non seulement ébranlé le statu quo dans la manière dont les entreprises réagissent aux changements d'infrastructure, mais elle a complètement modifié le paysage des processus métier essentiels. Le passage massif aux opérations en ligne a rendu une infrastructure flexible impérative.Gartner prédit que d'ici à la fin de 2023, 40% des entreprises adopteront un modèle de bureau hybride plus fluide où les employés ne seront pas obligés de faire de longs trajets ou des horaires 9-5 standard[4]. En effet, pour Gartner, Anywhere Opérations offrira une expérience à valeur ajoutée unique dans cinq domaines clés : Accès à distance sécurisé, infrastructure cloud et de périphérie, collaboration et productivité, automatisation pour prendre en charge les opérations à distance et quantification de l'expérience numérique[5].

Les approches de Digital Workplace

En fonction de l’endroit où travaillent ses collaborateurs aujourd’hui, l’entreprise doit définir là où les collaborateurs doivent travailler demain, puis agir en choisissant une stratégie : 
  • Stratégie 1 : Amener la Digital Workplace dans le flux de travail. Celle-ci doit s’articuler au plus près de l’email, de la messagerie instantanée et de l’environnement de réunions. Elle doit aiguiller l’utilisateur vers là où sa contribution est attendue, proposer des actions (sur les documents, les tâches) depuis le flux de travail, amener de l’intelligence pour traiter les informations plutôt que les accumuler par ordre chronologique ; 
  • Stratégie 2 : Amener le flux de travail dans la Digital Workplace. Celle-ci doit s’articuler autour du processus de l’utilisateur, qui peut alors prendre connaissance d’une activité et la traiter, converser avec ses collègues autour du processus, gagner du temps dans le traitement des informations via un environnement consolidé [6].

Sources :

[1] Eric Le Ven, Archimag, Digital workplace : Ce que pensent les organisations Françaises, 10/03/2021.Disponible en ligne à l’adresse <https://www.archimag.com/digital-workplace/2021/03/10/supplement-archimag-collaboratif-enquete-digital-workplace>consulté le 04/05/2021

[2]  Paul Maubareyt, Benoît Renoul, Blog talkspirit ,Tout savoir  sur la digital workplace,15/05/2020. Disponible en ligne à l’adresse <https://blog.talkspirit.com/tout-savoir-sur-la-digital-workplace-definition/> Consulté le 04/05/2020

[3] Figaro Partner, l’âge d’or de la Digital Workplace, 09/2020. Disponible en ligne à l’adresse
<https://www.nexthink.com/wp-content/https://uploads/2020/09/Le-Figaro-Partner-Digital-Workplace> Consulté le 05/05/2021

[4] Estelle Rafin ,Blogdumodérateur, Les 9 tendances  technologiques de 2021 selon Gartner< https://www.blogdumoderateur.com/gartner-9-tendances-technologiques-2021/> 
[5] Kasey Panetta ,Gartner, Principales tendances technologiques stratégiques de Gartner pour  202, 10/09/2020 . Disponible en ligne à <https://www.gartner.com/smarterwithgartner/gartner-top-strategic-technology-trends-for-2021/> Consulté le 05/05/2021

[6] Michel Ezran , Blog Lecko Digital Workplace : Une approche pragmatique pour mieux arti-culer le local et le global <https://blog.lecko.fr/dwp-mieux-articuler-local-et-global/> Consulté le 05/05/2021

samedi 8 mai 2021

Observations sur le télétravail (1)

La crise du COVID-19 aurait fait faire un bon de 10 ans en avant à l’adoption du télétravail [1]. En effet, contraintes par les mesures sanitaires prises pour combattre la pandémie, les organisations qui le pouvaient ont flexibilisé leurs modes de travail pour maintenir leurs activités tout en protégeant la santé de leurs employés. De ce fait, pratiquement du jour au lendemain, le cadre spatio-temporel traditionnel de bon nombre de salariés a volé en éclat sous les coups numériques de la nécessité. 

Cependant, ce qui a été mis en place dans l’urgence n’est pas forcément viable ni même souhaitable à court ou moyen termes, ne serait-ce que parce que le télétravail ne convient pas à tous ceux à qui il a été imposé. C’est pourquoi les conséquences de cette marche forcée et précipitée vers le progrès doivent être rapidement évaluées et, très souvent, corrigées.


Le faux-semblant de la facilité technologique

La transmutation des activités professionnelles du réel au virtuel s’est notamment appuyée sur les technologies de la transformation numérique. Celles-ci offrent des solutions de collaboration, de prise de décision, de gestion des documents et de partage de l’information automatisées qui permettent de travailler à plusieurs, en synchrone comme en asynchrone, et qui sont accessibles de partout via Internet. 

Pour les entreprises qui avaient déjà adopté ces technologies ce fut surtout un changement d’échelle mais, pour celles qui ont dû improviser, la prise de risques est considérable en termes de cybersécurité et de confidentialité des informations [2].  En particulier, en cas de divulgation ou de perte de secrets professionnels ou des affaires, de propriétés intellectuelles, ou de données personnelles, les répercutions juridiques, financières, commerciales et en terme de réputation peuvent être très sévères. Or l’impréparation démultiplie les vulnérabilités qui peuvent trouver leurs origines tout à la fois dans les équipements électroniques, les logiciels, les connections et les pratiques.

Dès lors, comment s’étonner de l’explosion de la cybercriminalité durant la crise sanitaire [3] [4].


La simplicité tragique du Bring Your Own Device (BYOD)

Cette pratique consiste à autoriser les employés à utiliser leurs terminaux personnels à des fins professionnelles (téléphones mobiles, tablettes, ordinateurs…), voire à le leur demander. Or cet expédient est particulièrement périlleux, surtout lorsque ces équipements sont partagés entre les membres d'une même famille. En effet, les entreprises ne peuvent alors ni imposer les mesures de sécurité appropriées ni même contrôler qu'il y en ait d'appliquées. Et, inversement, les activités et les données privées peuvent être captées par les outils mis à disposition par les employeurs [5].

Dans ces conditions, la sécurité des données des uns et des autres, et l’accès au réseau de l’entreprise repose sur :

  • Les connaissances en cybersécurité des salariés et les protections qu’ils mettent en place sur leurs terminaux, à commencer par la présence d’un antivirus performant à jour et l’utilisation de mots de passe forts.
  • Les connaissances informatiques des utilisateurs (système d’exploitation, outils de bureautique et de communication, et paramétrages de sécurité et de vie privée), et la prudence de leur navigation sur Internet. En effet, leur ignorance, leur négligence ou leur naïveté peut causer la perte d’informations ou en compromettre [6].
  • La sûreté des applications installées ou utilisées en ligne, et leur conformité aux règles de protection des données personnelles [7] .

A commencer par celles grand public dont le modèle économique est basé sur la recherche immédiate de la croissance exponentielle du nombre d’utilisateurs et la captation de leurs données à des fins commerciales, au détriment de la sécurité du code, de la confidentialité des données et de la localisation des serveurs (la gratuité est un leurre, la rentabilité financière un impératif). A cet égard, les débuts chaotiques de l’application de vidéoconférence ZOOM ont confiné à la caricature.

Mais aussi la sûreté et la conformité des applications professionnelles fournies par les employeurs car celle-ci collectent parfois les données personnelles, notamment lorsqu'elles ont des fonctionnalités de contrôle du travail des employés [8]. 

  • La sécurisation du Bluetooth et des multiples objets connectés, qui sont parfois conçus pour être à l’écoute, tels que les Assistants Personnels [9]. Potentiellement, ils constituent autant de points d’accès secondaires aux terminaux qui les commandent.


Le maillon le plus faible de la cybersécurité

En définitive, il vaut mieux que les entreprises investissent pour équiper leurs salariés de terminaux mobiles dédiés à leur travail [10]. 

Au premier abord, le coût du contrôle des risques par l’acquisition de la maîtrise matérielle et logicielle de la cybersécurité peut sembler rédhibitoire. Mais en réalité, comparé à celui des conséquences d’une attaque de type Ransomware, il est minime [11].

Pour autant, la mise disposition de ces équipements ne suffit pas à elle seule. Elle doit impérativement être accompagnée de sensibilisations du personnel aux risques, de formations aux outils, ainsi que d’exercices et de tests réguliers [12]. En effet, l’être humain est à la fois la clé de voûte de la cybersécurité et son élément le plus fragile .


samedi 1 mai 2021

Post-vérité et complotisme : le marché de l'information est-il responsable ?

    Le mouvement QAnon aux Etats-Unis ou le succès viral du documentaire "Hold-up" [1] montre la place de choix qu'occupent les réseaux sociaux pour la promotion des théories conspirationnistes. Sphère d'information dérégulée, Internet a favorisé une massification des sources d'information et les médias traditionnels se trouvent aujourd'hui bousculés par des producteurs d'informations "alternatives", sensibles à la lecture complotiste de l'actualité. Sans chercher à discuter du contenu de ces thèses ou du mécanisme de basculement, le but sera ici d'étayer quelques hypothèses pour comprendre comment le marché de l'information a pu participer au déclassement des médias historiques sur Internet et accompagner l'émergence de ces thèses.


Crédit : Gordon JOHSON/Pixabay


L'infomédiation : algorithmes et régime de la visibilité


    En 1996 et 2002, face à la surabondance de contenus informationnels sur leur moteur de recherche, Yahoo! puis Google lancent un service de médiation de l'actualité (Yahoo! et Google News) pour organiser la cacophonie inhérente du web [2]. Ces services, tout comme le PageRank de Google, sont symptomatiques de ce que certains appellent l'ère du clic et de l'attention. Leur adoption par les internautes crée une dépendance des médias envers ces plateformes et les obligent à s'adapter pour ne pas perdre leur audience : 
 
"Face au succès d'infomédiaires tels que Google Actualités, la politique des différents éditeurs est ambiguë, voire ambivalente, faisant se côtoyer mise en cause d'une concurrence considérée comme déloyale et souci presque obsessionnel d'un bon référencement, le tout pesant sur la nature des contenus ainsi produits" [3].

    Pour conserver ses parts de marché, la presse en ligne doit adopter les codes du web, indexer sa production à la demande des internautes et se plier au format court [4]. Une journaliste du Monde le confiait à Guillaume Goasdoué en 2011 :  
 
"On s'est rendu compte que la façon dont c'est titré, plus c'est titré court, direct, mieux ça marche. Les titres à la Le Monde Papier qui sont très longs, très explicatifs, ça marche moins en ligne que les trucs très courts qui vont direct à l'essentiel, qui sont percutants" [5].

    La nécessité du format court a également étendu la reprise des dépêches d'agences de presse. Ainsi, "de 2001 à 2006, la part de textes provenant de Reuters et d'Associated Press passe de 34% à 50% dans les articles publiés par les sites de médias" [3]. Cette part de plus en plus importante participe à la standardisation des contenus et, de fait, contribue à une certaine uniformisation et au sentiment d'une offre moins diverse. Cette part plus importante d'articles courts, couplée à la récurrence des dépêches peut diminuer la confiance du public et donner l'impression d'un journalisme de reprise plus que d'un journalisme d'investigation. 

La dérégulation du marché de l'information


    Autre effet de l'apparition des agrégateurs de contenu et des moteurs de recherche : ils bousculent la hiérarchisation historique entre organes de presse et le reste des diffuseurs. Sur ces plateformes, tout diffuseur peut avoir une visibilité égale à celle d'un média traditionnel :

"Avant l'adoption massive d'Internet, les médias traditionnels jouaient un rôle de sélection des informations qu'ils jugeaient pertinentes pour leur public (ce que l'on nomme le "gatekeeping"). Désormais, les internautes sont libres de produire et de diffuser leurs propres contenus. De fait, les informations qui entrent dans le champ public ne sont plus filtrées par des journalistes professionnels" [4].

    La dérégulation (ou libéralisation) du marché de l'information, par la suppression de hiérarchisation des contenus permet donc à des diffuseurs complotistes de proposer une "réinformation" (par opposition à l'information officielle, manipulée par le pouvoir) et d'apparaître sans distinction notable aux côtés des médias historiques. Tout en adoptant en apparence les codes et le langage journalistiques [6]. L'internaute, à première vue, ne peut pas s'apercevoir de la différence entre un organe de presse reconnu et un diffuseur complotiste puisque rien ne le signale explicitement. Même si depuis quelques temps, les plateformes, conscientes du danger, tentent de réguler le phénomène en identifiant puis supprimant les contenus mis en cause [7]. 

Dark patterns et chambre d'écho : émotions primitives et prédiction des attentes


    L'économie du web, centrée sur le trafic, pousse les producteurs de contenu à s'adapter à leur public et donc à livrer ce qu'il attend. Si Pierre Bourdieu montrait déjà cette dépendance entre la télévision et son audience [8], les médias en ligne doivent en outre faire face dans un même lieu à une pluralité de concurrents (entreprises diverses, blog, etc). Pousser l'internaute au clic devient alors un enjeu décisif pour sa survie. 

    Dans cet espace numérique où le temps de décision est considérablement court, l'appel à l'émotion ou au sensationnel peut présenter un avantage considérable. Pour s'assurer de son audience, de nombreux diffuseurs de contenus utilisent des titres chocs qui favorisent une réaction émotionnelle forte. Dans ce sens, une étude du MIT a montré qu'une fausse information a 70% plus de chance d'être propagée qu'une vraie information. L'analyse sémantique des commentaires posés sous ces contenus indique qu'elles suscitent plus souvent la surprise, la peur ou le dégoût [9]. Les médias paraissent dès lors démunis devant une surenchère émotionnelle qui imprègne de plus en plus les réseaux sociaux. 

Crédit : Beware onlines "filter bubbles", Eli PARISER

   Ces mécanismes apparaissent comme un terreau pour faire perdre la place privilégiée des médias de confiance. Et en perdant leur hégémonie, ils favorisent l'émergence de contenus complotistes. Le phénomène de chambre d'écho l'accentue encore : les contenus proposés aux utilisateurs sont filtrés en fonction de leurs habitudes et préférences. Ce qui facilite leur enfermement dans un corpus idéologique ciblé. Ce phénomène privilégie les biais de confirmation et participe au matraquage de fausses informations pour certains utilisateurs sensibles. La Trusted News Initiative, fruit d'un partenariat entre les grands organismes de presse mondiaux (AFP, Reuters, BBC...) et certaines grandes plateformes tech, réfléchit depuis 2019 à cette problématique. Selon elle, pour gagner contre les propagateurs de fausses informations, la presse doit se concentrer sur les armes de base du journalisme : "Faire son travail d'enquête avec des règles précises, une éthique, des preuves et relayer les résultats de manière transparente" [11].


Sources

[1] LEBOUCQ Fabien, NASS Claire-Line, THAIS Chaigne. Six millions de vues pour "Hold-up" : itinéraire d'un documentaire phénomène. En ligne sur liberation.fr. Publié le 23 avril 2020 : <https://www.liberation.fr/france/2020/11/23/six-millions-de-vues-pour-hold-up-itineraire-du-documentaire-phenomene_1806292/>

[2] REBILLARD Franck, SMYRMAIOS Nikos. Quelle "plateformisation" de l'information ? Collusion socioéconomique et dilution éditoriale entre les entreprises médiatiques et les infomédiaires de l'Internet. En ligne sur journals.openedition.org. Publié le 1er septembre 2019 : <https://journals.openedition.org/ticetsociete/4080>

[3] MARTY Emmanuel, REBILLARD Franck, POUCHOT Stéphanie, LAFOUGE Thierry. Diversité et concentration de l'information sur le web. En ligne sur cairn.info. Publié le 14 janvier 2013 : <https://www.cairn.info/revue-reseaux-2012-6-page-27.htm>

[4] BADOUARD Romain. Le désenchantement de l'Internet. Désinformation, rumeur et propagande. En ligne sur journals.openedition.org. Publié le 30 novembre 2017 : <https://journals.openedition.org/lectures/23578

[5] GOASDOUE Guillaume. Pratiques et normes journalistiques à l'ère numérique. En ligne sur cairn.info. Publié le 4 janvier 2016 : <https://www.cairn.info/revue-politiques-de-communication-2015-2-page-153.htm>

[6] SARI Antoine. "Réinformation" et désinformation : l'extrême droite de médias en ligne. En ligne sur acrimed.org. Publié le 10 mars 2015 : <https://www.acrimed.org/Reinformation-et-desinformation-l-extreme-droite>

[7] DREYFUS Louis. Facebook supprime 900 pages et groupes liés à la théorie complotiste QAnon. En ligne sur lemonde.fr. Publié le 20 août 2020 : <https://www.lemonde.fr/pixels/article/2020/08/20/facebook-supprime-900-pages-et-groupes-lies-a-la-theorie-complotiste-qanon_6049458_4408996.html>

[8] BOURDIEU Pierre. Sur la télévision. Publié le 1er janvier 1996 

[9] VOSOUGHI Sorouh, ROY Deb, ARAL Sina. The spread of true and false news online. En ligne sur sciencemag.org. Publié le 9 mars 2018 : <https://science.sciencemag.org/content/359/6380/1146>

[10] CARDON Dominique. A quoi rêvent les algorithmes ? En ligne sur journals.openedition.org. Publié en 2015 : <https://journals.openedition.org/lectures/20554>

[11] GALLET Nathalie. Lutte contre la désinformation : "Pour gagner une bataille il faut commencer par avoir une armée". En ligne sur meta-media.fr. Publié le 27 mars 2021 : <https://www.meta-media.fr/2021/03/27/lutte-contre-la-desinformation-pour-gagner-une-bataille-il-faut-commencer-par-avoir-une-armee.html>