jeudi 22 juillet 2021

Le partage des connaissances au service d'une communauté, l'exemple du Wiki Trans

Après le foisonnement des Wiki encyclopédiques, un wiki au service d'une communauté est apparu en France. Le Wiki Trans se veut une source de savoir scientifique et social, libre et collaboratif, qui vise la diffusion des connaissances sur la transidentité et l'identité non-binaire. Ce site est dédié à la vulgarisation scientifique et au partage d'expériences pour fournir des informations compétentes dans le domaine à un large public. Comment l'on parvient à créer, gérer et partager des informations afin d'accroitre la connaissance à propos et spécifique à une communauté ? 

Fondé par Menica Folden en 2018 "suite au constat que très peu de ressources existaient en ligne pour les personnes trans francophones" [ 1 ] le Wiki Trans se veut un recueil d'informations pour les personnes concernées par des questionnements sur la transition, les pratiques chirurgicales et les traitements hormonaux, mais aussi les personnes qui souhaitent être informées sur des thèmes plus généraux.

L'envergure pédagogique de ce site se décèle des définitions sur l'identité de genre, des indications sur le lexique à employer pour s'adresser à des personnes transgenre, avec l'appui de témoignages diversCette volonté pédagogique ne se limite pas à donner des conseils pour ne pas mégenrer les personnes, car le wiki fournit un ensemble de documentation apte à la vie courante de personnes trans. Des contrats d'embauche spécifiques, des modèles de lettre de coming-out, des brochures explicatives sur les thèmes de la transidentité, sont fournis gratuitement et librement pour que les personnes qui en nécessitent puissent les utiliser. Cet ensemble documentaire est disposé de sorte à faciliter des épreuves auxquelles il faut se confronter lors d'une transition, comme des étapes administratives, psychologiques et physiologiques. 

Berengère Stassin explique dans son article « Wiki Trans : une communauté de savoir sur la transidentité  » publié dans Communication, technologies et développement que : "Les savoirs développés et remédiés par et pour les trans favorisent l’autonomisation des parcours et l’émancipation face aux instances médicales et au système hospitalier jugés pathologisants, psychiatrisants et infantilisants". [ 2 ]

Le choix d'employer un wiki pour atteindre cette divulgation informationnelle permet de créer une plateforme collaborative et en accès libre. La technologie du wiki permet notamment de renvoyer à d'autres bases de données, articles scientifiques et informations susceptibles d'intéresser l'auditoire. Les contributions du wiki sont encadrées par une équipe de bénévoles qui vérifie et communique avec les personnes qui souhaitent intervenir. La structure hiérarchique du Wiki Trans permet de contrôler la parole avec des valeurs de bienveillance, accessibilité, engagement et bénévolat, promulgués par le Manifeste du Wiki trans. [ 3 ]

Les principaux acteurs qui alimentent le contenu du wiki sont des personnes transgenre ou des professionnels. Cette organisation permet de se réapproprier la parole sur les expériences et les connaissances propres à cette communauté. De cette manière, ce wiki foisonne d'information qui permettent de rendre visible la thématique de l'identité de genre, de divulguer du savoir et entretenir un lien avec la communauté qui se manifeste sur cette plateforme. 


[ 1 ] cit. Menica Folden in, Bérengère Stassin, « Wiki Trans : une communauté de savoir sur la transidentité  »Communication, technologies et développement [En ligne], 9 | 2021, mis en ligne le 29 mars 2021, consulté le 15 juillet 2021. URL : http://journals.openedition.org/ctd/3723 ; DOI : https://doi.org/10.4000/ctd.3723
[ 2 ] Bérengère Stassin, « Wiki Trans : une communauté de savoir sur la transidentité  »Communication, technologies et développement [En ligne], 9 | 2021, mis en ligne le 29 mars 2021, consulté le 15 juillet 2021. URL : http://journals.openedition.org/ctd/3723 ; DOI : https://doi.org/10.4000/ctd.3723
[ 3 ] Manifeste du Wiki Trans, [En ligne] consulté le 15 juillet 2021URL : https://wikitrans.co/manifeste/


mercredi 16 juin 2021

Le vrac numérique : comment le gérer ?

Le phénomène de l'entassement croissant des documents sur les serveurs des entreprises touche les entreprises comme les administrations. Pour ce faire, nous allons essayer de montrer l'origine du vrac numérique, comment il se manifeste et donner des solutions pour le gérer. 


Le vrac numérique désigne "un ensemble de documents bureautiques très hétérogènes se caractérisant par une absence fréquente de règles de classement et de nommage, l'utilisation de caractères susceptibles de poser des problèmes, un stockage aléatoire et une arborescence construite sans logique prédéfinie." [1]

En effet, au rythme actuel de la croissance des volumes d'information, presque toutes les organisations sont confrontées au problème de dispersion de leur fichiers documentaires. Parmi les causes du vrac documentaire : des serveurs organisés en silos, des applications dispersées sur lesquelles les salariés produisent et partagent leurs documents de travail, le manque de cohérence, etc. Et à cela s'ajoutent des fléaux documentaires comme les doublons, les triplons, les fichiers périmés, le nommage approximatif, les versions redondantes, etc.[2]

Noureddine Lamriri (Everteam) souligne : "Ce déluge informationnel provoque de multiples désordres : perte de temps, risque de disparition des fichiers, redondance, conservation d'information inutile ou obsolète." [3] Et cette perte de temps, s'ajoutent les enjeux juridiques sur la protection des données personnelles liées au RGPD. 

Outils permettant à gérer le vrac numérique :

Ces outils procèdent à l’analyse du serveur via un connecteur, puis produisent un graphique des fichiers détectés (format, poids, date de création…). Ils peuvent aussi détecter les entités nommées (noms de personnes, d’entreprises…). Il existe aussi des outils qui sont capables d'identifier des doublons

Il y a aussi le moteur de recherche fédérée qui permet d’accéder à des contenus hétérogènes qu’ils soient structurés ou non. Il est capable de trouver des informations localisées sur des applications métiers de type CRM (logiciel de gestion de relation client) ou ERP (ou PGI, progiciel de gestion intégré).

Certains logiciels sont capables de traiter des volumes colossaux (jusqu’au plusieurs téraoctets.)

Dans le secteur juridique, en cas de litige par exemple, la justice peut demander la suspension provisoire du traitement normal ou de la destruction de documents d’archives. L’outil e-discovery est capable de procéder à une suspension légale tout en assurant la conservation des documents quelle que soit leur forme.

Aussi, Alfresco propose des solutions de gestion de contenu. [4]

Les solutions open source :

- Octave, développée par le service interministériel des archives de France (SIAF).

- Archifiltre, développé par la mission des archives du ministère des affaires sociales.

- Resip, développé par les Archives Nationales.

Les solutions propriétaires :

Everteam, par exemple, est orienté sur l’enrichissement du vrac numérique par les métadonnées.  

Selon Marie Jenner (Serda Conseil), il faut se poser les bonnes questions avant de se lancer dans le traitement d'un vrac numérique : 

Choisir les bons outils pour gérer le vrac numérique en fonction de la volumétrie du vrac.

Connaître la proportion et la nature des documents concernés.

Connaître la structure du vrac.

Identifier les versions provisoires et les doublons que l’on pourra éliminer tout de suite. [5]


Sources : 

[1] : Bruno Texier, Vrac numérique: comment mettre de l'ordre, Archimag n°342 mars 2021, p. 15-16.

[2] : Ibid.

[3] : Intervention de Noureddine Lamriri à l'édition 2020 du salon Documentation, cité dans l'article de Bruno Texier, Archimag n°342, p.15

[4] : Michel Remize, Outils : cerner le vrac numérique, Archimag n°342 mars 2021, p. 20-21.

[5] : Bruno Texier, Traiter un vrac numérique, mode d'emploi, interview avec Marie Jenner (Serda Conseil), Archimag n°342 mars 2021, p. 15-16.



Communiquer à l'heure des réunions virtuelles

En linguistique, le schéma classique de la communication [1] permet de cerner les différents éléments qui influencent la qualité d'un échange : un émetteur transmet traditionnellement son message à un récepteur (groupe ou personne). Le message est transmis via un canal de communication  Le récepteur réagit au message : il s’agit là de la notion de feedback. Ce feedback peut être verbal ou non verbal. Des éléments extérieurs peuvent venir perturber la transmission du message ou de son feedback : il s’agit du bruit. Il peut venir de l’environnement ou de l’absence de contact entre l’émetteur et le récepteur. À l'heure de la crise sanitaire, les contacts entre émetteurs et récepteurs ont été intensément distanciés et on tente de les combler, entres autres, par des outils de visioconférence. 

Pourquoi les réunions virtuelles sont-elles fatigantes ?

 

Outil emblématique de la réunion virtuelle, Zoom est aujourd’hui le symbole d’une transformation digitale accélérée par la crise sanitaire. La notoriété de cet outil a vu naître un phénomène partagé par beaucoup de travailleurs l’utilisant dorénavant au quotidien : la Zoom fatigue. Les réunions virtuelles entraîneraient en effet un épuisement cognitif, notamment par l’obstruction du feed-back de l’émetteur (dans le schéma de la communication efficace, le feed-back est très précieux car il permet à l’émetteur de s’assurer de la bonne réception/compréhension de son message ) ; par l’existence d’indices visuels et sonores difficiles à décrypter, subissant de surcroît des effets ponctuels (ou continus) de latence. En effet, là où la communication humaine est naturellement synchrone, la communication virtuelle ne l’est pas (connexion, temps plus ou moins long à la réactivation du micro). Se voir en reflet sur son écran impacterait également sur cette fatigue du fait de l’attention consacrée à surveiller sa propre image. [2] Autant d’éléments qui impactent négativement l’environnement de la communication. Pour résumer, la Zoom fatigue est le résultat d'une corrélation entre la difficulté à décoder les signes de communication verbaux mais surtout non verbaux et l’obligation d’apporter des preuves de son attention, là où la tentation de faire autre chose est particulièrement forte. [3]





Remédier à la « Zoom fatigue » : liste non exhaustive de bonnes pratiques

 

Si le distanciel ne permet pas autant d’interactions que le présentiel, voici quelques bonnes pratiques qui pourraient atténuer cet épuisement cognitif et faciliter le travail des équipes à distance. Une première attention particulière doit être apportée à la qualité de l’invitation à la réunion virtuelle : objectifs de la réunion, outil utilisé et transmission des informations pratiques nécessaires à son utilisation, éventuelles recommandations techniques et accessibilité à des documents / ressources en amont doivent y figurer. Prévoir éventuellement un plan B dans l’invitation, comme un passage au téléphone ou à un autre outil par exemple est également recommandé. 

Pour l’animation de  réunions virtuelles, différents types d’outils digitaux pourront aider les animateurs et les participants. Attention cependant : nombreux sont les outils, il faut donc veiller à les utiliser au regard de ses besoins et en nombre limité :  

-Outils de visioconférence

-Outils de chat

-Outils de questionnaire qui permettront de faire participer les participants

-Outils de co-construction tels que les cartes mentales, les tableaux blancs, les outils de co-écriture et les outils de co-management. 

Enfin, des règles d'organisation peuvent être proposées comme le fait de fixer des temps de pause et d’encourager les participants à se détacher de leurs écrans le temps de renouveler leur concentration. Le nombre de participants doit également être contrôlé. Enfin, en matière de qualité de la communication, soigner son ton et ce en particulier si les caméras sont éteintes. L’utilisation de la vidéo est fortement recommandée, au moins en début et en fin de réunion. Pour départager les temps de paroles, des rôles peuvent être attribués aux participants : scribe, maître du temps, pousse décision ou encore distributeur de parole. 

 [4] [5]

 

Sources : 


[1] Merch campus arabic. "Le schéma de la communication". Youtube.com. [En ligne]. 10 juin 2017. [Consulté le 14 juin 2021]. Disponible sur : <https://www.youtube.com/watch?v=PbEUhdeLnZU>


[2] Guillaud Hubert. "Coincés dans Zoom (1/4) : De la vidéoconférence en ses limites". Internetactu.net. [En ligne]. 20 novembre 2020. [Consulté le 14 juin 2021]. Disponible sur : <https://www.internetactu.net/2020/11/20/coinces-dans-zoom-13-de-la-videoconference-en-ses-limites/>

 

[3] Guillaud Hubert. "Coincés dans Zoom (2/4) : Mais alors que nous apporte Zoom ?". Internetactu.net. [En ligne]. 27 novembre 2020. [Consulté le 14 juin 2021]. Disponible sur : <https://www.internetactu.net/2020/11/27/coince-dans-zoom-23-mais-alors-que-nous-apporte-zoom/


[4] Worklab. "Mini-guide de survie aux réunions à distance". Worklab.fr. [En ligne]. [Consulté le 14 juin 2021]. Disponible sur : <https://www.worklab.fr/telechargements/ebook_reunion_distance/Ebook_GSRD_V1_mars_2020.pdf?fbclid=IwAR0fEiiKHWNhaPGIuyDH3uoy1590TffeV3hoF0a2Eth2Pd69TxofEfdDB6I>


[5] Larher, Yann-Mäel. "Visioconférences : apprenons à zoomer autrement". Forbes.fr. [En ligne]. Janvier 2021. [Consulté le 14 juin 2021]. Disponible sur : <https://www.forbes.fr/management/visioconferences-apprenons-a-zoomer-autrement/?amp>

Gouverner efficacement sa transformation digitale

Ensemble sociologique et technologique, la transformation digitale constitue une préoccupation importante pour les organisations en ce qu’elle inclut une transformation des outils mais aussi en ce qu’elle impacte les Hommes, leurs habitudes, les pratiques managériales et les cultures d’entreprise. [1] Quelles pratiques peuvent ainsi être employées afin de maitriser sa transformation digitale ? 


Architecture de l’entreprise


Face à des technologies toujours plus nombreuses et complexes, une organisation doit se montrer sélective quant aux choix technologiques qui seront fait, ce qui implique une bonne connaissance des métiers et des processus de l’entreprise corrélée à une connaissance des nouvelles technologies. Cette connaissance globale repose sur une discipline nommée  architecture d’entreprise. Celle-ci permet une approche globale de structuration du système complexe que représente une entreprise en prenant en compte ses patrimoines humains et technologiques, toujours dans le but d’atteindre les objectifs de l’organisation. Outil d’aide à la décision, l’architecture d’entreprise implique une phase de description de l’existant (fonctionnement de l’entreprise, description des processus, données métier et cartographie du patrimoine informatique et des infrastructures), une phase de définition de la cible et de la trajectoire. L'architecture d'entreprise permet ainsi de prendre de la hauteur  en proposant une vision globale et partagée de la transformation digitale d’une organisation afin d’éclairer le point de vue de chacun et de renforcer la cohérence de l’ensemble des projets par le développement de synergies entre les processus et le patrimoine numérique de l’entreprise. Question en suspens : les compétences de l’architecte d’entreprise, souvent cantonnées aux DSI, peuvent-elles faire partie du champs d’action des professionnels de l’infodoc ?

 

Conduite du changement et importance de la formation digitale. 


La transformation digitale implique une transformation de tous les processus et métiers d’une entreprise. Tous les collaborateurs sont concernés et, de fait, le rythme de la transformation pourra varier d’un processus métier à l’autre. La maturité digitale d’une entreprise peut s’évaluer à trois niveaux : organisation, management et métier. Des changements individuels donc, mais aussi globaux. Par ailleurs, l’intégration d’un nouvel outil dans les pratiques individuelles doit avoir fait l’objet d’une communication sur, notamment, le pourquoi de l’utilisation de cet outil et ce qu’il apporte aux métiers à l’échelle individuelle. Instaurer une culture digitale durable implique également une formation digitale pensée à longs termes et s’asseoir sur un socle commun de compétences, tout en incluant des différenciations notamment parce que les appétences individuelles en matière de culture digitale peuvent différer d’un collaborateur à l’autre. 


Indicateurs de performance


Les KPI (pour Key Performance Indicators) d'un projet de transformation digitale reposent sur la définition de ses objectifs : réduction de coûts ? Conquête de nouvelles parts de marché ? Amélioration de l'expérience utilisateur ? Les objectifs du projet détermineront la pertinence d'un indicateur de performance. Pour aider à les déterminer, on peut en distinguer différents types : les KPI business, qui étudieront les gains business et marketing (ici, les KPI seront par exemple les parts de marché ou l'évolution du chiffre d'Affaires). Autre type de KPI : les KPI de marque, qui offrent des indicateurs sur la réception et l'image de la marque (notoriété, fidélisation, satisfaction client). Enfin, troisième type d'indicateurs : les KPI internes/corporate, qui seront ici utiles pour évaluer l'adhésion des collaborateurs au projet ou les gains éventuellement générés (adhésion, engagement, coûts avant/après transformation). Les indicateurs de performance ne sont pas figés : ils peuvent évoluer et être adaptés à un changement de stratégie ou d'objectifs, par exemple.[5]


Sources : 

 

[1] Lean Assembly. "Qu'est-ce que la transformation digitale ?". Youtube.com. [En ligne]. 7 décembre 2015. [Consulté le 14 juin 2021]. Disponible sur : <https://www.youtube.com/watch?v=p37yeKqAnUo>. 


[2] Centrale Supélec. "Podcast : Le rôle de l'architecture d'entreprise dans la transformation digitale". Youtube.com. 14 juin 2021. [Consulté le 15 juin 2021]. Disponible sur : <https://www.youtube.com/watch?v=FpRHbEpxVVM>.


[3] Blog Talkspirit. "Cédrid Deniaud. "La formation digitale doit être pensée à long terme pour devenir une culture digitale durable et utile". Blog.talkspirit.com. 31 juillet 2018. [Consulté le 15 juin 2021]. Disponible sur : <https://blog.talkspirit.com/cedric-deniaud-la-formation-digitale-doit-etre-pensee-a-long-terme-pour-devenir-une-culture-digitale-durable-et-utile/>.


[4] 1min30. "Transformation digitale (ou numérique)". 1min30.com. Blog.talkspirit.com. 02 février 2016. [Consulté le 14 juin 2021]. Disponible sur : <https://www.1min30.com/dictionnaire-du-web/transformation-digitale-numerique>.

 

[5] Socialy. "Quels indicateurs pour mesurer la performance de votre transformation digitale ?". Socialy.fr. [En ligne]. 12 septembre 2018. [Consulté le 14 juin 2021]. Disponible sur : <https://www.socialy.fr/blog/kpi-performance-transformation-digitale/>



 

La vidéo : un canal de communication efficace pour les entreprises ?

Si les algorithmes des réseaux sociaux affectionnent particulièrement le format vidéo comme canal de communication et que ce format génère des likes et des partages plus efficacement qu’un contenu texte ou image, qu’en est-il du positionnement de ce format au sein des organisations ? L’attention des collaborateurs d’une organisation est-elle plus facilement captée par ce format ?  

Diversifier les modes de communication  

 

La stimulation de l’ouïe corrélée à celle la vue améliore l’attention d’un auditoire et sa capacité à retenir les informations. Le format vidéo constitue un canal de communication animé qui se démarque des formats de communication internes habituels : mails, diaporamas, publications intranet. Format pédagogique, une vidéo destinée à un usage interne (tutoriel, support de formation, présentation d’un nouveau service) permettra l’usage d’un langage commun déchargé de tonalités promotionnelles ou institutionnelles. Il peut également s’agir de produire une vidéo destinée à la communication externe pour présenter un métier à de potentiels futurs collaborateurs par exemple. Dans les deux cas, la vidéo constitue un support de communication innovant, retenant souvent l’attention des collaborateurs davantage qu’un texte.[1] Cela dit, il faut veiller à ne pas systématiquement miser sur ce canal de communication : le montage vidéo, même collaboratif, peut constituer une charge de travail importante d’une part et d’autre part ne pas être adapté à tous les sujets. 

 

Les différents usages de la vidéo

 

Diffuser un message court apparaît comme l’usage le plus commun de la vidéo pour une organisation, qu'il s'agisse pour elle de communiquer sur un évènement ponctuel, des mesures de sécurité ou encore souligner une réussite afin de mettre en valeur ses collaborateurs. Second usage possible de la vidéo : la formation. Des vidéos explicatives pourront dès lors vulgariser un concept métier complexe, dynamiser une formation existante ou au contraire en faire sa promotion et la présenter. La vidéo dite de formation pourra venir compléter une formation en présentiel ou à distance. Soulignons en plus que le marché propose aujourd’hui des outils permettant de rendre une vidéo de formation interactive (quizz, sondage, exercice par exemple). Partager un bilan d’activité peut également faire l’objet d’une vidéo, de même que valoriser la culture d’entreprise par la présentation d’initiatives significatives pour la vie de l’organisation. Enfin, une vidéo peut également être réalisée afin de présenter une nouvelle équipe.[2]

Plusieurs types d’outils à exploiter 

Un large panel d’outils, gratuits ou payants, est disponible sur le web et permet de mener à bien la réalisation d'une vidéo. Un premier type d’outil vidéo à exploiter sont les outils de capture d’écran vidéo permettant un enregistrement audio en parallèle. Ce type d’outil peut, entres autres,  permettre de capturer une marche à suivre pour l’utilisation d’un outil numérique. Les outils de montage vidéo permettront eux de réaliser des vidéos de communication promotionnelle, de présentation de service ou de formation : il faudra filmer une scène, un collaborateur ou capturer un écran et construire la vidéo à partir des diverses séquences réalisées. De nombreux tutoriels sur les outils de montage gratuits sont disponibles sur internet. Enfin, des outils collaboratifs de création vidéo permettront de collaborer au montage d’une vidéo. 

Sources :

[1] Archimag. "La vidéo ou comment moderniser sa communication interne ?". Archimag.com. [En ligne]. 10 juin 2021. [Consulté le 14 juin 2021]. Disponible sur : <https://www.archimag.com/digital-workplace/2021/06/10/contenu-video-communication-interne-2emotion>.

[2] Topovidéo. "Pourquoi et comment utiliser la vidéo en interne ?". Topovidéo.com. [En ligne]. 01 septembre 2020. [Consulté le 14 juin 2021]. Disponible sur : <https://www.topovideo.com/video-explicative-communication-interne>. 


[3] Lamobylettejaune. "La vidéo d'entreprise : une partie intégrante de votre stratégie de communication". lamobylettejaune.com. [En ligne]. 01 avril 2020. [Consulté le 14 juin 2021]. Disponible sur : <https://www.lamobylettejaune.com/video-dentreprise-plan-de-communication>.

 

lundi 24 mai 2021

Lancement du Programme Atlas : des standards français pour la transformation numérique

En octobre 2019, l'Afnet avait initié un ambitieux projet : le programme Atlas destiné à fournir des standards numériques à l'industrie française. Il réunit de nombreux acteurs industriels pour la création de standards de modélisation de type Product Life & Data Management (PLM/PDM), servant entre autres aux simulations et aux jumeaux numériques.  De tels standards devraient rendre la production de modèles et l'utilisation des technologies de simulation numérique plus accessibles aux entreprises et démocratiser leur utilisation. Le premier workshop du programme, intitulé Simulation Numérique, a eu lieu le 19 mai dernier.

Atlas s'inscrivant dans le Programme Investissements d'Avenir, ces standards se voudront à la fois publics, internationaux et intersectoriels. Les modèles numériques sont aujourd'hui créés à partir de composants issus de dizaines d'outils différents, assemblés au prix d'un effort de mise à niveau des formats utilisés par les différents producteurs des parties composant le modèle final. Deux acteurs participent à leur construction et facilitent les décisions lors du processus de production :

- L’architecte système qui évolue dans un environnement "concepteur". Il définit les spécifications, les performances attendues et la constitution des systèmes.
- L'architecte simulations numériques qui produit des évaluations afin de déterminer le plus tôt possible que les performances attendues soient atteintes et modifie les dessins en conséquence, le cas échéant. 

Leurs travaux sont rendus possibles par la collaboration d'un réseau d'opérateurs favorisant les transferts et la mise à disposition de modèles inter-opérés pour former un modèle global utilisable et fidèle à son objet. Mais de tels réseaux restent encore très rares dans le paysage industriel français et nécessitent des conditions telles qu'une forte concentration de filière [1], ou des activités de recherche de pointe réunissant des laboratoires collaborant autour d'un même sujet [2]. Les réflexions de l'Afnet et ses partenaires portent sur l'acquisition de ces modèles à travers la disponibilité des standards, et comment les relier entre eux, grâce à la définition de méta-modèles.

Pour ce faire l'Afnet s'appuie sur 15 ans d'expérience dans la mise en place et la réflexion autour des standards dans les filières industrielles, comme le pré-projet Seine sous le patronage de la DGE entre 2006 et 2008, et sur les sujets design et manufacturing, supply chain, maintenance et cybersécurité, regroupés autours de projets multi-sectoriels tels BoostAero depuis 2005, ou la norme STEP AP242 depuis 2015. Ces réflexions ont été menées en collaboration entre des associations, des opérateurs et des institutions. Elles ont accompagné la création de plate-formes collaboratives de filières [3], et plus de 7000 entreprises de toutes catégories ont pu y participer.

Les filières participant à Atlas sont catégorisées selon deux types : en « objets » et chaine d'assemblage comme l'aéronautique, l'automobile, l’industrie électronique etc, ou en « projets » comme le bâtiment, la chimie des matériaux, le nucléaire, la métallurgie, ou les systèmes énergétiques. Elles sont représentées par des comités de pilotage stratégique composés de membres de l'Afnet, Industrie du Futur, le programme MINnD, l'AFIS, ainsi que des représentants d'organisations professionnelles tels que la FIEEC, Fer de France. Syntec, France Chimie, AIMCC, Galia, la GICAN, le Gifas, Building Smart France  et PFA.

Le programme est structuré en groupes de travail, réunissant les représentants des filières, en fonction des lots et des sujets qui ont été définis durant la phase préparatoire du projet. Les stratégies et cas d'usage, le développement de standards, l'implémentation chez les éditeurs, la formation des démonstrateurs  (POCs), et la communication au public, forment les lots. Les domaines, qui doivent couvrir l'ensemble du cycle de vie du produit, sont les suivants :

  • Ingénierie système  et MBSE, piloté par l'AFIS
  • PLM, end-to-end et Management des configurations, piloté par l'AFNET
  • Logistique et global Supply-Chain, piloté par l'AFNET
  • Maintenance piloté par l'AFNET
  • Données et Infrastructures (traçabilité, blockchain, cybersecurité, IA) piloté par l'AFNET
  • Le Smart Manufacturing piloté par l'Alliance Industrie du Futur
  • Le BIM piloté par MINnD
  • Cet ensemble doit faciliter la généralisation des concepts de Jumeau numérique - piloté par l'AFNET et  l'Alliance Industrie du Futur qui vont pouvoir s'appuyer sur ces composants. Les homologues internationaux, NAFEMS et INCOSE assureront leur soutien pour la partie simulation numérique.

Une équipe de France sera constituée en partenariat avec l'AFNOR pour que les travaux soient représentés sur la scène internationale et afin d'augmenter la coordination et l'efficacité entre les groupes de travail.
Le projet Atlas pourrait ainsi rejoindre les réflexions de l'INCOSE et de la NAFEMS. Cette dernière a déjà engagé une réflexion couvrant l'ensemble des besoins des secteurs et des cycles de vie des modèles [4]. Deux pistes possibles sont à l'étude :

  • Le MCP, Model Caracterisation Pattern (disponible auprès de l'INCOSE), représentation générale couvrant des modèles 3D, CFD et multi-physique. Ce standard peu déterminé est spécifiable à partir de listes d'attributs spécifiques à attribuer selon le type de modèle. Il est très complexe, mais permet de disposer d'une couverture globale du cycle de vie dans une optique de réutilisation.
  • Le MIC, Model Identity Card est un concept couvrant le début de cycle jusqu'à l'exploitation du modèle, visant à préparer les phases de construction de modèles complexes, dans la façon d'établir et peupler les architectures, produites par des entités différentes de l'intégrateur. Il permet de spécifier, contrôler les modèles, gérer leur assemblage et les capitaliser.

Concernant l'Archivage, une piste est à l'étude : le projet LOTAR (LOng Term ARchival), basé sur le standard ISO STEP AP 209 destiné au stockage des données de simulation. En terme d'application directe, MoSSEC est une adaptation des MIC pour être compatible avec LOTAR. Il semble que cette piste soit privilégiée pour le moment.

La validation du programme a eu lieu en octobre 2020. Ce projet, financé moitié par l’État, moitié par les filières industrielles pour un montant total de dix millions d'euros, amorce un cycle de trois ans. L'Afnet recherche des participants pour une réflexion élargie et profitable à un maximum de secteurs. Les plans de travail sont en cours et doivent être élaborés avant 2022.

samedi 22 mai 2021

La gestion des connaissances en 2021

La gestion des connaissances permet principalement aux organisations de capitaliser les savoirs, de faciliter leurs transmissions et de faire évoluer les métiers. Cela passe notamment par le partage efficace des informations et par le travail collaboratif. [1]

Mettre en place un dispositif de gestion des connaissances 

Les entreprises rencontrent des difficultés concernant la conservation et l'exploitation de leur patrimoine informationnel. Cela handicape leur efficacité interne, ternit leur attractivité et freine leur compétitivité. [2]

Le Knowledge Management va permettre de conserver facilement la connaissance et les savoir-faire, d'assurer un accueil convivial et professionnel aux nouveaux arrivants, de faciliter la montée en compétences des collaborateurs, tout en valorisant et rendant disponibles les expertises.

Mettre en œuvre la démarche de Knowledge Management

La capitalisation des connaissances est un projet d'entreprise à part entière qui mobilise de manière transversale toutes les composantes de l'organisation. Cette gestion des connaissances est donc un enjeu majeur ; notamment pour anticiper la perte des savoirs due aux départs en retraite et/ou des mutations des collaborateurs expérimentés. [3]

Cette démarche va également permettre la valorisation et le renouvellement du patrimoine informationnel de l'organisation. Celle-ci peut être divisée en 3 phases : 

- L'analyse stratégique du patrimoine informationnel. Il faut identifier les différents types de connaissances et en particulier, les connaissances dites critiques, la démarche doit être également incluse dans les objectifs stratégiques de l'entreprise ; 

- La préservation du patrimoine de connaissances. Cette phase concerne tous les domaines de connaissance à forte composante tacite, essentiellement détenue par les experts. 

- Le partage ou le transfert des connaissances. La conservation permet de recueillir et de structurer le contenu sensible d'un domaine de connaissance, et ainsi constituer un corpus de connaissances. Il est essentiel ensuite de transférer la connaissance à des communautés qui doivent l'utiliser pour leurs pratiques opérationnelles. [2]

Rendre accessible les connaissances

Pour capitaliser et partager les connaissances, il faut mettre à disposition au minima :

- Un portail (appelé aussi base de connaissances) comme accès unique aux ressources et à d'autres informations utiles aux collaborateurs ; 

- Des communautés de pratiques (CoP) pour encourager et favoriser le travail collaboratif. Ces dernières se basent sur la confiance mutuelle et le bien commun de tous. Elles ont pour finalité la valorisation des savoirs échangés et créés en les capitalisant. [4]

La gestion des connaissances se positionne désormais comme une démarche incontournable pour innover et rester compétitif.

Sources

[1] Archimag. La gestion des connaissances : une démarche incontournable pour innover et rester compétitif. Publié le 23.11.2020. Disponible en ligne : <https://www.archimag.com/bibliotheque-edition/2020/11/23/gestion-connaissances-km-demarche-incontournable-innover-rester> 

[2] Ourouk. Livre blanc : renouveler le regard sur le knowledge management : une approche par les usages. Edition 2021. Disponible en ligne (consulté le 22.05.2021) : <http://www.ourouk.fr/livre-blanc-sur-le-knowledge-management2021>

[3] Archimag. Comment éviter la perte d'informations, d'expérience et de connaissances. Publié le 11.12.2020. Disponible en ligne : <https://www.archimag.com/digital-workplace/2020/12/11/knowledge-management-plateforme-unification>

[4] INTD. Titre 1 - Chef de projet en ingénierie documentaire et gestion des connaissances. Cours de Louis-Pierre Guillaume. Avril 2021.

jeudi 13 mai 2021

Où le régulateur, voulant sauver la planète grâce à la finance, favorisera la numérisation de l'économie

Ces dernières années, la réglementation a été un levier de premier choix pour pousser les entreprises à franchir le tournant numérique. Si le règlement européen sur la publication d’informations en matière de durabilité dans le secteur des services financiers Sustainable Finance Disclosure Regulation (SFDR) a pour but de proposer un label écologique aux investisseurs, elle pourrait accélérer indirectement la tranformation numérique des entreprises en faisant des institutions financières de nouveaux intermédiaires de cette transformation.

Opérations à distance, analyses des marchés, trading à hautes fréquences, le secteur financier a toujours eu de l’appétence pour les données massives. Mais depuis quelques années les organismes de surveillance des marchés les obligent à produire et transmettre un certain nombre de données, dans un but qui dépasse le cadre de la poursuite du gain ou de l'efficacité opérationnelle. Des institutions de surveillance, telle l'Autorité des Marchés Financiers, réclament elles aussi leur part d'informations. 

Ainsi l'AMF reçoit à elle seule plus d'un terabit de données par mois [1], soit plus d'une centaine de millions de lignes, en provenance des rapports des établissements financiers français. La plateforme ICY [2] mise en place en 2018 par l'Autorité, pour l'aider à la lutte contre la fraude, les escroqueries, le financement du terrorisme. Si les institutions financières sont les premières de cordée pour l'adoption de l'intelligence artificielle [3], elles concentrent, la majorité de leurs dépenses en TICs dans une perspective anti-blanchiment et Know Your Customer [4], afin d'éviter d'être rendues complices d'éventuelles malversations.

Dans ce même esprit reporting, le 10 mars 2021, la loi SFDR [5] est entrée en application. Elle-même s'inscrit d'ailleurs dans la politique de l'OCDE [6] en matière de transition écologique et pourrait avoir des implications qui transcendent le champ d'application du secteur financier. Cette loi obligera les organismes financiers mentionnant la finance durable dans leurs communications à justifier la traçabilité de leurs instruments, l'utilisation précise des investissements qui en sont issus par des bénéficiaires dont les activités devront dorénavant  être passées à la loupe. 

Cette mesure de transparence doit permettre au consommateur européen d'être mieux informé de l'utilisation de son épargne et limiter le green washing. Plus qu'un simple argument marketing accompagnant les documents et contrats de leur clientèle d'épargnants, la régulation devrait prévoir un certain nombre d'avantages fiscaux aux détenteurs du précieux sésame si elle suivait, à terme, les recommandations de l'OCDE. L'article 4 de la loi obligera aussi les organismes financiers à faire figurer la mention de l'absence du "label" finance durable lorsqu'elles ne souscriront pas aux exigences de reporting inscrites dans la législation.

Ces reportings, dont les modèles sont inspirés un corpus de formats européens [7] et internationaux [8], nécessitent un certain nombre de données de type Know Your Customer. Les banques seront donc poussées [9] à réclamer des informations,  dont la liste n'est pas encore totalement arrêtée [10], mais très conséquentes, aux entreprises émettrices des actions composant leurs supports d’investissements estampillés "finance durable" ou "écolabel" avant d'accepter de les y inclure. Ces informations transmises sous forme de données détaillés [11] sur leurs activités ne devraient pouvoir être délivrées que dans la mesure où elles ne soient capables de les leur fournir, grâce à un système d'information suffisamment développé et intégré à leurs processus de production.

C'est donc par des avantages en terme de financement que les entreprises pourraient être encouragées à la fois à adopter  une démarche écologique [12] et à se doter des moyens de fournir les informations réclamées par les banques. Le projet de loi actuellement en discussion au Sénat "Climat et résilience" devrait avoir un impact potentiel similaire [13]. 

Si les avantages et pénalités (non) prévus aux règlements sont loin d'être suffisants pour engager l'économie vers un tournant écologique, la création même de ces taxonomies et leur implémentation très progressive dans les secteurs concernés laissent planer la possibilité d'un revirement réglementaire plus engageant, voir coercitif. Il s'agit donc d'un sujet à surveiller de près dans les prochaines années.

mercredi 12 mai 2021

Recherche documentaire : une étude pour déterminer les pratiques des chercheurs français

Le consortium Couperin.org a publié début mars les résultats d’une enquête [1] lancée entre mai et juin 2020 par le biais d’un questionnaire relayé par les établissement et réseaux scientifiques français. Le but était de recueillir les pratiques de recherche documentaire des chercheurs, et ainsi de comprendre les réflexes des usagers en matière d’outils et d’interfaces de consultation. Parmi les 5598 réponses analysées, 74% des répondants provenaient du corps de recherche Sciences et Technique médicales, 26% au corps des Sciences humaines et sociales.

Des portails institutionnels trop lourds 

L’étude indique que 45% des répondants se connectent souvent aux portails documentaires de leurs institutions respectives. Cependant, ceux-ci mettent en lumière une certaine lourdeur dans l'accès aux ressources académiques. Ce manque d’ergonomie des portails se formalise par des parcours d’accès trop longs, une multiplicité des portails, ou encore une trop grande diversité des droits d’accès. [2]

Les outils d’accès aux ressources scientifique

L’utilisation d’un moteur de recherche généraliste reste une pratique fréquente pour les chercheurs : plus de deux tiers des répondants disent les utiliser dans le cadre de leurs recherches d’informations. L’enquête indique également que l’utilisation des moteurs de recherche généralistes est plus élevée chez les répondants âgés de 30 à 45 ans.

Concernant l’accès à un article intégral, 57% des répondants indiquent utiliser Google Scholar qui semble donc ancrée dans les pratiques des chercheurs, devant les plateformes éditeurs (Elsevier, Springelink, …) utilisées par 47% des répondants. Il est cependant intéressant de noter que 80% des répondants appartenant au corps des Sciences Humaines et Sociales indiquent utiliser des plateformes de revues telles que CAIRN ou JSTOR comme point d’entrée à l’accès de l’information. L’utilisation des archives ouvertes (HAL) est annoncée par 40% des répondants.

Sci-Hub, plateforme fournissant un accès libre à des dizaines de million d’articles scientifiques piratés est utilisé par 36% des répondants, dont 50% pour les moins de 50 ans. [3]

Un manque de connaissance des outils 

80% des répondants disent ne pas connaître les outils de facilitation à l’accès des textes intégraux tels que Unpaywall ou Open Acces Button : ces outils proposent souvent des extensions sur navigateurs qui signalent les liens vers des versions accessibles des articles.

ISTEX [4], le vaste programme d’acquisition d’archives scientifiques proposant un accès en ligne aux collections rétrospectives des publications scientifiques reste également méconnu par 80% des répondants à l’étude. Il en est de même PANIST [5], plateforme d’accès aux archives courantes acquises auprès de l’éditeur Elsevier, méconnue par 87% des répondants.

L’enquête met également en lumière la faible utilisation des services de documentation par les répondants. En effet, seulement 4% d’entre eux disent toujours faire appel au service documentaire pour leurs recherches. Ils sont cependant 50% à y faire appel lors de recherches ponctuelles.

Sources :

[1] BALIGAND Marie Pascale, COLCANAP Grégory, HARNAIS Vincent, ROUSSEAU-HANS Françoise, WEIL-MIKO Christine. Les pratiques de recherche documentaire des chercheurs français en 2020 : étude du consortium Couperin. Couperin.org [2021]. En ligne [consulté le 12/05/2021]. Disponible en ligne à l’adresse <https://hal.inrae.fr/hal-03148285/document>

[2] OURY Antoine. Recherche : Google et Sci-Hub, plus pratiques que les accès des bibliothèques ?. Actualitté.com [03/03/2021]. En ligne [consulté le 08/05/2021]. Disponible à l'adresse <https://actualitte.com/article/99158/edition/recherche-google-et-sci-hub-plus-pratiques-que-les-acces-des-bibliotheques

[3] DEMEURRE Yohan. Cette hackeuse pirate la science pour la rendre disponible à tous ! Sciencepost [31/03/2021]. En ligne [consulté le 08/05/2021]. Disponible à l'adresse <https://sciencepost.fr/cette-hackeuse-pirate-la-science-pour-la-rendre-disponible-a-tous/

[4] Ministère de l’enseignement supérieur et de la recherche. Présentation du projet ISTEX. . En ligne [consulté le 08/05/2021]. Disponible à l'adresse <http://www.cpu.fr/wp-content/uploads/2012/04/Projet_ISTEX.pdf>

 [5] Couperin. Ouverture de PANIST, la Plateforme d'Archivage National de l'Information Scientifique et Technique. En ligne [consulté le 08/05/2021].  Disponible à l'adresse <https://www.couperin.org/breves/1369-ouverture-de-panist-la-plateforme-d-archivage-national-de-l-information-scientifique-et-technique>

dimanche 9 mai 2021

Digital Workplace : Un espace de travail dématérialisée

Les nouvelles technologies ont bouleversé nos façons de travailler, simplifiant les processus, fluidifiant les échanges en augmentant la productivité. En effet, en pleine transition numérique, la Digital Workplace apparaît de plus en plus comme un moyen de répondre aux attentes des collaborateurs tout en modernisant les espaces de travail. Avec la crise de la covid-19, on a assisté à une accélération du déploiement de la Digital Workplace  au sein des organisations [1]. Répondant aux attentes des employés et des décideurs, la Digital Workplace semble avoir de belles perspectives devant elle, d’autant que le marché est particulièrement en constante évolution. Pour preuve, il devrait atteindre les 2 milliards d’euros en France en 2023, avec une croissance annuelle moyenne avoisinant les 5 % [1].

La Digital Workplace en quelques mots :

  • Elle unifie l’ensemble des outils de communication de votre entreprise (e-mails, messagerie instantanée, réseau social d’entreprise et visioconférence) ;
  • Elle réinvente la gestion des documents et le partage d’informations ;
  • Elle simplifie le travail en équipe grâce à des espaces dédiés au travail collaboratif ;
  • Elle rassemble au même endroit tous les outils utiles à vos collaborateurs ;
  • Elle offre une nouvelle expérience collaborateur, davantage tournée vers l’intelligence collective et les modes de travail alternatifs[2].

Digital Workplace, nouveau pilier des entreprises :

Véritable accélérateur de la transformation numérique, la pandémie de la Covid-19 a convaincu les entreprises de la nécessité de repenser efficacement le « travailler ensemble», et ce dans une perspective durable. La conviction de Devoteam Management Consulting, cabinet de conseil en management et transformation digitale est claire :  "la Digital Workplace est un élément clé dans cette transformation. Elle offre aux collaborateurs la possibilité d’accéder à distance et à tout moment à leur environnement de travail tout en optimisant la collaboration. Les solutions doivent être simples, multi-terminaux, sans rupture entre les modes de communication et sécurisées ! " souligne Sophie Malarbet, Associate Partner au sein du Cabinet [3].

Articulation entre Digital Workplace et la tendance anywhere opérations 

La pandémie mondiale a non seulement ébranlé le statu quo dans la manière dont les entreprises réagissent aux changements d'infrastructure, mais elle a complètement modifié le paysage des processus métier essentiels. Le passage massif aux opérations en ligne a rendu une infrastructure flexible impérative.Gartner prédit que d'ici à la fin de 2023, 40% des entreprises adopteront un modèle de bureau hybride plus fluide où les employés ne seront pas obligés de faire de longs trajets ou des horaires 9-5 standard[4]. En effet, pour Gartner, Anywhere Opérations offrira une expérience à valeur ajoutée unique dans cinq domaines clés : Accès à distance sécurisé, infrastructure cloud et de périphérie, collaboration et productivité, automatisation pour prendre en charge les opérations à distance et quantification de l'expérience numérique[5].

Les approches de Digital Workplace

En fonction de l’endroit où travaillent ses collaborateurs aujourd’hui, l’entreprise doit définir là où les collaborateurs doivent travailler demain, puis agir en choisissant une stratégie : 
  • Stratégie 1 : Amener la Digital Workplace dans le flux de travail. Celle-ci doit s’articuler au plus près de l’email, de la messagerie instantanée et de l’environnement de réunions. Elle doit aiguiller l’utilisateur vers là où sa contribution est attendue, proposer des actions (sur les documents, les tâches) depuis le flux de travail, amener de l’intelligence pour traiter les informations plutôt que les accumuler par ordre chronologique ; 
  • Stratégie 2 : Amener le flux de travail dans la Digital Workplace. Celle-ci doit s’articuler autour du processus de l’utilisateur, qui peut alors prendre connaissance d’une activité et la traiter, converser avec ses collègues autour du processus, gagner du temps dans le traitement des informations via un environnement consolidé [6].

Sources :

[1] Eric Le Ven, Archimag, Digital workplace : Ce que pensent les organisations Françaises, 10/03/2021.Disponible en ligne à l’adresse <https://www.archimag.com/digital-workplace/2021/03/10/supplement-archimag-collaboratif-enquete-digital-workplace>consulté le 04/05/2021

[2]  Paul Maubareyt, Benoît Renoul, Blog talkspirit ,Tout savoir  sur la digital workplace,15/05/2020. Disponible en ligne à l’adresse <https://blog.talkspirit.com/tout-savoir-sur-la-digital-workplace-definition/> Consulté le 04/05/2020

[3] Figaro Partner, l’âge d’or de la Digital Workplace, 09/2020. Disponible en ligne à l’adresse
<https://www.nexthink.com/wp-content/https://uploads/2020/09/Le-Figaro-Partner-Digital-Workplace> Consulté le 05/05/2021

[4] Estelle Rafin ,Blogdumodérateur, Les 9 tendances  technologiques de 2021 selon Gartner< https://www.blogdumoderateur.com/gartner-9-tendances-technologiques-2021/> 
[5] Kasey Panetta ,Gartner, Principales tendances technologiques stratégiques de Gartner pour  202, 10/09/2020 . Disponible en ligne à <https://www.gartner.com/smarterwithgartner/gartner-top-strategic-technology-trends-for-2021/> Consulté le 05/05/2021

[6] Michel Ezran , Blog Lecko Digital Workplace : Une approche pragmatique pour mieux arti-culer le local et le global <https://blog.lecko.fr/dwp-mieux-articuler-local-et-global/> Consulté le 05/05/2021

samedi 8 mai 2021

Observations sur le télétravail (1)

La crise du COVID-19 aurait fait faire un bon de 10 ans en avant à l’adoption du télétravail [1]. En effet, contraintes par les mesures sanitaires prises pour combattre la pandémie, les organisations qui le pouvaient ont flexibilisé leurs modes de travail pour maintenir leurs activités tout en protégeant la santé de leurs employés. De ce fait, pratiquement du jour au lendemain, le cadre spatio-temporel traditionnel de bon nombre de salariés a volé en éclat sous les coups numériques de la nécessité. 

Cependant, ce qui a été mis en place dans l’urgence n’est pas forcément viable ni même souhaitable à court ou moyen termes, ne serait-ce que parce que le télétravail ne convient pas à tous ceux à qui il a été imposé. C’est pourquoi les conséquences de cette marche forcée et précipitée vers le progrès doivent être rapidement évaluées et, très souvent, corrigées.


Le faux-semblant de la facilité technologique

La transmutation des activités professionnelles du réel au virtuel s’est notamment appuyée sur les technologies de la transformation numérique. Celles-ci offrent des solutions de collaboration, de prise de décision, de gestion des documents et de partage de l’information automatisées qui permettent de travailler à plusieurs, en synchrone comme en asynchrone, et qui sont accessibles de partout via Internet. 

Pour les entreprises qui avaient déjà adopté ces technologies ce fut surtout un changement d’échelle mais, pour celles qui ont dû improviser, la prise de risques est considérable en termes de cybersécurité et de confidentialité des informations [2].  En particulier, en cas de divulgation ou de perte de secrets professionnels ou des affaires, de propriétés intellectuelles, ou de données personnelles, les répercutions juridiques, financières, commerciales et en terme de réputation peuvent être très sévères. Or l’impréparation démultiplie les vulnérabilités qui peuvent trouver leurs origines tout à la fois dans les équipements électroniques, les logiciels, les connections et les pratiques.

Dès lors, comment s’étonner de l’explosion de la cybercriminalité durant la crise sanitaire [3] [4].


La simplicité tragique du Bring Your Own Device (BYOD)

Cette pratique consiste à autoriser les employés à utiliser leurs terminaux personnels à des fins professionnelles (téléphones mobiles, tablettes, ordinateurs…), voire à le leur demander. Or cet expédient est particulièrement périlleux, surtout lorsque ces équipements sont partagés entre les membres d'une même famille. En effet, les entreprises ne peuvent alors ni imposer les mesures de sécurité appropriées ni même contrôler qu'il y en ait d'appliquées. Et, inversement, les activités et les données privées peuvent être captées par les outils mis à disposition par les employeurs [5].

Dans ces conditions, la sécurité des données des uns et des autres, et l’accès au réseau de l’entreprise repose sur :

  • Les connaissances en cybersécurité des salariés et les protections qu’ils mettent en place sur leurs terminaux, à commencer par la présence d’un antivirus performant à jour et l’utilisation de mots de passe forts.
  • Les connaissances informatiques des utilisateurs (système d’exploitation, outils de bureautique et de communication, et paramétrages de sécurité et de vie privée), et la prudence de leur navigation sur Internet. En effet, leur ignorance, leur négligence ou leur naïveté peut causer la perte d’informations ou en compromettre [6].
  • La sûreté des applications installées ou utilisées en ligne, et leur conformité aux règles de protection des données personnelles [7] .

A commencer par celles grand public dont le modèle économique est basé sur la recherche immédiate de la croissance exponentielle du nombre d’utilisateurs et la captation de leurs données à des fins commerciales, au détriment de la sécurité du code, de la confidentialité des données et de la localisation des serveurs (la gratuité est un leurre, la rentabilité financière un impératif). A cet égard, les débuts chaotiques de l’application de vidéoconférence ZOOM ont confiné à la caricature.

Mais aussi la sûreté et la conformité des applications professionnelles fournies par les employeurs car celle-ci collectent parfois les données personnelles, notamment lorsqu'elles ont des fonctionnalités de contrôle du travail des employés [8]. 

  • La sécurisation du Bluetooth et des multiples objets connectés, qui sont parfois conçus pour être à l’écoute, tels que les Assistants Personnels [9]. Potentiellement, ils constituent autant de points d’accès secondaires aux terminaux qui les commandent.


Le maillon le plus faible de la cybersécurité

En définitive, il vaut mieux que les entreprises investissent pour équiper leurs salariés de terminaux mobiles dédiés à leur travail [10]. 

Au premier abord, le coût du contrôle des risques par l’acquisition de la maîtrise matérielle et logicielle de la cybersécurité peut sembler rédhibitoire. Mais en réalité, comparé à celui des conséquences d’une attaque de type Ransomware, il est minime [11].

Pour autant, la mise disposition de ces équipements ne suffit pas à elle seule. Elle doit impérativement être accompagnée de sensibilisations du personnel aux risques, de formations aux outils, ainsi que d’exercices et de tests réguliers [12]. En effet, l’être humain est à la fois la clé de voûte de la cybersécurité et son élément le plus fragile .


samedi 1 mai 2021

Post-vérité et complotisme : le marché de l'information est-il responsable ?

    Le mouvement QAnon aux Etats-Unis ou le succès viral du documentaire "Hold-up" [1] montre la place de choix qu'occupent les réseaux sociaux pour la promotion des théories conspirationnistes. Sphère d'information dérégulée, Internet a favorisé une massification des sources d'information et les médias traditionnels se trouvent aujourd'hui bousculés par des producteurs d'informations "alternatives", sensibles à la lecture complotiste de l'actualité. Sans chercher à discuter du contenu de ces thèses ou du mécanisme de basculement, le but sera ici d'étayer quelques hypothèses pour comprendre comment le marché de l'information a pu participer au déclassement des médias historiques sur Internet et accompagner l'émergence de ces thèses.


Crédit : Gordon JOHSON/Pixabay


L'infomédiation : algorithmes et régime de la visibilité


    En 1996 et 2002, face à la surabondance de contenus informationnels sur leur moteur de recherche, Yahoo! puis Google lancent un service de médiation de l'actualité (Yahoo! et Google News) pour organiser la cacophonie inhérente du web [2]. Ces services, tout comme le PageRank de Google, sont symptomatiques de ce que certains appellent l'ère du clic et de l'attention. Leur adoption par les internautes crée une dépendance des médias envers ces plateformes et les obligent à s'adapter pour ne pas perdre leur audience : 
 
"Face au succès d'infomédiaires tels que Google Actualités, la politique des différents éditeurs est ambiguë, voire ambivalente, faisant se côtoyer mise en cause d'une concurrence considérée comme déloyale et souci presque obsessionnel d'un bon référencement, le tout pesant sur la nature des contenus ainsi produits" [3].

    Pour conserver ses parts de marché, la presse en ligne doit adopter les codes du web, indexer sa production à la demande des internautes et se plier au format court [4]. Une journaliste du Monde le confiait à Guillaume Goasdoué en 2011 :  
 
"On s'est rendu compte que la façon dont c'est titré, plus c'est titré court, direct, mieux ça marche. Les titres à la Le Monde Papier qui sont très longs, très explicatifs, ça marche moins en ligne que les trucs très courts qui vont direct à l'essentiel, qui sont percutants" [5].

    La nécessité du format court a également étendu la reprise des dépêches d'agences de presse. Ainsi, "de 2001 à 2006, la part de textes provenant de Reuters et d'Associated Press passe de 34% à 50% dans les articles publiés par les sites de médias" [3]. Cette part de plus en plus importante participe à la standardisation des contenus et, de fait, contribue à une certaine uniformisation et au sentiment d'une offre moins diverse. Cette part plus importante d'articles courts, couplée à la récurrence des dépêches peut diminuer la confiance du public et donner l'impression d'un journalisme de reprise plus que d'un journalisme d'investigation. 

La dérégulation du marché de l'information


    Autre effet de l'apparition des agrégateurs de contenu et des moteurs de recherche : ils bousculent la hiérarchisation historique entre organes de presse et le reste des diffuseurs. Sur ces plateformes, tout diffuseur peut avoir une visibilité égale à celle d'un média traditionnel :

"Avant l'adoption massive d'Internet, les médias traditionnels jouaient un rôle de sélection des informations qu'ils jugeaient pertinentes pour leur public (ce que l'on nomme le "gatekeeping"). Désormais, les internautes sont libres de produire et de diffuser leurs propres contenus. De fait, les informations qui entrent dans le champ public ne sont plus filtrées par des journalistes professionnels" [4].

    La dérégulation (ou libéralisation) du marché de l'information, par la suppression de hiérarchisation des contenus permet donc à des diffuseurs complotistes de proposer une "réinformation" (par opposition à l'information officielle, manipulée par le pouvoir) et d'apparaître sans distinction notable aux côtés des médias historiques. Tout en adoptant en apparence les codes et le langage journalistiques [6]. L'internaute, à première vue, ne peut pas s'apercevoir de la différence entre un organe de presse reconnu et un diffuseur complotiste puisque rien ne le signale explicitement. Même si depuis quelques temps, les plateformes, conscientes du danger, tentent de réguler le phénomène en identifiant puis supprimant les contenus mis en cause [7]. 

Dark patterns et chambre d'écho : émotions primitives et prédiction des attentes


    L'économie du web, centrée sur le trafic, pousse les producteurs de contenu à s'adapter à leur public et donc à livrer ce qu'il attend. Si Pierre Bourdieu montrait déjà cette dépendance entre la télévision et son audience [8], les médias en ligne doivent en outre faire face dans un même lieu à une pluralité de concurrents (entreprises diverses, blog, etc). Pousser l'internaute au clic devient alors un enjeu décisif pour sa survie. 

    Dans cet espace numérique où le temps de décision est considérablement court, l'appel à l'émotion ou au sensationnel peut présenter un avantage considérable. Pour s'assurer de son audience, de nombreux diffuseurs de contenus utilisent des titres chocs qui favorisent une réaction émotionnelle forte. Dans ce sens, une étude du MIT a montré qu'une fausse information a 70% plus de chance d'être propagée qu'une vraie information. L'analyse sémantique des commentaires posés sous ces contenus indique qu'elles suscitent plus souvent la surprise, la peur ou le dégoût [9]. Les médias paraissent dès lors démunis devant une surenchère émotionnelle qui imprègne de plus en plus les réseaux sociaux. 

Crédit : Beware onlines "filter bubbles", Eli PARISER

   Ces mécanismes apparaissent comme un terreau pour faire perdre la place privilégiée des médias de confiance. Et en perdant leur hégémonie, ils favorisent l'émergence de contenus complotistes. Le phénomène de chambre d'écho l'accentue encore : les contenus proposés aux utilisateurs sont filtrés en fonction de leurs habitudes et préférences. Ce qui facilite leur enfermement dans un corpus idéologique ciblé. Ce phénomène privilégie les biais de confirmation et participe au matraquage de fausses informations pour certains utilisateurs sensibles. La Trusted News Initiative, fruit d'un partenariat entre les grands organismes de presse mondiaux (AFP, Reuters, BBC...) et certaines grandes plateformes tech, réfléchit depuis 2019 à cette problématique. Selon elle, pour gagner contre les propagateurs de fausses informations, la presse doit se concentrer sur les armes de base du journalisme : "Faire son travail d'enquête avec des règles précises, une éthique, des preuves et relayer les résultats de manière transparente" [11].


Sources

[1] LEBOUCQ Fabien, NASS Claire-Line, THAIS Chaigne. Six millions de vues pour "Hold-up" : itinéraire d'un documentaire phénomène. En ligne sur liberation.fr. Publié le 23 avril 2020 : <https://www.liberation.fr/france/2020/11/23/six-millions-de-vues-pour-hold-up-itineraire-du-documentaire-phenomene_1806292/>

[2] REBILLARD Franck, SMYRMAIOS Nikos. Quelle "plateformisation" de l'information ? Collusion socioéconomique et dilution éditoriale entre les entreprises médiatiques et les infomédiaires de l'Internet. En ligne sur journals.openedition.org. Publié le 1er septembre 2019 : <https://journals.openedition.org/ticetsociete/4080>

[3] MARTY Emmanuel, REBILLARD Franck, POUCHOT Stéphanie, LAFOUGE Thierry. Diversité et concentration de l'information sur le web. En ligne sur cairn.info. Publié le 14 janvier 2013 : <https://www.cairn.info/revue-reseaux-2012-6-page-27.htm>

[4] BADOUARD Romain. Le désenchantement de l'Internet. Désinformation, rumeur et propagande. En ligne sur journals.openedition.org. Publié le 30 novembre 2017 : <https://journals.openedition.org/lectures/23578

[5] GOASDOUE Guillaume. Pratiques et normes journalistiques à l'ère numérique. En ligne sur cairn.info. Publié le 4 janvier 2016 : <https://www.cairn.info/revue-politiques-de-communication-2015-2-page-153.htm>

[6] SARI Antoine. "Réinformation" et désinformation : l'extrême droite de médias en ligne. En ligne sur acrimed.org. Publié le 10 mars 2015 : <https://www.acrimed.org/Reinformation-et-desinformation-l-extreme-droite>

[7] DREYFUS Louis. Facebook supprime 900 pages et groupes liés à la théorie complotiste QAnon. En ligne sur lemonde.fr. Publié le 20 août 2020 : <https://www.lemonde.fr/pixels/article/2020/08/20/facebook-supprime-900-pages-et-groupes-lies-a-la-theorie-complotiste-qanon_6049458_4408996.html>

[8] BOURDIEU Pierre. Sur la télévision. Publié le 1er janvier 1996 

[9] VOSOUGHI Sorouh, ROY Deb, ARAL Sina. The spread of true and false news online. En ligne sur sciencemag.org. Publié le 9 mars 2018 : <https://science.sciencemag.org/content/359/6380/1146>

[10] CARDON Dominique. A quoi rêvent les algorithmes ? En ligne sur journals.openedition.org. Publié en 2015 : <https://journals.openedition.org/lectures/20554>

[11] GALLET Nathalie. Lutte contre la désinformation : "Pour gagner une bataille il faut commencer par avoir une armée". En ligne sur meta-media.fr. Publié le 27 mars 2021 : <https://www.meta-media.fr/2021/03/27/lutte-contre-la-desinformation-pour-gagner-une-bataille-il-faut-commencer-par-avoir-une-armee.html>