jeudi 28 novembre 2019

La dématérialisation est elle écologique ?

Dans l’ère de la dématérialisation, cette dernière est souvent perçue comme étant plus écologique avec un impact plus faible sur l’environnement.  Dû à la diminution des impressions, envois par courrier postal … accompagnée d’une simplification des processus qui engendre des gains de temps et financiers. Cependant, a-t-on conscience des répercussions de notre consommation numérique ?
Quelques chiffres 

Près de 4% des effets de serre dans le monde sont produits par le numérique c’est-à-dire plus que le transport aérien civil. Si aucune prescription n’est mise en place, ce chiffre pourrait doubler d’ici 2025. [1][2]
Une simple recherche sur Google équivaut à 7g de CO2, un mail stocké équivaut à 10g de CO2 par an c’est autant que l’émission de CO2 d’un sac plastique … [3]
Chaque jour, c’est 10 milliards de mails envoyés dans le monde sachant qu’un mail consomme autant qu’une ampoule allumée pendant une heure, il parcourt plus de 15 000 kilomètres pour arriver à destination. [2]


Les avantages de la dématérialisation 

- Etre un pilier d'une société plus durable,
- Faciliter le quotidien des citoyens en simplifiant les procédures administratives et celui des entreprises en fluidisant les processus,
- Apporter de nouveaux modes de travail à distance et une réduction des déplacements, 
- Remplacer les quantités imposantes de papier consommées dans le monde. [1]


Les principales raisons de cet impact environnemental 

- Les data centers : les centres de stockage de données ne cessent d'accroître leur volume d'informations collectées (big data) et de ce fait leur consommation en énergie pour les stocker et les traiter augmente également,

- Les fabricants de matériaux : pour fabriquer un ordinateur par exemple, il faut compter 16 fois son poids en matériaux. Le ration est parfois beaucoup plus important sur certains composants, ce qui entraîne une augmentation de l'épuisement des ressources, de la pollution de la terre, de l'air et des eaux,

- Les logiciels : via la consommation nécessaire pour les faire fonctionner. [3]


Les démarches prises au sein des entreprises 

- Mettre en avant la responsabilité sociétale et le souci de préserver l'environnement,
- Mettre en place des solutions plus respectueuses de l'environnement en alimentant les data centers par des énergies renouvelables par exemple,
- Augmenter la durée de vie des produits informatiques. [2]

Quelques conseils

- Limiter la consommation d'énergie (éteindre les appareils, désactiver les fonctions : wifi, GPS, utiliser une multiprise avec un interrupteur ...),
- Optimiser les impressions,
- Penser au recyclage (ordinateur, smartphone ...). [2]

Sources :

[1] Archimag. L'écologie numérique : infographie, chiffre clés et conseils pour une dématérialisation plus verte
Disponible en ligne. Consulté le 27/11/2019.
https://www.eco-sapiens.com/dossier-189-Le-cout-ecologique-de-la-dematerialisation.html

[2] ADEME 2019. Réduire les impacts du numérique sur l'environnement. Disponible en ligne. Consulté le 03/12/2019.
https://www.ademe.fr/sites/default/files/assets/documents/guide-pratique-face-cachee-numerique.pdf

[3] Eco-sapiens. Le coût écologique de la dématérialisation.
Disponible en ligne. Consulté le 03/12/2019.
https://www.eco-sapiens.com/dossier-189-Le-cout-ecologique-de-la-dematerialisation.html

lundi 18 novembre 2019

Le DAM, un outil en pleine évolution


Archimag a mené une enquête auprès de 150 organisations sur les usages du DAM et sur la façon dont aujourd’hui elles gèrent leurs ressources multimédias. Ces chiffres nous montrent que, malgré la transformation digitale enclenchée par beaucoup, le “bricolage” reste de mise et le DAM à l’état de projet.

Le DAM est un logiciel qui permet la gestion des contenus multimédias avec l’essor de la communication visuelle et du e-commerce (photos et vidéos contribuent fortement à l’achat), mais aussi pour les marques, les médias et la presse.[1] Contrairement à la GED qui prend en charge des documents, c’est à dire, selon la définition donnée par Larousse, une « Pièce écrite ou objet servant d’information, de témoignage ou de preuve », le DAM prend en charge des actifs numériques, c’est à dire des objets numériques produits et commercialisés en tant que tels, par exemple ses vidéos, logiciels, images, etc.[2] En d’autres termes, le DAM s’intéresse toujours à des actifs, tandis que la GED s’intéresse à des documents qui ne sont pas forcément des actifs (des documents commerciaux et administratifs).

Selon le magazine Archimag, 63% des organisations ne sont pas encore équipées d’une solution de DAM. 1 sur 4 est simplement en train de se renseigner sur le sujet et 1 sur 10 seulement est à la recherche d’une solution. C’est la preuve que le terrain du DAM reste à défricher et à évangéliser pour les éditeurs de solutions. Aussi, selon l’enquête, la gestion des médias au sein des entreprises est essentiellement assurée par le service communication et marketing (46%). Il faut bien noter que bon nombre d’organisations n’ont mis en place aucune gouvernance à ce sujet et que les médias sont éparpillés au sein des différents services, sans structure particulière ni centralisation.

D'après Archimag, il y' a plusieurs problèmes rencontrés avec ces ressources multimédias, mais les trois principaux sont la recherche des ressources (pour 58% des sondés), la gestion des droits (pour 52% des sondés) et l’éparpillement des ressources au sein de différents systèmes de stockage (pour 48% des sondés). D'autres sont cependant aussi pointés du doigt dont :
- la réutilisation de certaines de ces ressources (pour 43% des sondés)
- la gestion de multiples formats (pour 38% des sondés)
- la publication des ressources dans différents formats (pour 34% des sondés)
- le tracking des ressources (pour 29% des sondés)
- la gestion des accès aux ressources (pour 25% des sondés)
- le contrôle des versions (pour 23% des sondés)
- le partage des ressources avec des partenaires ou des clients (pour 37% des sondés).


Or, Le Digital Asset Management regroupe un ensemble de fonctionnalités qui aident les entreprises à organiser, stocker et partager leurs ressources numériques ou Assets digitaux. Il joue un rôle essentiel dans une stratégie de Marketing Resource Management performante. Le principal objectif d’une solution DAM est d’aider une entreprise à tirer le meilleur parti des différents médias qui sont à sa disposition (images, vidéos, enregistrements sonores, fichiers 3D et contenus marketings divers) [3]


Aussi, le DAM est-il capable de prendre en charge d’énormes volumes de données (plusieurs millions de médias dans certains cas) et de supporter tout type de fichiers (des fichiers vidéos, des fichier photos, mais aussi des fichiers 3D, des fichiers PDF, des fichiers textes, etc.). Il permet de créer une version ou des versions adaptées aux usages les plus fréquents de l’entreprise (la version HD d’une vidéo pour la chaine YouTube, une version SD pour le site web, une version recadrée optimisée pour les réseaux sociaux, etc.) Il permet également de faciliter l’indexation des médias et de créer des sous-titres et de repérer certains mots-clés sur des vidéos. Le DAM facilite aussi la recherche des photos et des vidéos, toutes les solutions DAM intègrent un moteur de recherche full text avec auto-complétion, mais aussi des filtres qui permettent d’affiner les recherches, et de toujours retrouver les médias stockés, de ne pas les oublier et surtout de pouvoir les réutiliser.[4]

On peut citer d’autres fonctionnalités du DAM : gestion des droits, c’est-à-dire les droits d’auteur (qui a pris la photo ?) les droits à l’image (qui est présent sur la photo ?), mais aussi les droits d’accès (qui accède à la photo ? et que peut-il en faire ?), Workflows automatisation taches, publication sur les réseaux sociaux, prise en charge de tout type de documents, stockage centralisé photos/vidéos, partage collaboration, annotation retouches Versioning, création collection, recherche facilitée, suivi Analytics KPI, gestion des accès et des permissions.



[1] Eric Le Ven, Le DAM, une solution essentielle pour soigner son image, agence digital d'Archimag, édité le 10/04/2019, www.ebookdam-archimag.com. (Consulté le 14/04/2019).

[2] https://www.ged.fr/dam/ (Consulté le 14/11/2019).

[3] https://www.wedia-group.com/fr/library/qu-est-ce-que-le-dam-ou-digital-asset-management/ (Consulté le 13/11/2019).

[4] https://www.archimag.com/veille-documentation/2018/10/08/video-pourquoi-dam-outil-indispensable. (Consulté le 14/11/2019).

samedi 16 novembre 2019

Bert : un nouvel algorithme pour le moteur de recherche Google



Le 25 octobre dernier Pandu Nayak (vice-président en charge du moteur de recherche) annonçait l’application d’un algorithme  appelé  BERT (Bidirectional Encoder Representations from Transformers) et destiné à faciliter la compréhension du langage naturel par le moteur de recherche. Présenté ça et là comme la plus importante mise à jour du search de Google en cinq ans, BERT avait été dévoilé et mis à disposition en open source en 2018. 

D’abord, le contexte

« S’il y a bien une chose que j’ai appris en 15 ans de travail sur Google Search, c’est que la curiosité des gens n’a pas de limite.  Chaque jour on compte des millions de recherches et 15% d’entre elles sont complètement inédites - alors nous avons trouvé le moyen de retourner des résultats même aux requêtes que nous ne pouvions pas anticiper. » Ces mots sont ceux de Pandu Nayak à l’occasion de l’annonce de la mise à jour du Google Search matérialisée par l’application de BERT sur le moteur de recherche. Le vice-président de Google Search Pandu Nayak présente l’algorithme comme un moyen de mieux comprendre le langage dit naturel, qui désigne le langage ordinaire par opposition au langage formel et ce, grâce à une Machine Learning (IA). [1]
Google traite de plusieurs centaines de milliards de pages Web indexées. Les requêtes des internautes se complexifient du fait de la multiplication des sites web. Les méthodes de formulation des requêtes changent, donc, notamment par l’adoption de plus en plus répandue chez les internautes de la recherche vocale. [2]
La formulation d’une requête entraîne la proposition de résultats classés par ordre de pertinence vis  à vis de la requête formulée par l’internaute. Les algorithmes de recherche prennent en compte plusieurs facteurs quant au classement de ces résultats, tels que les sources et leur niveau d’expertise qui font gage de qualité, par exemple. Mais la pertinence de ces mêmes résultats repose aussi sur les mots utilisés dans la requête. [3]

Bert : principe et fonctionnement. 

Afin de proposer des résultats toujours plus pertinents, l’analyse des mots utilisés dans la requête sera couplée, grâce à BERT, à la prise en compte du contexte de ces mots. Basé sur la technique linguistique de Traitement automatique du Langage Naturel (TLN), BERT permet la compréhension de requêtes longues formulées en langage naturel, telles que : « je cherche un restaurant pas cher dans Paris ». Plutôt que la recherche par mot-clef et sans contextualisation de ceux-ci dans la phrase ( « chercher » ,  « restaurant», « quartier » et « Paris »), le nouvel algorithme du Machine Learning de Google permettra la compréhension de chaque mot avec ce qui le lie aux autres mots de la requête, notamment parce que BERT permet également la contextualisation des pronoms. BERT permet aussi l’identification des problèmes de compréhension du moteur liés  à l’homonymie ou encore à la valeur polysémique de certains termes. BERT n’est pas le premier d’une série d’algorithmes basés sur la TLN. Cependant il est plus performant et plus rapide  que ceux qui l’ont précédé. Grace à BERT, Google pourra également mieux comprendre ses contenus indexés. [4]

BERT : quel impact sur nos recherches ? 

Ce que BERT permet surtout c’est de mieux comprendre les requêtes longues et complexes tapées sur le web ainsi les questions posées à l’assistant vocal, un outil qui connaît une constante évolution.  Pour les requêtes ne contenant qu’un, deux voire trois mots-clef, BERT ne sera pas mobilisé. C’est ainsi que BERT ne concerne finalement que 10% des requêtes des internautes, et seulement aux Etats-Unis pour le moment. L’algorithme n’est encore appliqué qu’à la langue anglaise, mais devrait rapidement être applicable à de nombreuses langues y compris le français. Enfin, la communauté SEO s’accorde pour dire que l’application de cet algorithme ne changera rien au référencement des sites web, si ce n’est que le contenu proposé devra être toujours plus qualitatif afin de répondre aux intentions de recherche des internautes. Quelques questions demeurent, dont l’applicabilité de l’algorithme BERT à la compréhension de textes. Mais c’est sans aucun doute avec les recherches vocales, dont les requêtes sont longues et plus difficiles à analyser que BERT sera le plus performant et pourra faire bénéficier les internautes d’autres de ses fonctionnalités, dont une capacité à répondre à des questions ou à prédire une phrase à suivre. [5]

[1] "Understanding searches better than ever before" - Pandu Nayak -  Google (Consulté le 10/11/2019),


[2] "Pourquoi BERT, nouvelle mise à jour de l'algorithme de Google, est-il une bonne chose ?" - Le redactographe (Consulté le 11/10/2019), 

[3] "Comment fonctionnent les algorithmes de recherche ?" - Google (consulté le 10/11/2019)
https://www.google.com/intl/fr/search/howsearchworks/algorithms/


[4] "Présentation de BERT et impact en référencement" - WebRankinfo (consulté le 10/11/2019),
https://www.webrankinfo.com/dossiers/google-search/bert


[5] "Plus d'infos sur BERT, le nouvel algorithme de Google" - Abondance (consulté le 09/11/2019)
https://www.abondance.com/20191028-41166-plus-dinfos-sur-bert-le-nouvel-algorithme-de-google.html)

Infotech et élections municipales : un non sujet ?

Ces deux dernières années (1), l'opinion publique internationale a été alertée des dangers pour la démocratie de l'utilisation par les partis politiques d'outils de ciblage et de gestion de bases de données électorales. Si les pays Anglo-Saxons ont défrayé la chronique lors du scandale de Cambridge Analytica (2),  les partis politiques français ne sont pourtant pas en reste quant à l'utilisation des outils de gestion de bases de données pour appuyer leurs campagne. Pourtant la question ne semble, au niveau national, que peu intéresser la blogosphère des spécialistes de l'info-doc.

Le 7 octobre 2019, un article du journal en ligne la Lettre A (3) offrait un tour d'horizon des arsenaux de veille et gestion de contenu développés par les candidats en lice pour les municipales 2020. A Paris et dans une soixantaine de villes française, la République en Marche et  utilise ainsi Quorum(4), les équipes d'Anne Hidalgo se serviront quant à elles des services de l'agence eXplain(5): 

"Nous vous aidons à gagner grâce à la meilleure base de données locales au monde, 100% issues de sources transparentes, traitées par une intelligence algorithmique unique en son genre, SEARCH. Nous identifions les acteurs locaux essentiels à votre victoire, nous mesurons les risques associés à votre projet et nous scannons à tout instant nos sources pour vous apporter les informations clefs et la compréhension du contexte dont vous avez besoin pour changer la donne sur vos projets. Nous allons même directement au contact de ceux qui comptent pour vous, notamment par un porte-à-porte hyper-efficace et rationalisé. Vous faites beaucoup ; eXplain vous apporte le boost décisif pour l’emporter".

L'auteur de ce billet a donc voulu en savoir plus et rechercher des informations complémentaires dans la liste des blogs proposés par UniVersDoc, partant du principe qu'ils seraient représentatifs des dépositaires d'un savoir en pointe des usages de ces outils de prise de pouvoir et de mobilisation de masse. Disposant d'un puissant outils de recherche dans un cadre professionnel, KB Crawl(6), nous avons cherché l'ensemble des solutions mentionnées dans l'article du journal La Lettre A, dans les blogs présents sur la page "blogs experts". Le crawler fut paramétré pour ne chercher que dans les blogs présentés sur la première page, puis pour suivre parallèlement les liens sortants de ces blogs sur 5 niveaux, (soit cinq sites à partir du premier niveau constitué par les blog de la première page). Enfin les résultats de l'équation de recherche sont remontés parmi les 10 premières pages cliquables de l'ensemble des sites ainsi explorés. Si le temps limité de la recherche nous à obligé à ne pas dépasser les10 premières pages visitées, il s'agit d'un petit tours d'horizon de plus de 270 sites liés à moins de cinq niveaux de UniVersDoc, soit plus de 2700 documents.

L'équation de recherche est la suivante; Quorum OR Carata(7) OR Poligma(8) Or Nationbuilder(9) Or "Digital Box(10)" OR "Blue State Digital(11)". Elle n'a donné aucun résultat. 

Si l'on considère KB crawl comme un logiciel fiable, et que nous avons évité les erreurs de manipulation toujours possibles, nous pourrions en conclure que la question relativement nouvelle de la mobilisation des communautés d'électeurs par les outils de gestion de l'information dans le cadre des prochaines élections municipales n'est pas – encore – un sujets chaud pour les professionnels du milieu.

Utilisés depuis plusieurs années par les antennes locales(12), ces médiums sont pourtant autrement plus problématiques que le simple collage d'affiches, notamment en ce qui concerne les risques de transferts de ces pratiques des partis à l’État, la sensibilité des données personnelles recueillies lors des campagnes de terrain et confiées à des entreprises dont le siège n'est pas nécessairement en Europe, donc non soumises à la RGPD et la puissance de la propagande générée par le couplage de ces outils et des réseaux sociaux(13). 

Sources:

1. Cadwalladr Carole, 2017, « The great British Brexit robbery: how our democracy was hijacked », The Guardian, 7 mai 2017, https://www.theguardian.com/technology/2017/may/07/the-great-british-brexit-robbery-hijacked-democracy, consulté le 15 novembre 2019.
2. Comment Trump a manipulé l’Amérique, https://www.arte.tv/fr/videos/082806-000-A/comment-trump-a-manipule-l-amerique/, consulté le 15 novembre 2019.
3. Municipales : comment les candidats préparent leur big data électoral à Paris et dans les grandes villes - 07/10/2019, https://www.lalettrea.fr/action-publique_partis-et-elections/2019/10/07/municipales--comment-les-candidats-preparent-leur-big-data-electoral-a-paris-et-dans-les-grandes-villes,108375762-ge0 , 7 octobre 2019, consulté le 15 novembre 2019.
4. Quorum - Municipales 2020 - Aux côtés de ceux qui s’engagent, https://2020.quorum.co, consulté le 15 novembre 2019.

5. eXplain, page d'Accueil, https://explain.fr/, consulté le 15 novembre 201
6. KBcrawl - Solutions et outils de veille pour les professionnels, https://www.kbcrawl.com/fr/, consulté le 15 novembre 2019.
7. Hatis – Data science for leaders, https://www.hatis.fr/, consulté le 15 novembre 2019.
9. NationBuilder, https://nationbuilder.com/, consulté le 15 novembre 2019.
10. DigitaleBox, https://digitalebox.fr/, consulté le 15 novembre 2019.
11. La « Clicocratie » au service de Barack Obama, qualifié de « Président Web 2.0 » - Les Infostratèges, https://www.les-infostrateges.com/actu/la-clicocratie-au-service-de-barack-obama-qualifie-de-president-web-20, consulté le 15 novembre 2019.
12. Durand Corentin, 2016, Qu’est-ce que NationBuilder, le CMS qui veut renouveler la démocratie ?, https://www.numerama.com/politique/144986-quest-ce-que-nationbuilder-le-cms-qui-veut-sauver-la-democratie.html , 11 février 2016, consulté le 15 novembre 2019.
13. Petersen Neil, 2017, How Social Media Influences Offline Behavior, https://blog.allpsych.com/how-social-media-influences-offline-behavior/ , 31 mars 2017, consulté le 15 novembre 2019.

vendredi 15 novembre 2019

Les plateformes collaboratives BIM en butte aux résistances

Les plateformes collaboratives BIM (Building Information Model) sont devenues un élément fondamental d’un projet BIM. Editeurs et entreprises proposent des solutions clef en main ou évolutives mais leur usage au sein des organisations, s’il apparaît facilitateur, n’est toujours pas une évidence pour tous.

A l’heure où, du fait de son évolution, le BIM permet de gérer des masses de données importantes et que le processus lui-même génère des données supplémentaires, les outils de GED sont devenus indispensables autant que l’importance du travail collaboratif.  Stocker et gérer les données s’est imposé comme un enjeu important.

Depuis 1996, des missions gouvernementales ont été confiées à une association française telle que Mediaconstruct (membre de buidingSMART International) pour mettre en place des méthodologies et des normes pour « la promotion de formats neutres et de pratiques dites OpenBIM ». [1] L’association a aussi été mandatée par le gouvernement pour la mise en œuvre de la plateforme du PTNB (Plan de transition numérique dans le bâtiment). Autant de mesures mises en place pour pallier aux risques engendrés par l’évolution des technologies et celui « de voir s’imposer des formats natifs ou des plateformes collaboratives propriétaires ». [2]  Aussi, l’objectif aujourd’hui est-il de « clarifier et homogénéiser les échanges ». [3]

Récemment, la société Thinkproject qui se présente comme « le leader européen des plateformes collaboratives » a largement communiqué pas le biais de deux magazines spécialisés, Techniques de l’ingénieur et Archimag [4] [5] sur sa solution d’une démarche BIM-EDC (Environnement de données communes) intégrée qui allierait gain de temps et sécurisation des données. Mais si certains éditeurs comme Thinkproject, ou d’autres proposent leurs outils, de nombreuses entreprises sont encore dans une démarche expérimentale et cherchent des solutions qui leur sont propre. La thèse de Nicolas Ferrara [6] est à ce titre un exemple concret de recherche au sein du groupe Egis qui, le KM étant devenu obsolète, est passé au wiki et enfin à une solution de plateforme collaborative hébergeant de nombreuses communautés afin de maîtriser la gestion des données, dans le but de faciliter le partage des informations, les stocker, les sécuriser et les simplifier.

Dans le cadre de cette étude, il a soulevé plusieurs problèmes comme celui de l’accès à la connaissance, les risques de verrouillage de l’information ou des problèmes liés aux droits d’accès et même parfois à une stratégie « de contournement » de certains collaborateurs. Son constat est qu’il faudrait une véritable « appropriation » de l’outil collaboratif, l’approche collaborative n’étant pas encore spontanée. Car si buildingSMART France note que des résultats sont aujourd’hui palpables, l’approche collaborative continue de se heurter à des habitudes et des attitudes qui révèlent les « peurs » face au BIM.

[1] Internet (consulté le 23 octobre 2019) https://www.buildingsmartfrance-mediaconstruct.fr/
[2]  « Les fondamentaux du BIM », Techniques de l’ingénieur, entreprises et marchés, 27 juin 2018 Internet (consulté le 23 octobre 2019) https://www-techniques-ingenieur-fr.proxybib-pp.cnam.fr/actualite/articles/les-fondamentaux-du-bim-56067/
[3] ibid.
[4] « Le BIM est un rouage et l’EDC le maître d’œuvre », Techniques de l’ingénieur, publi reportage du 16 octobre 2019 Internet (consulté le 23 octobre 2019) https://www.techniques-ingenieur.fr/actualite/articles/le-bim-est-un-rouage-et-ledc-le-maitre-doeuvre-71668/
[5] « BIM, GED et si on vous proposait une plateforme unique pour vos projets BTP ? », Archimag, communiqué du 4 novembre 2019 Internet (consulté le 13 novembre 2019) https://www.archimag.com/demat-cloud/2019/11/04/bim-ged-plateforme-unique-projets-btp
[6] Ferrara, Nicolas, Le BIM au profit de la gestion et du partage des connaissances (BIM for knowledge sharing and management), Ecole Nationale des Ponts et Chaussées et Ecole Spéciale des Travaux Publics, du Bâtiment et de l’Industrie – Thèse Professionnelle, 21/12/2017 (consulté le 11 novembre 2019)
Ferrara, Nicolas. (2017). Le BIM au profit de la gestion et du partage des connaissances (BIM for knowledge sharing and management). 10.13140/RG.2.2.23268.07044






jeudi 14 novembre 2019

Les Journées Nationales de la Science Ouverte (JNSO 2019), 2e édition.

Paris accueille du 18 au 19 novembre 2019 les deuxièmes JNSO, une manifestation qui mettra en perspective l'année de 2019 en France, et soulignera les actions mises en place à l'échelle nationale, européenne, et internationale en ce qui concerne la libre diffusion des publications et des données de la recherche.

A l'initiative du Comité pour la Science Ouverte (CoSO), les Journées Nationales de la Science Ouverte 2019 (JNSO 2019), se dérouleront au Centre International de Conférences Sorbonne Universités (CICSU) à Paris. Créé dans le cadre du Plan national pour la science ouverte, le CoSO, par l'entremise son instance de pilotage opérationnelle (Copil SO), doit assurer la mise en œuvre de la politique de soutien à l'ouverture des publications et des données de recherche [1]. Si les premières journées (JNSO 2018) ont eu lieu sur trois (3) jours, du  4 au 6 décembre 2018, ces deux journées de manifestation ne seront pas pourtant  moins intenses. Un état d'avancement de la mise en œuvre du Plan national, un an après sa publication sera présenté, des activités réalisées au cours de l'année seront mises en perspective. Notamment celles qui ont également contribué de donner à la France une forte visibilité sur la scène internationale dans ce domaine. Citons, entre autres, la 10e conférence du COAR à Lyon [2]; la conférence d'ElPub [3] ) à Marseille; et l'Assemblée générale du projet européen OpenAIRE [4], du 9 au 11 décembre prochain à Paris. Une douzaine d'interventions, une table-ronde, et cinq (5) ateliers constitueront le menu des JNSO 2019 avec la participation d'intervenants de différents centres de recherche, universités, et institutions de différents pays.

Conférences, tables rondes, ateliers
Des interventions mettront l'accent sur certaines expériences en faisant ressortir les leçons apprises, les avancées, et les perspectives d'avenir. Paul AYRIS, responsable des services de documentation de l'University College of London, évoquera les initiatives de son institution en matière de science ouverte. Arianna BECCERIL-GARCIA présidente d'AmeliCA [5] présentera cette initiative du Sud pour les pays du Sud (Global), soutenue par l'UNESCO, le CLASCO, et le Redalyc. Il s'agit d'arriver à développer un écosystème coopératif de communication scientifique ouvert, inclusif et soutenable et échappant à l'emprise des grands éditeurs commerciaux. D'autres interventions mettront l'accent de la nécessité de davantage de coordination compte tenu de la pluralité des acteurs, des pratiques et des contextes. D'autant que le développement des technologies numériques continuera à bouleverser la manière de la faire de la recherche. Ainsi, à l'instar du Plan national en France, le Plan S et ses dix principes-clés propose un cadre d'harmonisation des politiques de science ouverte en Europe. Joroen BOSMAN et Bianka KRAMER de l'Université d'Utrecht aux Pays-Bas devront présenter les différentes options offertes aux parties prenantes (chercheurs, éditeurs, bailleurs de fonds, et établissement) pour une mise en conformité à ce plan élaboré en septembre 2018 (et dont  la nouvelle version  jugée plus réaliste a été publiée en mai 2019 [6]). Sans modifier toutefois l'ambition d'accélérer l'édition scientifique en libre accès. La table ronde qui a lieu le jour de l'ouverture de la conférence discutera de l'évaluation de la recherche scientifique en situation de science ouverte. Tandis que les cinq ateliers clôtureront les JNSO 2019. Les échanges, à visée pratique et opérationnelle, dans ces groupes de travail porteront sur les thèmes suivants:   
  • Rédiger un Plan de Gestion de Données (PGD)
  • Fairisation des entrepôts de données
  • Comment structurer une communauté autour de données? et la vôtre?
  • Aspects juridiques de la gestion et du partage des données
  • Logiciels et Science ouverte: enjeux et opportunités.
Les intéressés pourront suivre les JSNO 2019 en direct (avec traduction simultanée en français et en anglais) en cliquant ici.


[1] Missions du Comité pour la Science Ouverte
https://www.ouvrirlascience.fr/presentation-du-comite/
Consulté, le 14/11/2019
[2] Rapport de la 10e rencontre annuelle du COAR à Lyon en mai 2019
https://www.coar-repositories.org/news-updates/report-from-the-coar-annual-meeting-2019/
Consulté le 13/11/2019
[3] Portail  de la 23e Conférence
https://elpub2019.hypotheses.org/
Consulté le 13/11/2019
[4] Mission du projet OpenAire
https://www.openaire.eu/mission-and-vision
Consulté le 13/11/2019
[5] AmeliCA
 http://amelica.org/index.php/que-es-ameli/
Consulté le 13/11/2019
[6] INSERM
https://www.inserm.fr/actualites-et-evenements/actualites/open-access-nouvelle-version-plan-plus-realiste-et-applicable
Consulté le 14/11/2019

Le vitam : le logiciel d'archivage électronique



A l'instar de nombreux colloques et séminaires, une journée d'études se tiendra le 29 Novembre 2019 à l'INTD-CNAM. Au cours de cette journée organisée par XDemat et l'INTD-CNAM, les spécialistes de l'information débattront sur le thème: Enjeux et contraintes de l'archivage électronique, le positionnement de vitam.


A l'ère du numérique et plus principalement de l'archivage numérique plusieurs logiciels ont été édités pour faciliter la conservation des archives. La solution vitam faisant partie de l'une des dernières nouveautés de cette famille de logiciel, elle émane de la volonté de trois ministères pour une conservation pérenne des archives de l'Etat: les ministères des Affaires Etrangères, de la défense, de culture et communication[1][2]. 

Les archivistes et les informaticiens n'ont souvent pas le même point de vue sur la conception des logiciels d'archivages au cours des projets de grandes envergures; La solution vitam a été une réalité grâce à la bonne coopération de ces deux corps de métiers(archivistes, Informaticiens). 
L'objectif du vitam est de permettre la conservation sécurisée d'un grand nombre de documents d'archives au cours de leur cycle de vie (archives courantes, archives intermédiaires, archives définitives)[2].

La solution vitam connaîtra trois versions: les deux premières versions ont été présentées en 2018 après la version bêta de 2016 et le lancement front offices de 2017. Ces deux premières versions se positionnent comme la mise en production des plateformes[2]. 
La troisième version de la solution logicielle a été livrée en 2019 et marque la mise en oeuvre du logiciel par les trois ministères initiateurs et les partenaires[2]. Bien que la solution vitam soit née entre trois ministères qui ne l'utilisent pas au même degré, d'autres partenaires sont aussi concernés à cause du grand nombre de volume d'archives que ceux-ci produisent[1]. 

Le vitam qui connaîtra une amélioration continue et une finalisation des plateformes dans l'année 2020, se positionne aujourd'hui comme une solution logicielle à part entière en matière d'archivage  électronique[2].

Sources:

[1]Archimag, Vitam: Archiver à lère du tsunami numérique [Internet]. [cité le 14 Nov 2019]. 

[2]Programme interministériel archivage numérique [Internet]. [cité le 14 Nov 2019]. 

"Station de recherche : des outils pour apprendre à s'informer !"

https://louisbraillecdi.wixsite.com/chercheur
https://louisbraillecdi.wixsite.com/chercheur

Dans le cadre des TraAm DOC 2019 des documentalistes s'emparent de la problématique de l'autoformation des élèves en matière de recherche d’information.

Les Travaux Académiques Mutualisés, copilotés par la Direction du Numérique pour l’Education et l’Inspection Générale, donnent chaque année l’opportunité aux enseignants de travailler sur la mise en place de projets pédagogiques autour de l’utilisation du numérique et des TIC dans l’enseignement. Les divers travaux, conduits sur un an, regroupent jusqu’à 700 professeurs répartis, selon leur discipline, en 120 équipes interacadémiques [1].

Le thème choisi pour les TraAm DOC 2019 était : "Le professeur documentaliste créateur de ressources, de parcours et d’espaces d’apprentissage info-documentaires au sein du CDI virtuel", dont l’une des problématiques essentielles était la promotion de l’autonomie des élèves dans la recherche informationnelle, notamment par la mise à disposition d’outils permettant l’autoformation [2] [3]. A l’heure où 71% des collégiens déclarent s’informer sur les réseaux sociaux et 40% sur d’autres sites web, l’enjeu est de taille [4].

C’est dans ce contexte que Stéphanie Tur, professeur documentaliste au collège Louis Braille d’Esbly, a mis à disposition de ses élèves un site internet intitulé "Station de recherche" leur fournissant tous les outils pour une recherche informationnelle structurée, efficace et fiable [5].

Le site est divisé en 4 parties : "Préparer sa recherche", "Rechercher l’info", "Analyser l’info" et "Produire de l’info". Chaque section est elle-même organisée en sous-sections détaillant toutes les étapes nécessaires à la recherche (cerner son sujet, repérer une source, traduire en mots-clés, faire un document-collecte, comprendre le processus d’écriture, etc.). L’apprenti-chercheur y trouvera également une vidéo explicative ("qu’est-ce qu’une source ?") et de très nombreux formulaires à remplir (grille d’évaluation d’une ressource, aide à la constitution d’un plan de travail, formulation d’équations de recherche grâce aux opérateurs booléens, etc.), qui s'avèrent très utiles. Enfin l’élève aura accès à des applications telles que Prezi, pour réaliser un diaporama, Piktochart pour les infographies ou Framindmap pour élaborer une carte mentale. Le tout sous une forme ludique et colorée [6].

L’objectif est ainsi atteint de faciliter l’apprentissage de compétences info-documentaires et de mettre les collégiens utilisateurs de ce site sur la voie de l’autonomie en matière de recherche informationnelle. On consultera avec intérêt les travaux de synthèse des TraAm Documentation 2019 sur le site Eduscol [7]. 

Le sujet transversal des TraAM 2020 portera sur "les pratiques de recherches et l’évaluation de l’information dans un contexte de nomadisme accru", confirmant ainsi le rôle central des enseignants documentalistes et de la mise en œuvre des techniques de l’information-documentaire dans l’éducation des citoyens numériques de demain [1].

https://louisbraillecdi.wixsite.com/chercheur


[1]. "Les Travaux académiques mutualisés (TRaAM) : des laboratoires de pratiques numériques.", 06/05/2019. [Consulté le 13/11/2019].


[3]. Nous parlons ici de "l’autoformation éducative" telle que définie par P. Carré in P. Carré, A. Moisan et D. Poisson, L’Autoformation : psychopédagogie, ingénierie et sociologie. Paris, PUF, 1997, p. 22. ISBN 9782130487456. "Ensemble des pratiques pédagogiques visant à développer et faciliter les apprentissages autonomes, dans le cadre d'institutions spécifiquement éducatives." 

[4]. Enquête "École et citoyenneté » (second volet) menée par le Cnesco au printemps 2018. Résultats analysés in Le Zoom du Cnesco #1, "Education aux médias et à l'actualité : comment les élèves s'informent-ils ?", Février 2019.  [Consulté le 13/11/2019].

[5]. Maud Duhirel, "Station de recherche : le site où les élèves trouveront des outils pour se guider dans leur mission de chercheur d’information !", 09/09/2019.  [Consulté le 13/11/2019].

[6]. https://louisbraillecdi.wixsite.com  [Consulté le 13/11/2019].


La reconnaissance faciale s'implante au sein des services publics


Le ministère de l'intérieur et l'Agence Nationale des Titres Sécurisés (ANTS) ont pour projet de déployer une application de reconnaissance faciale : ALICEM (Authentification en Ligne CErtifiée sur Mobile). Concernant la demande de deux lycées, à Nice et à Marseille, qui souhaitaient intégrer la reconnaissance faciale à l'entrée, la CNIL a refusé cette mise en place et suggère d'utiliser des moyens moins intrusifs.


L'application est actuellement en phase de test, environ 10 millions de personnes se sont prêtées au jeu. Cette dernière peut être définie comme le sésame numérique pour les services de l'administration publique. Cependant, un projet d'une telle envergure entraîne forcément l'inquiétude des défenseurs de la vie privée. [1] [2] 


L’objectif dAlicem est de permettre aux Français qui le souhaitent de protéger leur identité sur internet et de s’identifier de manière sécurisée quand ils font leurs démarches en ligne.  
Il s'agit également d'une solution pour s’identifier en ligne et accéder à France Connect, le portail qui réunit tous les services numériques de l’Etat (exemples : le site des impôts, le compte Ameli de l'assurance maladie ou encore la plateforme ANTS)[1] 


Ce projet réveille l'enjeu de la protection des données et l'attente aux libertés individuelles.  L'association la quadrature du net a déposé un recours devant le Conseil d’État pour demander l’annulation du décret n° 2019-452 du 13 mai 2019 autorisant la création de l’application mobile puisqu'elle juge que l'on se dirige vers un "monde ultra-contrôlé, où l'utilisation d'un identifiant numérique est à la fois indispensable pour le citoyen et parfaitement traçable par les autorités". [3] 


Afin de minimiser les inquiétudes, l'ANTS assure que la vidéo demandée lors de l'inscription sera supprimée une fois la validation accordée. Puis, pour les prochaines connexions un code à six chiffres sera attribué. [1] 


Les avantages de ce projet : 

  • Lutter contre l'usurpation d'identité et criminalité via un canal plus difficile à frauder, 
  • Simplification des démarches administratives, 
(l'objectif d'ici 2022 : tous les services doivent proposer des demandes dématérialisées)  
  • Assurer la mission de régularisation de certification d'identité. [1] [2] 


Le lancement officiel est prévu en fin d'année 2019, actuellement le projet est en attente de la validation de la CNIL (Commission Nationale de l'Informatique et des Libertéspuisque l'application doit respecter l'article 9.1. du Règlement Général sur la Protection des Données (RGPD). Il est également intéressant de suivre le recours réalisé par l'association la quadrature du net. [4] 

Sources : 
[1] Interieur.gouv.fr. "Alicem : la première solution d'identité numérique". 
Disponible en ligne (consulté le 28/10/2019) : 

[2] L'express.fr. "Comment fonctionnera Alicem : l'application qui centralisera notre identité numérique" 
Disponible en ligne (consulté le 28/10/2019) : 

[3] Laquadrature.net. "La quadrature attaque l'application Alicem contre la génralisation de la reconnaissance faciale". 
Disponible en ligne (consulté le 28/10/2019) : 

[4] Nextinpact.com. "Alicem : biométrie identité numérique sur mobile fait tiquer la CNIL".