Affichage des articles dont le libellé est Ingénierie documentaire. Afficher tous les articles
Affichage des articles dont le libellé est Ingénierie documentaire. Afficher tous les articles

jeudi 4 mars 2021

Visite de musée : comment les chatbots du futur sauront répondre à toutes vos questions

Le Musée d’art moderne de Buenos Aires, la Pinacothèque de Sao Paulo, le Grand Palais de Paris… Grâce à la mise en place de chatbots, de nombreux musées proposent une nouvelle expérience à leurs visiteurs.[1] Ces agents conversationnels leurs permettent d’interagir avec les oeuvres et d’obtenir des réponses à leurs questionnements. Afin de capter l’intérêt du visiteur, des réponses de qualité doivent être apportées pour ainsi fidéliser le visiteur à l’utilisation de ces applications. Toute la difficulté réside alors dans la capacité à mettre en œuvre une technologie permettant de délivrer une information de qualité à la hauteur de l’enjeu.              

Les chatbots : existence de deux technologies très différentes

Le chatbot est une application permettant à son utilisateur de converser directement avec un interlocuteur virtuel. L’utilisateur n’a plus à rechercher les réponses à ses questions, par exemple, sur le site concerné, c’est le chatbot qui à l’aide de ses connaissances, réalise cette recherche et apporte la réponse. 

Le chatbot de « Première génération » se base sur la structure très simple des « arbres de décisions ». Le scénario de la discussion est établi au préalable, la conversation suit un circuit préétabli. [1]

Quant au chatbot de « Deuxième génération », il est basé sur la technologie de reconnaissance du langage naturel : les interactions entre l’utilisateur et la machine sont donc basées sur les questions ouvertes posées par l’utilisateur. Le scénario de la conversation ne peut donc pas être défini à l’avance. L’intelligence artificielle analyse et interprète sémantiquement la question, puis, en fonction de ses connaissances et données fournit une réponse à la question, formulée elle aussi en langage naturel. [1]

Quels sont les cas d’usage pour un musée ?

Facilement accessibles au visiteur depuis un smartphone, les chatbots permettent, de manière classique, un accès facilité à toute information pratique (jours, horaires d’ouverture, dates d’une exposition …) lui permettant de préparer sa visite. [1] De plus, lors de la visite du musée, le chatbot prend la forme d’un guide virtuel, pouvant proposer au visiteur un parcours spécialisé en fonction de sa demande ou encore étant capable de répondre aux questions que l’œuvre consultée inspire au visiteur. [1] 

L’observation (en 2019) de bots implantés dans des musées à travers le monde permet de les référencer en quatre grandes familles [3] :

  • Bot simple de questions/réponse (Exemple : National Art Museum of Republic of Belarus),
  • Chatbots « arbres de décision », itinéraires de conversations prédéfinis (Exemple : Anne Frank House à Amsterdam),
  • Bots de gamification et récompense, basé sur le jeu (Exemple : National Museum of the 21st Century Arts à Rome),
  • Des bots stimulants, incitant le visiteur au questionnement (Exemple : Catal Hoyuk Neolithic en Turquie).

Les informations apportées par le chatbot doivent répondre à une exigence de qualité. En effet, les musées transmettent la connaissance dans les domaines de l’art, de l’histoire. Les interactions sous forme de dialogue entre le chatbot et le visiteur doivent être le reflet de cette connaissance et permettre de les informer de manière créative, en apportant un soin particulier à la pertinence et la richesse des réponses fournies. [2]. Comment améliorer les architectures existantes pour atteindre cet objectif ?

Des évolutions technologiques pour répondre aux besoins des musées 

Pour répondre à cette problématique, un groupe de chercheurs grecs élabore une plateforme de développement dédiée à la conception de chatbots spécialisés pour les musées. [2] [3] Ce modèle de technologie est le modèle MuBot (Museum Bot). 

L’objectif de cette plateforme est de permettre de développer des chatbots  [2] :

  • simples, informatifs et précis,
  • dotés de bonnes compétences conversationnelles,
  • délivrant une information pertinente, sous forme de texte ou sous format multimédia,
  • capables de stimuler le visiteur et approfondir ses recherches,
  • capables d’être sensible à la compréhension des émotions du visiteur.

D’un point de vue technique, les chatbots utiliseront les technologies de [2] :

  • Machine Learning (permettant d’enrichir sa base de connaissances au fur et à mesure des conversations), 
  • NLP (traitement du langage naturel) afin d’interpréter les questions posées par le visiteur,
  • NLG (génération automatique de langage naturel) afin de traduire la réponse du chatbot dans le langage naturel du visiteur.

En complément du dispositif de Machine Learning, MuBot, pour enrichir son architecture, s’appuie sur les technologies du web sémantique, et notamment il utilise les graphes de connaissance (Knowledge Graphs). [2] Il s’agit de représentations graphiques d’entités et de leurs relations sémantiques. [3] 


Museum Bot (MuBot) platform early design architecture. Src : [2]-p7-Fig.1

En s’appuyant sur cette architecture, le système sera capable, dans l’éventualité où une information n’apparaîtrait pas dans son graphe de connaissance, d’aller la rechercher dans un autre graphe de son environnement ou sur le LOD cloud [3] (Linked Open Data Cloud, graphe de connaissance des données ouvertes) . L’accès à la connaissance sera alors fluide et ininterrompu.


Au terme de sa conception, cette plateforme devrait donc permettre d’élaborer des chatbots , qui, grâce à la technologie des Knowledge Graphs, permettront aux visiteurs des musées de vivre une expérience culturelle enrichie grâce à la contribution d’agents virtuels érudits. Un juste équilibre devra être trouvé afin que cette conversation entre le chatbot et le visiteur ne monopolise pas l’attention de celui-ci dans le monde virtuel mais lui permette également de profiter du monde réel qui l’entoure le temps de sa visite du musée.


Sources :

[1] TEXIER, Bruno.Les chatbots s’invitent au musée. Archimag guide pratique, 2020, n°68, p.22-23.

2] VARITIMIADIS, S., KOTIS, K., SKAMAGIS, A., TZORTZAKAKIS, A., TSEKOURAS, G. , SPILIOTOPOULOS, D. Towards implementing an AI chatbot platform for museums. In International Conference on Cultural Informatics, Communication & Media Studies. 1. 13-15 juin 2019, Grèce. Publié en 2020. [En ligne]. [Consulté le 25 février 2021].  <http://dx.doi.org/10.12681/cicms.2732>

[3] VARITIMIADIS, S., KOIS, K., SPILIOTOPOULOS, D., VASSILAKIS, C., MARGARIS, D. “Talking” Triples to Museum Chatbots. In International Conference on Human-Computer Interaction., 19-24 juillet 2020, Danemark, p. 281-299.  [En ligne]. [Consulté le 25 février 2021]. <  https://doi.org/10.1007/978-3-030-50267-6_22 >

lundi 4 janvier 2021

ODEUROPA, un projet européen pour constituer une encyclopédie olfactive

Une Encyclopédie du patrimoine olfactif (Encyclopaedia of Smell Heritage) est en train d'être réalisée par un groupe de chercheursCe projet va employer l'intelligence artificielle pour mener les recherches dans les images et les textes allant du XVI au XX siècle pour créer une histoire olfactive de la culture européenne. Cette phase de recherche devrait être complétée par une phase de création des senteurs retrouvées à l'aide de chimistes et parfumeurs, pour que le grand public puisse en jouir au sein d'expositions muséales à venir. [1] 

Financé par la Commission européenne à la hauteur de 2,8 millions d'euro avec le programme Horizon 2020 [2], qui promeut la recherche et l'innovation, le projet ODEUROPA [3] est constitué par un groupe d'une quarantaine de chercheurs, spécialistes en différentes disciplines comme l'histoire, l'histoire de l'art, la chimie ou l'informatique. La méthodologie envisagée pour aboutir à des résultats probants a été de délimiter la recherche dans les collections de bibliothèques, archives et musées européens en utilisant l'intelligence artificielle pour identifier et tracer les références d'odeurs dans des textes et images allant du XVI au XX siècle. Comme l'explique Marieke van Erp, experte en technologie du langage : 

« Pour rechercher des odeurs dans les textes et les images, nous utiliserons des méthodes d'intelligence artificielle. En apprentissage automatique, nous "apprenons" à un ordinateur à reconnaître les références aux odeurs ».[4]

De cette manière le système d'IA employé analysera un ensemble de données d'environs 250-400K de peintures et gravures, pour sélectionner le contenu iconographique faisant référence à des objets comme des contenants de parfums et des représentations allégoriques.[5] Afin de développer un système de classification du contenu recueilli par l'IA il faudra avoir l'avis des experts, qui comptent sur cette phase de recherche assistée pour « explorer la faisabilité de l'analyse visuelle soutenue par l'IA et le développement d'ensembles de données »[6] comme deuxième objectif du projet. Pour ce qui concerne la littérature, les données seront recherchées dans des textes de sept langues européennes telles que le français, anglais, allemand, italien, néerlandais, slovène et latin. Une fois la phase de recherche achevée il sera question de trouver la manière de présenter les informations recueillies dans un graphique des connaissances dans un modèle de Semantic Web. Le produit se présentera sous forme de catalogue en ligne où il sera possible de relier les données à des ressources du Web, pour donner l'occasion aux visiteurs d'interagir et interroger les vocabulaires présentés, ceci donnant l'occasion de créer des histoires sur l'évolution de l'odorat dans la société européenne. 

Inger Leemans de l'Académie royale des arts et des sciences des Pays-Bas, cheffe du projet Odeuropa explique « L’objectif principal du projet Odeuropa est de montrer que l’odorat et notre patrimoine olfactif sont des moyens importants de promouvoir le patrimoine culturel et immatériel de l’Europe ».[8]

L'Unesco protège des expériences sensibles tel que l'ouïe et la vue, l'odorat quant à lui était resté délaissé jusqu'à présent. L’encyclopédie olfactive devrait être accessible dans différents musées européens dès 2024. Ce programme est voué à reconstituer la mémoire olfactive et actualiser des odeurs perdues, pour saisir l'Histoire à travers d'autres perspectives, répondant à des questions de sauvegarde du patrimoine culturel européen.


Sources:

[1] LOUIS, Nicolas. Les odeurs du passé bientôt ressuscitées grâce à l'intelligence artificielle [En ligne] Publié le 4/12/2020 <https://www.techniques-ingenieur.fr/actualite/articles/les-odeurs-du-passe-bientot-ressuscitees-grace-a-lintelligence-artificielle-86631/> Consulté le 28 décembre 2020

[2] Horizon 2020. Portail français du programme européen pour la recherche et l'innovation<https://www.horizon2020.gouv.fr> Consulté le 28 décembre 2020

[3] LEEMANS, Inger. Odeuropa awarded €2.8M grant for research project on European olfactory heritage and sensory mining [En ligne] Publié le 17/11/2020 <https://odeuropa.eu>  Consulté le 28 décembre 2020

[4] BENMAKHLOUF, Mehdi. Odeuropa: une encyclopédie pour recenser les odeurs du passé [En ligne] Publié le 4/12/2020 <https://www.nationalgeographic.fr/histoire/2020/12/odeuropa-encyclopedie-odeurs-du-passe> Consulté le 28 décembre 2020

[5] Site officiel Odeuropa. Horizon 2020 Methodology <https://odeuropa.eu/horizon-2020/h2020-methodology/ > Consulté le 28 décembre 2020

[6] Ibidem

[7] BENMAKHLOUF, Mehdi. Odeuropa : une encyclopédie pour recenser les odeurs du passé [En ligne] Publié le 4/12/2020 <https://www.nationalgeographic.fr/histoire/2020/12/odeuropa-encyclopedie-odeurs-du-passe> Consulté le 28 décembre 2020

mercredi 29 janvier 2020

Les différences entre la Gestion Electronique des Documents et le Système d'Archivage Electronique

Avec la transformation numérique des entreprises qui implique en majeure partie la mise en place des projets de Gestion Electronique des Documents et de Système d'Archivage Electronique, beaucoup de chefs d'entreprises se posent très souvent la question de connaitre les différences qui se trouvent entre ses deux solutions (GED, SAE). Pour répondre à cette interrogation, Locarchives comme bien d'autres avant, s'est penchée sur la question au cours de ses dernières semaines. 

Gestion Electronique des Documents

La Gestion Electronique des Documents est l'ensemble des moyens matériels et logiciels mis en place pour la gestion quotidienne de tous les documents au sein d'une entreprise. Elle permet avant tout de centraliser les documents quelque soit leur format en un seul endroit grâce à un logiciel bien paramétré. Le travail collaboratif étant l'une de ses spécificités, elle donne à tous au sein d'une entreprise quelque soit leur position, la possibilité d'avoir accès aux mêmes documents. La sécurité des informations étant l'une des priorités de cette solution, chaque membre de l'entreprise dispose d'un droit d'accès différent. La modification, le déplacement et la suppression des documents sont possibles au sein d'une solution GED[1][2].

Système d'Archivage Electronique

Contrairement à la Gestion Electronique des Documents, le Système d'Archivage Electronique est l'ensemble des moyens matériels et logiciels mis en place pour la conservation des documents importants au sein de l'entreprise. Respectant les règles liées à l'intégrité des documents en suivant des normes bien précises, cette solution permet de conserver uniquement les documents jugés utiles par l'entreprise. Il faut préciser que dès lors qu'un document intègre le Système d'Archivage Electronique, la modification de celui n'est plus possible. Chaque document qui intègre un Système d'Archivage électronique est au préalable bien nommé et indexé afin de faciliter plus tard la recherche documentaire[3][4].

En conclusion, bien que la Gestion Electronique des Documents et le Système d'Archivage Electronique soient deux solutions d'entreprise qui se rejoignent, il est bien de préciser que chacune de ces solutions a une particularité bien précise. La première permet de faciliter la gestion quotidienne des documents au sein de l'entreprise (GED) et l'autre contribue à la conservation à long terme des documents au sein d'un logiciel ou d'un matériel conçu à ses fins[4].

[1] Locarchives Les différences entre la GED et la SAE consulté le 25 Janvier 2020 sur https://locarchives.fr/actualites/les-differences-entre-la-ged-et-le-sae/

[2] Blog  <<Qu'est ce que la GED?>> consulté le 20 Janvier 2020 sur https://www.ged.fr/

[3] Novarchive <<Les différents types d’archivage électronique>> consulté le 28 Janvier 2020 sur https://www.novarchive.fr/faq/quelles-differences-entre-ged-sae-et-coffre-fort-electronique/ 

[4] Le blog des experts de la GED <<SAE ou GED: quelles différences?>> consulté le 28 Janvier 2020 sur https://www.gestion-documents.fr/ged-et-sae-quelles-differences/

lundi 16 décembre 2019

Open Source Summit 2019 : l’open source au service de la gestion documentaire


https://www.opensourcesummit.paris


La tenue, au mois de décembre, du Paris Open Source Summit a mis en lumière les bons chiffres du marché du logiciel libre dans le monde et en particulier en France. Séduisant un nombre croissant d’entreprises, les solutions open source offrent de nombreux avantages en matière d’innovation, de performance et d'agilité. Les professionnels de l’information-documentaire, pivots de la transition digitale, seront donc à l’avenir amenés à utiliser de plus en plus fréquemment ces outils.


Le marché du logiciel libre en forte croissance

Les chiffres de l’open source invitent à l’optimisme : une croissance prévisionnelle de presque 9% par an, un chiffre d’affaire mondial de plus de 30 milliards de dollars en 2023 dont 7,5 milliards en France (+8,8%), où le logiciel libre représente plus de 10% du marché global de l’informatique. L’Hexagone confirme ainsi sa place de leader européen du marché de l’open source devant l’Allemagne (+8,2%) et la Grande-Bretagne (+7,6%).[1]

Dans un contexte de transformation digitale le recours à l’open source se fait de plus en plus facilement. Une majorité d'entreprises estime qu’elle jouera un rôle très important dans leur transition [1]. Elles suivent ainsi les recommandations du CIGREF qui invitait, dans un rapport publié en décembre 2018, à "franchir le pas de l’open source", le logiciel libre conférant aux entreprises des "avantages stratégiques ainsi que des leviers d’action sur leur compétitivité" [2]. 

OSS 2019 

C’est donc dans une ambiance dynamique et enthousiaste que s’est tenue aux Docks de Paris, les 10 et 11 décembre, la 5ème édition de l’Open Source Summit organisée par le pôle de compétitivité Systematic Paris-Region et le CNLL (Union des entreprises du logiciel libre et du numérique ouvert). Avec 150 exposants, une dizaine d’évènements associés et plus de 400 conférences organisées, l’OSS se présente comme le premier salon européen sur l’open source. Huit thématiques avaient été retenues cette année : Artificial intelligence, Cloud, DevOps, Infrastructure, Embedded & IoT, Data management & Blockchain, Security, Development & emerging languages, Business Apps, Web, E-commerce & Mobile, Gouvernance, proposant ainsi un très large panorama des solutions offertes par l’open source [3]. 

Des outils innovants pour la gestion documentaire

La partie "business app" intéressait au premier chef les professionnels de l’info-doc, acteurs essentiels de la digitalisation des entreprises. En effet, tous les domaines de l’ingénierie documentaire sont désormais concernés par la multiplication des solutions open source : recherche d’informations, GED, cartographie, knowledge management, pratiques collaboratives, datavisualisation, archivage.

Ainsi, de nombreux outils ont été présentés au salon, notamment au cours de conférences dédiées : "VITAM, un système d'archivage pour les grandes volumétries", "Comment ONLYOFFICE aide à organiser les travaux de recherches à l’Institut de Biologie de Lille", "Stratégies de combat pour tester les documents", "Customer Content Management: GED et CRM combinés", «Construire et développer des tableaux de bord pour réseaux sociaux", "Faciliter l'édition collaborative de documents volumineux avec XWiki", "Réussir (ou pas) son projet de moteur de recherche d'entreprise", ou encore "OlaPy, un outil pour l'analyse de données métier" [4].

Le data mining à l’honneur

Le prix du meilleur projet open source, décerné par le CNLL, a été remis à l’ICIJ (International Consortium of Investigative Journalists), à l’origine des Panama Papers, pour le logiciel Datashare
Utilisable par tous les professionnels de l’information, ce dernier permet l’extraction et l’indexation de documents dans de grands volumes de données, favorise la collaboration entre les utilisateurs par le partage et l’enrichissement mutuels des documents et surtout garantit la confidentialité et l’indépendance face aux acteurs dominants du web [5]. 

Alors que le comportement hégémonique des grands éditeurs de logiciels commence à être remis en cause, les entreprises s’équipent de plus en plus d’outils open source. Les professionnels de la gestion documentaire auront donc tout intérêt à suivre l’actualité de ce secteur avec attention. 
Rendez-vous à l’édition 2020 de l’Open Source Summit !


Sources :

[1] - Pour les données statistiques on consultera les deux rapports suivants : "Open source, a dynamic market fuel by digital transformation and innovation", réalisé par Teknowlogy Group pour le CNLL, Syntec Numérique et Systematic, 2019. Consultable sur le site du CNLL (https://cnll.fr/publications) et DigitalOcean, "Currents, Open Source 2019", 12/2019 (https://digitalocean.com/currents/december-2019/). [Consultés le 14/12/2019]

[2] - CIGREF, "L'Open source, une alternative aux grands fournisseurs", 12/2018. 
https://www.cigref.fr/wp/wp-content/uploads/2018/12/Cigref-Open-source-Alternative-Grands-Fournisseurs-franchir-pas-open-source-Decembre-2018.pdf 
[Consulté le 14/12/2019]

[3] - Open Source Summit, Thématiques 2019.
[Consulté le 14/12/2019]

[4] - Toutes les conférences de l'OSS 2019 sont à retrouver en vidéo sur la chaîne Youtube de l'évènement. 
https://www.youtube.com/user/OpenWorldForum
[Consulté le 14/12/19]

[5] - Will Fitzgibbon, "Datashare: Help test and improve our latest journalism tool", 5/02/2019


mardi 16 avril 2019

La pérennisation de l'information

Le format PDF : essai de mise en perspective

Le 4 avril 2019 a eu lieu à Toulouse un événement à dimension informatique et échelle francophone : le "PDF Day"[1], journée dédiée aux actualités du format PDF. Qu'en est-il exactement ? Quels sont les perspectives possibles pour les professionnels de l'information ?

 1-Le format "PDF" : petit tour d'horizon d'un format de fichier singulier.


1.1.Définition et création.

Le "PDF", ou Portable Document Format désigne le plus souvent un format de fichier, et est bien connu du grand public par le logiciel qui en permet l'usage : Acrobat Reader.  Son existence remonte à 1992, lorsque Adobe Systems a conçu et mis sur le marché ce format de fichier peu commun via des licences d'exploitation. Ce que le grand public sait moins, c'est qu'il est devenu un standard en 2008, en devenant une norme ISO.  

1.2.Fonctionnalités, sens de l'adaptation, et multi-modularité.

Le format en question présente plusieurs caractéristiques majeures : en format ouvert, les développeurs peuvent le réutiliser librement, et même, à certaines conditions, créer leurs propres formats pdf. Le grand public est attaché à son caractère non modifiable, mais la gamme d'applications disponible sur le marché contredit cette idée reçue : Adobe Reader permet l'annotation, la modification, le renseignement de formulaires. 
  
La société Adobes Systems a su développer son outil, en le rendant accessible sous tous appareils (tablette, ordinateur, smartphone), et compatible avec les systèmes d'exploitation utilisés (notamment Android, Windows, Mac, Linux).

2-En arrière-plan : les perspectives et les défis.


2.1. Un écho actuel avec l'environnement réglementaire. 

Le format pdf était et demeure recherché pour son caractère "inviolable". La résonance est grande avec les obligations légales apparues durant les années 2000 : avec la promulgation de la loi du 13 mars 2000, portant adaptation du droit de la preuve aux technologies de l'information et relative à la signature électronique, ce sont de nouvelles exigences qui sont désormais nécessaires à prendre en compte. Le texte de loi mentionnait que l'écrit sous forme électronique aurait désormais la même valeur probante que l'écrit sur support papier, à la condition qu'il soit "établi et conservé dans des conditions de nature à en garantir l'intégrité"[2].

Réputé pour son respect de l'intégrité, les récentes évolutions du format pdf, -développé "à 360°"-, interrogent, car elles semblent aller à l'encontre de l'environnement légal. Le risque zéro n'existe pas, et la sécurité n'est pas assurée, comme l'actualité l'a récemment montré : une équipe de scientifiques allemands a atteint le coeur du système PDF au défaut de la cuirasse, au niveau de son procédé de signature électronique [3]. C'est un défi contemporain : comment garantir l'intégrité d'une signature électronique, et donc d'un document engageant ? 

2.2.Une métadonnée précieuse.  

Son extension (le ".pdf") désigne la "queue" de nommage du fichier, et constitue une propriété qualifiante de description. On dira une "métadonnée", c'est-à-dire une donnée associée à une donnée qu'elle aide à décrire [4]. Les archivistes, documentalistes, en tant que professionnels de l'information documentaire sont attachés à la prise en compte comme à la restitution des métadonnées. A travers la question des métadonnées, c'est la pérennisation de l'information qui est posée. Une récente étude, menée durant l'automne 2018, coordonnée par le Service interministériel des Archives de France (SIAF), a permis d'associer plusieurs acteurs professionnels du secteur public (Ministère des Affaires étrangères, Ministère de la Défense, Ministère de la Culture) et privé (Cabinets Mintika et Serda). Disponible en ligne, l'étude délivre des préconisations pour établir une pérennité des données numériques [5]. 

Le format pdf : un véritable palimpseste électronique ?


En s'ouvrant au passé, on peut comprendre le présent. Dans l'Antiquité, les peuples grecs et romains se servaient de tablettes en cire réinscriptibles. Le format pdf intègre maintenant ces fonctionnalités. Le mot palimpseste désigne un parchemin dont on avait effacé le contenu initialement écrit, pour être réutilisé. On pourrait considérer le format pdf comme l'équivalent contemporain des anciens supports de transmission de l'information.    
  


[1] BCHINI, Antoine. Le PDF Day de Toulouse, le premier événement francophone sur le pdf, aura lieu le 4 avril, in Archimag, n°322, [Contenu disponible en ligne] - [Consulté le 16/04/2019],  https://www.archimag.com/demat-cloud/2019/01/25/pdf-day-toulouse-evenement-francophone-4-avril, 25/01/2019.

[2] Loi n°2000-230 du 13 mars 2000, portant adaptation du droit de la preuve aux technologies de l'information et relative à la signature électronique, [Contenu disponible en ligne sur le site Légifrance - publié au JORF du 14 mars 2000]-[Consulté le 16/04/2019], https://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000000399095&categorieLien=id 26/02/2019.

3] CIMPANU (Catalin). Les chercheurs contournent les signatures numériques pour la plupart des lecteurs pdf de bureaux, [Contenu disponible en ligne] - [Consulté le 16/04/2019] - site Zdnet -  https://www.zdnet.fr/actualites/les-chercheurs-contournent-les-signatures-numeriques-pour-la-plupart-des-lecteurs-pdf-de-bureau-39881207.htm

[4] Site du CINES. Les métadonnées de pérennisation. [Contenu disponible en ligne] - [Consulté le 16/04/2019] https://www.cines.fr/archivage/un-concept-des-problematiques/les-metadonnees-de-perennisation/ , 30/12/2016. On pourra également se reporter à un fichier pdf disponible sur un mooc organisé par le CR2PA, club des responsables professionnels de politiques et de projets d'archivage créée par Marie-Anne Chabin : http://blog.cr2pa.fr/wp-content/uploads/Fun-Mooc-paris10-CR2PA_s3-S5D_Metadonnees-archivage_s2.pdf

[5] Site FranceArchives. Préserver les données numériques, de quoi parle-t-on ? [Contenu disponible en ligne] - [Consulté le 16/04/2019] - site  https://francearchives.fr/article/162808225, 20/02/2019.

lundi 27 novembre 2017

Le système d'information de l'ONU : un pari réussi ?

Comment est fabriquée et gérée l'information dans une organisation gigantesque comme l’ONU, qui regroupe 193 pays, emploie plus de 50000 personnes, qui a 6 langues officielles, 6 organes principaux, des centaines de commissions et sous-commissions ? C'est le pari que l'Organisation tente de relever depuis 2010 avec la mise en place progressive du système UMOJA.


Si l'Organisation des Nations Unis, créée en 1945 a pour finalité de mettre fin à la guerre et promouvoir la paix, on oublie parfois qu'un autre de ses objectifs est de fournir une plate-forme de dialogues entre les peuples. C’est pourquoi dès 1946, l'organisation s'est dotée d'un Système d'Information, en même temps que la création du département Information. Au départ, il est surtout là pour promouvoir le travail de l'organisation, puis progressivement permettre une aide à la prise de décision en interne. Il aussi intégré les médias des époques (radio, télévision, internet...). Aujourd'hui, l'information proposée par l'ONU est énorme, et pour la plupart, accessible via des bases de données et des sites, le plus souvent en accès libre et proposée en 6 langues.


En l'an 2000, les limites du système ont fait jour : il est couteux, difficile à maintenir, peu adapté à un monde de plus en plus connecté, alors qu'en parallèle, les missions et les responsabilités de l'ONU explosent.

 "Les divers organes et institutions emploient 53 000 personnes (en dehors des missions et des forces de maintien de la paix), dont 9 000 pour le Secrétariat de l’ONU. On fait remarquer à l’ONU que c’est autant que Disneyland et trois fois moins que McDonalds ! Mais la comparaison n’est peut-être pas pertinente…" [2]

La solution a été de mettre en place une intégration du SI basé sur une suite de progiciels intégrés de type ERP (Enterprise Resource Planning), comme le font les multinationales, pour fluidifier la circulation de l'information, et une gestion des ressources humaines, et des flux physiques et financiers de l'Organisation [1].

L'unification de la plupart des sous-systèmes en un seul système est en passe d'être finalisée, comprenant l'interopérabilité des progiciels utilisés et la standardisation des données et formats. Baptisé de façon emblématique "UMOJA" [3], (qui veut dire unité en langue Swalhili), en référence à l'Afrique et sa contribution. 

Ce projet de modernisation s'est accompagné de nombreuses sessions de formation destinées aux utilisateurs pour une meilleure appropriation. Reste à évaluer l'impact qu'il aura sur l'action de l'Organisation en elle-même.


Sources :

[1] Mayamou, Pascal Kengué. Comment fonctionne le système d'information de l'ONU. The Conversation, Publié le 22 octobre 2017, http://theconversation.com/comment-fonctionne-le-systeme-dinformation-de-lonu-85437 [Consulté le 27 novembre 2017]

[2] Maury, Jean-Pierre. Le système onusien. Pouvoirs, 2004/2 (n°109). https://www.cairn.info/revue-pouvoirs-2004-2-page-27.htm [Consulté le 27 novembre 2017]

[3] Site UMOJA.https://www.unumoja.net/display/publicfrench/Information+de+base [Consulté le 27 novembre 2017]

[4] Video "Dessine moi la société" : A quoi sert l'ONU. Le Monde, Publié en 29 juin 2017, http://www.lemonde.fr/international/video/2017/06/29/a-quoi-l-onu-sert-elle_5152957_3210.html [Consulté le 27 novembre 2017]

Pour aller plus loin : 
[5] Bidan, Marc. La petite histoire de la grande transformation des systèmes d'informations. The Conversation, Publié le 23 mars 2017,https://theconversation.com/la-petite-histoire-de-la-grande-transformation-des-systemes-dinformation-de-gestion-70823 [Consulté le 27 novembre 2017]

[6] Fall, Papa Louis. Les politiques et les pratiques en matière d'information et de communication dans le système des Nations Unis. Rapport Corps Commun d'Inspection, ONU. Publié en avril 2015, https://www.unjiu.org/fr/reports-notes/JIU%20Products/JIU_REP_2015_4_French.pdf [Consulté le 27 novembre 2017]

lundi 6 novembre 2017

Le dernier tweet de Jean-Michel Salaün - @JMSalaun1 -

Le 28 septembre 2017, Jean-Michel Salaün, Professeur dans différentes entités universitaires (Ecole normale supérieure de Lyon, ENSSIB, EBSI de Montréal...) connu pour ses apports scientifiques aux Sciences de l'information et de la documentation, signait un tweet rédigé de la manière suivante : "Comme promis, la postface à Vu, lu, su (dispo aussi sur hypothèses)   Dernier twt, adieu à mes followers." Ce "faux" dernier tweet car Jean-Michel Salaün continue à tweeter, nous interroge néanmoins sur le contenu de cette postface.

L'ouvrage Vu, lu, su est paru il y a cinq ans, en 2012 aux éditions de La Découverte. Son titre exact est : Vu, lu, su : les architectes de l'information face à l'oligopole du Web. Le document est vu grâce au développement du terminal mobile; lu en suivant un axe personnel et donc découpé en thématiques d'intérêt; su enfin grâce aux réseaux sociaux.  Dans cette postface, Jean-Michel Salaün annonce donc sa retraite académique. Cette postface est l'aboutissement de cinq années de réflexion après la parution de l'ouvrage. Le chercheur souligne les changements majeurs du web en un si court laps de temps : le développement des algorithmes, de l'intelligence artificielle, les conséquences de la réalité virtuelle, l'avènement de l'économie du partage, des outils nomades... Son intérêt cependant se porte particulièrement vers le document : l'ordre numérique documentaire est resté le même malgré les changements opérés. Quel est-il ?

L'organisation documentaire est toujours dominée par les "GAFTA" notamment Apple, Google et Facebook. Cette domination tend à se renforcer. Si la révolution documentaire a bien eu lieu, elle est très récente: "fin du siècle dernier et première décennie du nouveau millénaire", nous précise Jean-Michel Salaün. Sinon son caractère massif, ces transformations du document sont l'objet de cette postface. Il s'agit principalement de comprendre ce qu'est l'architecture de l'information et partant l'architecte de l'information. Ainsi le document est intrinsèquement lié à celui/celle qui le construit. Ce dernier connaît aussi bien l'organisation de l'information, le design que l'expérience utilisateur. Pourtant ces termes, essentiels aux yeux de l'enseignant-chercheur, sont peu usités dans le domaine académique ou de la formation. Jean-Michel Salaün le regrette et il reste persuadé que ces trois expertises sont au coeur de l'analyse informationnelle du document. Le concept d'architecture de l'information reste la réponse au défi de l'apparition du document numérique. L'ordre documentaire qui en émerge est ainsi dominé par le modèle de Facebook. Pourquoi ?

Facebook symbolise le partage de l'information et la plateforme est créatrice selon l'auteur, d'un nouveau genre de documents qui construit pour chaque communauté un imaginaire, une série de récits personnalisés. Or, cet imaginaire est à une échelle mondiale, devenu politique. Ce changement dont l'origine est l'échange de documents, fait vaciller le monde ancien. Le nouvel ordre documentaire se base sur un nouvel agencement des documents et donc de l'information. Les "industries de la mémoire", les géants du web, gèrent aujourd'hui une masse de documents comme jamais; ce que l'on nomme le Big Data. Une maîtrise de l'architecture de l'information, de la maison du web, serait un pas pour une régulation du nouvel ordre documentaire que Jean-Michel Salaün appelle de ses voeux.


Un appel pour la journée mondiale de l'architecture de l'information à Toulouse, le 24 février 2018 [consulté le 6 novembre 2017]. <https://docs.google.com/forms/d/e/1FAIpQLSdmebSS1ecukGJ-VPhmYQ62m_UiJWm8vZuw0soptTORZoAfHQ/viewform >

SALAÜN, Jean-Michel. Vu, lu, su. Les architectes de l'information face à l'oligopole du Web. Paris : La Découverte, 2012. 151 p. Collection « Cahiers libres ». ISBN 978-2-7071-7135-1.




jeudi 19 octobre 2017

Euchronie : une nouvelle moisson pour les ressources autopubliées

Avec l'arrivée du Web 2.0 et la proportion grandissante de contenus générés par les utilisateurs [1] et de l'autopublication, de nouveaux outils se mettent en place afin de les agréger.
Qu'il s'agisse de ressources issues de la recherche "en train de se faire" publiées au sein de carnets de recherche d'Hypothèses [2]  ou bien de travaux de vulgarisation sur les chaînes YouTube, celles-ci peuvent toutes avoir le potentiel de se retrouver sur Euchronie [3].
Cet agrégateur de contenu spécifique aux Sciences Humaines et sociales est accessible au public depuis le 1er Octobre 2017. Son offre se distingue par un nouvel objet de recherche "centraliser toutes les productions de contenus en ligne sur l'histoire" [4], explique Sébastien Poublanc, coordinateur scientifique du projet collaboratif francophone.

L'équipe chargée du projet, ceux que l'on nomme les "moissonneurs", a limité le nombre de ressources du corpus actuel mais qui a pour vocation de s'étoffer au fur et à mesure que d'autres volontaires viendront soutenir le travail d'éditorialisation des contenus. Car c'est une des spécificités majeures de ce projet : qualifier avec des métadonnées la ressource "moissonnée". 
Aujourd'hui, vingt personnes (aux profils pluridisciplinaires, essentiellement des chercheurs) sont chargés de repérer puis indexer des contenus autopubliés qui parfois peuvent s'avérer peu bavards en informations sur leur contexte de création. Précisons qu'un avertissement en bas de la notice descriptive rappelle aux publics visés (autant chercheurs, étudiants et passionnés d'histoire) que la moisson réalisée par l'équipe du projet n'engage pas une approbation scientifique du contenu mais la valeur de la ressource dans la pratique sociale en ligne de l'autopublication sur un sujet spécifique "le passé, ici et maintenant !".
Notes : 

[1] CGU : User-generated content 
[2] Carnets de recherche de CLEO sur OpenEdition. En ligne.http://hypotheses.org/, consulté le 19 octobre 2017.
[3] Site EUCHRONIE. En ligne. http://euchronie.org/, consulté le 19 octobre 2017.
[4] "Euchronie, le passé en ligne", Interview de Sébastien Poublanc par Julia Bellot. En ligne, http://www.lhistoire.fr/euchronie/euchronie-le-pass%C3%A9-en-ligne, consulté le 19 octobre 2017.

Pour aller plus loin : 
"Euchronie : un projet collaboratif francophone inscrit dans les humanités numériques", Digital Librairies & Information Sciences. En ligne. https://dlis.hypotheses.org/1399, consulté le 19 octobre 2017.

mercredi 3 mai 2017

Zéphyr

Ce n'est plus une nouveauté, les entreprises doivent faire face à la transformation numérique et avec elle, gérer l'explosion des volumes de contenus. Flux de documents à maîtriser, formats à supporter. Comment organiser ces contenus ? Suivre les cycles de vie ? Les partager, les interconnecter ? Et enfin comment permettre à chaque acteur de retrouver les bonnes ressources au bon moment ? Et ce, avec un public de plus en plus exigent.

Pour répondre à ces besoins, les DSI mettent en place une gouvernance de leurs systèmes d'information : Intégration de logiciels à leurs architectures informatiques, interopérabilité entre systèmes (chevauchement fonctionnel, authentification, référentiels utilisateurs séparés, et API incompatibles...) Cette gouvernance est difficile à gérer.

L'application Zéphyr Espaces numériques vient répondre à ce besoin de gestion des ressources dans cet écosystème de données massives. Par son approche tout en un, avec ses contenus rassemblés dans des référentiels communs l'application participe au décloisonnement de l'information. Lancé par la société Cadic Services, ce nouveau module remplace la recherche thématique et se présente sous la forme d'un outil complet permettant de gérer des documents dans un ou plusieurs plans de classements. Sur une même fenêtre, vous retrouvez votre recherche thématique à gauche et à droite la vue de la production. 


La navigation est fluide et dynamique, le déplacement des objets interactif : un simple glisser déposer vous permet de changer l'ordre de vos dossiers. 

L'outil offre également une visualisation intégrée des vidéos, audios et images ou autres fichiers joints.



Grâce à une solution unique, tout se trouve rassemblé dans un espace numérique partagé et personnalisable. L'idée n'est pas de revoir les métiers et les rôles de chacun mais de rationaliser et mutualiser les outils, et ce, pour une meilleure gestion et plus d'efficacité !


Sources :

Systèmes documentaires : Un, pour les gouverner tous !
Laurent Ausset-Delon, 02/03/2017, [en ligne ], consulté le 03/05/2017

À la croisée des chemins de la GED et du DAM, comment valoriser votre patrimoine numérique ?
Arnaud Teruel-Félix, 28/04/2017, [en ligne ], consulté le 03/05/2017

ZEPHYR [en ligne] Zéphyr, Cadic Intégrale 2017[consulté le 03/05/2017] 

mardi 18 avril 2017

Va-t-on voir disparaître les sites internet ?

Avec l'apparition de l'internet grand public dans le milieu des années 90 (au 20ème siècle !), le paysage numérique n'a cessé d'évoluer et de se transformer.
Depuis une quinzaine d'années, le passage par un site web était la norme pour toute entreprise désirant avoir une exposition médiatique.
Mais une profonde mutation est apparue dernièrement.
C'est la conséquence de l'évolution et de la transformation des pratiques.
En effet, avec la prolifération des supports de diffusion (ordinateur, smartphone, tablette, montre connectée...) mais aussi des canaux de communication (média sociaux, plateformes hébergeant des articles tels que Facebook, Linkedin..., applications mobiles, assistants personnels façon Siri, Cortana mais aussi les systèmes de messagerie possédant des chatbots), il devient très compliqué d'obtenir une réelle visibilité sur le net. Et la concurrence est féroce.



On assiste ainsi à une migration des fortes audiences sur certains médias sociaux.
Surtout il faut maintenant multiplier les formats pour pouvoir répondre aux différents besoins.
Ainsi, il faut désormais produire des vidéos (plus ou moins longues), des images, des notifications, des tweets, des fiches comme sur Google Maps, des environnements 3D...

(https://fredcavazza.net/2017/03/20/les-sites-web-sont-ils-en-voie-de-disparition/)

Il ne suffit plus seulement de gérer du contenu à travers un CMS (content Management System) outil de base pour la création de site web. Il faut maintenant offrir des services pertinents à travers les multiples canaux offerts.
D'une certaine façon, il ne s'agit plus d'offrir au public des vitrines mais bel et bien des médias.
Et cette étape passe aussi par la fidélisation du public à travers la mise en place d'abonnements.

Mais cette évolution n'est peut-être que les prémices d'une révolution bien plus importante encore avec l'arrivée de l'Intelligence artificielle et des assistants personnels.


Sources :

Les sites web sont-ils en voie de disparition ? 
Fred Cavazza, 20/03/2017, [en ligne ], consulté le 18/04/2017
 https://fredcavazza.net/2017/03/20/les-sites-web-sont-ils-en-voie-de-disparition/

La fin du site internet traditionnel pour bientôt ?
Pascal Japy, 23/01/2014,  [en ligne ], consulté le 18/04/2017
https://blog.pr-rooms.com/2014/01/23/tendance-marketing-2014-la-fin-du-site-internet-traditionnel/

Les sites internet sont-ils en voie de disparition ?
Cyril-cration-web, 7/07/2014, [en ligne ], consulté le 18/04/2017

mercredi 26 juin 2013

L'architecture de l'information omniprésente: pour une théorie post moderne du document

 "Le cyberespace n'est pas un lieu où l'on va, mais plutôt une surface étroitement intégrée au monde qui nous entoure" Institute For The Future

Andrea Resmini et Luca Rosati ont publié en 2011 un livre sur l'architecture de l'information omniprésente (''Pervasive Information Architecture''). C'est un ouvrage que je vais chercher à lire en vitesse, car cela me semble une clé de décryptage pour comprendre le nouveau rôle du "document" dans les sociétés contemporaines de l'information et, j'ajouterais, dans les sociétés consommatrices d'information. La nouvelle modernité du document est, d'ailleurs, la thèse développée depuis plusieurs années par le collectif de chercheurs Pédauque. En bref, quelques jalons pour comprendre les enjeux:

 Users experience et information omniprésente


L'idée principale de cet ouvrage est que la conception de nos rapports aux nouveaux médias de l'information (le numérique particulièrement) reste encore très statique et, d'une certaine façon, abstraite et unilatérale. Les médias sont, certes, le médium physique de l'information mais les individus en tant qu'êtres sociaux ne sont nullement des réceptacles neutres et passifs de l'information. Au contraire, pour les auteurs, il importe de comprendre ce rapport d'après la notion de "users experiences", que je traduirais, pour faire écho au courant de la pensée philosophique de la phénoménologie (qui me semble très proche à cette nouvelle conception de l'information) comme "l'expérience vécue de l'usager" faisant partie d'un écosystème informationnel. 
Concrètement cella veut dire que, si d'un côté l'information quitte le plan purement technologique du support du média pour investir les situations vécues quotidiennes, de l'autre, nos actions dans le monde seront également façonnées par la dimension heuristique et serendipique de la navigation informationnelle. Plus concrètement encore : tout cela se passe dans un espace physique réel mais multivirtuel où les êtres circulent et interagissent, passant d'un média à l'autre, d'un espace à l'autre et d'une tâche à l'autre dans un système qui se transforme au fur et à mesure de ces actions (en engendrant de nouvelles...).

 C'est dans cette perspective que les auteurs proposent un Manifeste qui résume les principales thèses du livre,

1. Les architectures d'information deviennent des écosystèmes [...]
2. Les utilisateurs deviennent des intermédiaires [...]
3. Le statique devient dynamique [...]
4. Le dynamique devient hybride [...]
5. L'horizontal l'emporte sur le vertical [...]
6. Le design de produit devient le design d'expérience [...]
7. Les expériences deviennent transmédias [...] (Traduit de l'original par Jean-Michel Salaün)

et  une représentation graphique de cet espace informationnel où la notion d' "architecture" y prend son sens et qui est également le logo du nouveau master ouvert cette année à l'Université de Perugia (Italie) "Architecture de l'information" dont les objectifs sont très éclairants de l'orientation décrite.

 "Information is going everywhere, bleeding out of we thought was cyberspace and back into the real world [...] Computation is everywhere, and so are search and interaction. It's time to move beyond the computer screen to design information space in these new ubiquitous ecologies." (''Pervasive Information Architecture'')

 Et le document dans tout ça?


Jean-Michel Salaün souligne la proximité de l'orientation menée par les chercheurs, auteurs de l'ouvrage cité, à la conception de la nouvelle modernité du document, telle qu'imaginée par le collectif Pédauque:
"Il s'agit d'une représentation en architecture de l'information de la navigation informationnelle : celle du métro (à ne pas confondre avec l'interface de Windows 8) où les stations représentent les unités documentaires et les lignes les parcours possibles ou encore la construction du sens. J'ai repris ces éléments pour souligner la forte parenté entre les propositions des deux auteurs et les réflexions menées dans le groupe Pédauque sur l'évolution du document (voir ici ou ). Il suffit de remplacer "architecture de l'information" par "document" ou mieux par "néodocument" dans le manifeste pour retrouver des formulations quasi-identiques. Dès lors, on peut pousser le parallèle et montrer que les notions "d'expérience-utilisateur" et de "contrat de lecture/écriture" sont interchangeables ou encore que la carte du métro est une visualisation de ce contrat, tout comme le sont le codex et les règles typographiques pour le livre. Ainsi, Il y a de fortes fertilisations croisées à attendre entre les deux mouvements."
 Il est necessaire de rappeler qu'un Master "Architecture de l'Information" existe depuis la rentrée 2012, à l'ENS de Lyon. On défine, ainsi, les compétences attendues d'un architecte de l'information:
"Il est aujourd’hui indispensable, pour des sites web riches en contenus, des sites de grandes institutions, à but lucratif ou non, pour leurs besoins internes comme leur communication externe, de faire appel à des spécialistes de l’organisation et du repérage de l’information, de même qu’à des spécialistes de l’expérience utilisateur. Ces deux domaines d’expertise convergent vers un même objectif : garantir un accès intuitif et facile au contenu, pour l’utilisateur d’une ressource web (ou, plus généralement, de tout système d’information). 

On appelle les professionnels détenant ces expertises des Architectes de l’Information."
Pour ceux qui seraient intéressés à creuser plus loin cette question assez cruciale pour les documentalistes, gestionnaires de l'information et encore une dizaine d'intitulés qui nous serons obligés de décrypter avant d'embrasser (et bientôt "architectes de l'information"?), voici quelques lectures:

- Pourquoi le document importe, par Jean-Michel Salaün, professeur à l’École normale supérieure de Lyon,  [mis en ligne en juin 2012, consulté le 23 juin 2013]

- Documents et modernités, par Roger T. Pédauque. Archivesic, mars 2006.

- Master "Architecture de l'Information", Università per Stranieri di Perugia [consulté le 12 juillet 2013]

 - Pervasive Information Architecture: Designing Cross-Channel User Experiences par Andrea Resmini et Luca Rosati. Morgan Kauffman: avril 2011.[consulté le 12 juillet 2013]
 - Habert Benoit, Salaün Jean-Michel, Magué Jean-Philippe, « Architecte de l'information : un métier »Documentaliste - Sciences de l'information, vol 49, n1 2012, p.4-5Feyfant Annie (2012). « Architecture de l’information, architecture des connaissances ». Dossier d’actualité Veille et Analyses, n°74, avril.