mercredi 26 mars 2014

Salons Documation et MIS des 26 et 27 mars 2014

La 20e édition du salon Documation se tiendra mercredi 26 et jeudi 27 mars 2014 au CNIT Paris la Défense sous la haute autorité de Fleur Pellerin, ministre déléguée chargée des PME, de l'innovation et de l'économie numérique.
ministre déléguée chargée des PME, de l'innovation et de l'économie numérique.
En savoir plus sur h
ministre déléguée chargée des PME, de l'innovation et de l'économie numérique.
En savoir plus sur http://www.documation.fr/site/FR/SALON,I5046.htm#bPPDZCpE4FmtjjjS.99
ministre déléguée chargée des PME, de l'innovation et de l'économie numérique.
En savoir plus sur http://www.documation.fr/site/FR/SALON,I5046.htm#bPPDZCpE4FmtjjjS.99

Cet évènement majeur de la gestion des documents et de l'information à lieu conjointement au MIS salon dédié aux professionnels du management de l'information stratégique et en partenariat avec l'Association des Professionnels de l'Information (ADBS).

Documation et MIS avaient réunis pour l'édition 2013 :
160 exposants
130 conférences d'experts
5000 Auditeurs et
6500 visiteurs

Documation ce sont 10 parcours thématiques dont on peut télécharger la plaquette sur le site.
1/ Accès, partage des documents/DATA
2/ Big DATA, métadonnées et données
3/ Dématérialisation et gestion des processus (BPM)
4/ Gestion Electronique des Documents (GED)
5/Gestion des bibliothèques
6/ Gestion de contenus (ECM)
7/ Gestion de contenus multimédia
8/ Record Management et système d'archivage électronique
9/ Information professionelle
10/ Technologies de la connaissance

Cette année, l'accent est mis sur des problématiques actuelles et d'importance stratégiques pour les entreprises comme  la dématéralisation (33 conférences programmées sur les deux jours), la gestion de contenu (23 conférences programmées), la gestion électronique des documents (22 conférences programmées), et la data intelligence (18 conférences programmées). 
Documation ce sont aussi des sujets de fond comme la gouvernance de l'information (18 conférences programmées) ou les problématiques d'archivage (23 conférences programmées) et des sujets à surveiller comme la gestion de contenus enrichis (Rich media) dont 10 conférences sont programmées sur les deux jours.

Pour en savoir plus: 








3/
 DÉMATÉRIALISATION ET GESTION DES PROCESSUS (BPM)
En savoir plus sur http://www.documation.fr/site/FR/SALON/Parcours_thematiques,I5126.htm#xuCmKQDS7TxWSvb4.99



 

lundi 24 mars 2014

Musique : la promesse non tenue d'Internet

Internet va transformer et transforme déjà le système culturel de la musique, en donnant à tous la possibilité de partager l'oeuvre d'artistes peu connus, leur offrant ainsi une visibilité sans précédent.

On y a cru. Longtemps. Mais les chiffres récents de l'étude MIDIA démontrent le contraire. 1% des artistes les plus côtés sur le marché captent 77% de l'ensemble des revenus générés par la musique enregistrée. L'étude suggère que la cause d'un tel déséquilibre serait la "tyrannie du choix" induite par le service digital.

En effet, Internet n'a pas tenu sa promesse alléchante de diversité culturelle. Selon le concept de la "long tail", le Web aurait dû transformer le marché culturel et permettre l'augmentation des ventes d’œuvres plus confidentielles, qui, cumulées, seraient supérieures aux ventes d’œuvres dites "tubes". Au contraire aujourd'hui,  les "tubes" se sont appropriés l'espace d'Internet, on n'entend qu'eux, on ne voit qu'eux, on ne parle que d'eux... On n'achète qu'eux. 

Pourquoi cet échec ? La réponse est simple, selon Thierry Crouzet (cité en source plus bas). Le Net s'est centralisé. Avec le renforcement d'acteurs type Google, les petits sites perdent en visibilité, car seuls les grands producteurs peuvent s'offrir un pareil référencement. Résultat, les sites qui parlaient d'artistes non diffusés par les canaux habituels sont de moins en moins visités, au profit des grandes plateformes centralisées qui proposent des produits musicaux mainstream.

Pourquoi cette centralisation ? Les pouvoirs publics qui sanctionnent le partage de fichier (peer to peer) ont largement contribué à cette situation. Ils ont ainsi laissé le champ libre aux plateformes centralisées sous prétexte de vouloir protéger le droit d'auteur. De là à parler d'un résultat calculé et voulu, il n'y a qu'un pas, que nous ne franchirons pas, aujourd'hui.

Existe-t-il des solutions ? Il n'est jamais trop tard pour renverser la vapeur. On peut par exemple envisager de légaliser et d'encadrer le peer to peer, et certaines autorités publiques commencent à y réfléchir. Cela afin que le maximum d’œuvres bénéficie du maximum d'attention, et que cette attention ne se focalise pas toujours aux mêmes endroits.

De tels chiffres n'encouragent pas l'optimisme. Pourtant il faut savoir qu'il existe, dans ce qu'on aime à appeler les méandres d'Internet, de larges enclaves décentralisées (sites, forum...) qui, elles, favorisent ces échanges sur des œuvres dominées par les collections musicales régnantes. Ainsi, si vous voulez parler de votre groupe préféré et promouvoir son prochain concert, vous le pouvez. Pas sûr par contre que beaucoup de monde vous écoutera.


CROUZIER, T, Le Net rend plus con que la TV. Publié le 7 mars 2014. <http://blog.tcrouzet.com/2014/03/07/le-net-rend-plus-con-que-la-tv/> <en ligne> <consulté le 24/03/2014>

CALIMAQ. Le contrecoup le plus négatif de la guerre au partage et son véritable objectif. Publié le 8 mars 2014.<http://scinfolex.com/2014/03/08/le-contrecoup-le-plus-negatif-de-la-guerre-au-partage-et-son-veritable-objectif/>  <en ligne>  <consulté le 24/03/2014>

FRADIN, Andréa. Internet renforce le phénomène des popstars: 1% des artistes capte 77% des revenus. Publié le 6 mars 2014. Slate.fr. <http://www.slate.fr/culture/84277/internet-popstars-longue-traine-economie>  <en ligne>  <consulté le 24/03/2014>

DREDGE, Marc. How digital music services may be fuelling a ‘superstar artist economy’. Publié le 4 Mars 2014 dans Musically <http://musically.com/2014/03/04/how-digital-music-services-may-be-fuelling-a-superstar-artist-economy/?curator=MediaREDEF>  <en ligne>  <consulté le 24/03/2014>





Pour les 25 ans du Web, Tim Berners-Lee appelle à la création d'une charte d'Internet


Il y a maintenant 25 ans, Tim Berners-Lee soumettait sa proposition pour un système de management de l'information qui deviendra le World Wide Web. Cet "anniversaire" est l'occasion pour le fondateur de faire le point sur son invention par l'intermédiaire d'un portail dédié à l'évènement, d'entretiens avec la presse, ou encore via les réseaux sociaux.

Ainsi Tim Berners-Lee n'hésite pas à rappeler que, dans sa conception même ("design"), le Web se veut universel, libre de droits, ouvert, et décentralisé [1]. Le rappel de ces principes fondamentaux du Web n'a rien d'anodin quand l'on connait les préoccupations du fondateur face aux révélations de l'affaire Snowden [2] ou aux écarts de plus en plus fréquents vis-à-vis du principe de neutralité du Net [3 ; 4].

Cette préoccupation face à la mise en danger des principes fondateurs du Web est également apparue dans le AMA donné par Berners-Lee [5]. Cette session fut l'occasion de revenir sur la création du Web, mais également sur sa situation actuelle et son avenir. C'est ainsi que le fondateur a pu déclarer non sans humour que l'attrait des internautes pour les chats constitue selon lui l'usage le plus inattendu du Web. Mais ce fut aussi l'occasion d'appeler à une plus grande mobilisation des internautes pour la protection des principes fondateurs du Web.

Cependant, dans une interview accordée au Guardian, le scientifique va encore plus loin et appelle à la création d'une charte pour internet [6]. Tim Berners-Lee estime en effet qu'une telle charte est devenue nécessaire "face aux attaques des gouvernements et des entreprises". Cet appel s'inscrit dans le cadre de la campagne "Web We Want" qui milite en faveur d'un Web accessible, libre, neutre, ouvert, et soucieux de la protection des données personnelles [7]. Tim Berners-Lee espère ainsi amener les institutions publiques, les gouvernements, ainsi que les entreprises à adopter cette charte. Un document unique permettrait d'établir des normes internationales pour le maintien d'un Web ouvert que Bernes-Lee considère comme une condition de l'exercice de la démocratie. Cette charte devra également examiner la question des droits d'auteur et des enjeux éthiques autour de l'usage des technologies.

Enfin, on notera que le choix de 12 mars 2014 comme 25e anniversaire du Web n'est pas sans poser question. En effet, la date du 12 mars 1989 n'a pas toujours été celle retenue pour célébrer l'apparition de la Toile [8]. On peut dès lors se demander si cette célébration n'est pas davantage l'occasion de rappeler les principes fondateurs qui ont mené à la création du Web à l'heure où leur avenir semble incertain.

Sources :

[1] Déclaration de Tim Berners-Lee à l'occasion des 25 ans du Web : http://www.webat25.org/news/tbl-web25-welcome 

[2]  "Le Web fait de plus en plus partie des droits de l'homme", Propos recueillis par Yves Eudes et Damien Leloup, Le Monde, 12/03/2014, http://www.lemonde.fr/technologies/article/2014/03/12/le-web-fait-de-plus-en-plus-partie-des-droits-de-l-homme_4381402_651865.html?xtmc=tim_berners_lee&xtcr=2

[3 "Tim Berners-Lee: 'We should have ways of protecting people like Snowden'", Katie Rogers, theguardian.com, 12/03/2014", http://www.theguardian.com/technology/2014/mar/12/tim-berners-lee-snowden-reddit-amahttp://www.theguardian.com/technology/2014/mar/12/tim-berners-lee-snowden-reddit-ama


[5] 
http://www.reddit.com/r/IAmA/comments/2091d4/i_am_tim_bernerslee_i_invented_the_www_25_years/http://www.reddit.com/r/IAmA/comments/2091d4/i_am_tim_bernerslee_i_invented_the_www_25_years/. Un AMA ("Ask Me Anything") est une pratique courante au sein du portail reddit.com. Elle consiste à permettre à une personnalité de répondre aux questions de la communauté. Une traduction de cette session est disponible sur Framablog.

[6] "An online Magna Carta: Berners-Lee calls for bill of rights for web", Jemima Kiss, The Guardian, 12/032014, http://www.theguardian.com/technology/2014/mar/12/online-magna-carta-berners-lee-webhttp://www.theguardian.com/technology/2014/mar/12/online-magna-carta-berners-lee-web


[8] "Le Web a-t-il 25 ans?", Didier Frochot, 21/03/2014, http://www.les-infostrateges.com/actu/14031787/le-web-a-t-il-25-ans

mardi 18 mars 2014

L'offre de livres numériques en France - Le panorama de KPMG

A la veille de l'ouverture du Salon du livre de Paris, KPMG apporte un éclairage chiffré du développement et la distribution de l'offre du livre numérique en France.
Sans surprise, le circuit de distribution est essentiellement capté par les géants d'internet, Amazon et Apple en tête.  Principaux clients de livres numériques, ils représentent à eux deux entre 51 et 66 % des citations, selon la taille des éditeurs.

Les e-distributeurs sont ainsi privilégiés par les grands groupes (60 %), alors que les éditeurs indépendants continuent de favoriser la vente directe au lecteur (16,7 %) ou les plateformes d'intermédiation (58,6 %).

Le volume de vente est encore faible, mais il est proportionnel à la taille des éditeurs. Ainsi, pour un quart des grandes maisons d’édition, le montant annuel des ventes numériques dépasse les 3 M€.
On notera toutefois que 37 % disent ne pas connaître le montant du chiffre d'affaires lié aux ventes numériques. 97,1 % des éditeurs qui disposent d'une offre numérique considèrent que la "cannibalisation" n'est pas une réalité dans le marché du livre.

Du côté des possibilités de "livre enrichi", le bilan reste assez maigre. En effet, les éditeurs utilisent peu le potentiel offert : 43 % ne l'utilisent jamais et 43 % rarement. Ses principaux utilisateurs se retrouvent dans les secteurs du tourisme, des guides et pratiques.
En terme d'enrichissements, c'est le "lien internet" qui arrive en tête...
Y a-t-il plus attendre ? Selon le blogueur Thierry Crouzet, "le livre enrichi tel qu’il est aujourd’hui imaginé n’est ni plus ni moins que du web, qui lui-même a succédé aux premières applications interactives et hypertextuelles sur CD-ROM. Parler de livre augmenté, c’est donc un truc marketing pour vendre ce qui jusque-là était diffusé gratuitement en ligne."

Rien de très novateur non plus concernant les métadonnées. Alors qu'elles sont jugées incontournables pour améliorer la visibilité, elles concernent essentiellement les éléments de description et d'identification de base.



Une aubaine peut-être pour les professionnels de nos domaines, dans un champ où l'essentiel reste à inventer : plus de trois quart des éditeurs restent hésitants, et ne savent pas s'ils développeront de nouvelles métadonnées. Faute de savoir qu'en faire ?

Sources :
KMPG. Baromètre 2014 de l’offre de livres numériques en France. 10 mars 2014
[en ligne] http://www.kpmg.com/FR/fr/IssuesAndInsights/ArticlesPublications/Documents/Barometre-2014-KPMG-Offre-de-livres-numeriques-en-France.pdf

ActuaLitté. Baromètre : Panorama 2014 de l’offre de livres numériques en France. 10 mars 2014. [en ligne]
http://www.actualitte.com/usages/barometre-panorama-2014-de-l-offre-de-livres-numeriques-en-france-48690.htm

Crouzet, Thierry. Le livre augmenté est une impasse marketing. 23 mars 2013 [en ligne]
http://blog.tcrouzet.com/2013/03/23/le-livre-augmente-est-une-impasse-marketing/ 

Million Short, "un moteur de découvertes"

Million Short est un moteur de recherche qui s'appuie essentiellement sur les résultats de Google, mais qui peut être utilisé en complément d'autres moteurs de recherche classiques.

En effet, sa particularité est d'enlever de son index les sites les plus populaires. L'internaute peut ainsi ignorer les 100, 1 000, 10 000, 100 000, jusqu'à 1 000 000 de résultats par requête. De plus, des filtres peuvent être activés via l'option "Manage Settings & Country", plus précisément un filtre parental, l'intégration ou l'exclusion de sites ainsi que l'affichage en haut de page des résultats de sites favoris.

A noter qu'il s'agit d'une possibilité, dans la mesure où l'internaute peut décider de ne pas supprimer de résultats issus de sites populaires. Il est alors libre de choisir. Et pourquoi pas de comparer en temps réel les résultats d'une même requête.

L'objectif de Million Short est donc de permettre aux internautes d'accéder à des résultats originaux, du moins différents de ceux qu'ils auraient pu trouver s'ils avaient eu recours à un moteur de recherche classique. Ce qui explique qu'il se présente comme un moteur de découvertes, qui sort des sentiers battus.

En bref, une initiative intéressante à découvrir ici : https://millionshort.com/

Sources :

Jean-Luc Raymond. Million Short, moteur de recherche ou plutôt de découverte. NetPublic, 5 mai 2012. <http://www.netpublic.fr/2012/05/million-short-moteur-de-recherche-ou-plutot-de-decouverte/>, consulté le 18 mars 2014.

Julien L. Million Short : le moteur de recherche qui ignore les sites populaires. Numérama, 5 mai 2012. <http://www.numerama.com/magazine/22532-million-short-le-moteur-de-recherche-qui-ignore-les-sites-populaires.html>, consulté le 18 mars 2014.

3 moteurs de recherche originaux. Les outils de la veille, 16 mars 2014. http://outilsveille.com/2014/03/3-moteurs-de-recherche-originaux/, consulté le 18 mars 2014.

Un moteur de recherche qui exclut volontairement les sites populaires. Le Nouvel Observateur, Rue 89, 4 mai 2012. <http://rue89.nouvelobs.com/2012/05/04/un-moteur-de-recherche-filtre-les-sites-les-plus-populaires-231895>, consulté le 17 mars 2014.



lundi 17 mars 2014

Des nouvelles de l'Open Access, ici et ailleurs

Des nouvelles de l'open access à l'université, ici et ailleurs


La question de l'accès à l'information est une préoccupation naturelle pour les professionnels de l'info-doc (c'est même écrit dans le nom...).
Les moyens existant ou en développement pour ouvrir ces accès ne sont cependant pas toujours à notre portée.

Quelques nouvelles glanées sur la Toile sur des initiatives, des nouveautés qui font avancer les pratiques ou alimentent les discussions.

Edition et Big data : quelle source de valeur ?

Exploitables avec le développement du Big Data, les données laissées par les internautes lors de leur consultation du web constituent une source de valeur pour l’industrie des contenus culturels comme pour celle des contenants. Amazon, Google et Apple on fait de l’utilisation de ces données un des leviers de leur développement. Le livre numérique offre désormais la possibilité d'obtenir des données similaires à travers les informations issues du suivi des pratiques de ses usagers : temps, parcours et préférences de lecture, nombre d’ouvrages consultés, mais aussi détermination du moment où le lecteur s’ennuie à travers l’analyse des abandons de lecture.

Dans un billet publié par la Harvard Business Review (1), Tom Davenport  note cependant que le monde de l’édition reste en retrait par rapport à ce mouvement. L’exploitation de ces données  reste difficile pour ce secteur, en raison des intermédiaires existants entre les maisons d’édition et leurs clients. Les bénéficiaires des connaissances extraites des données sont principalement les géants du web. Beaucoup d’éditeurs n’ont pas développé de service de vente directe de leurs livres via leur site.

Comme le note Alexandra Alter dans le Wall Street Journal (2), ce faible développement de l'étude des goûts et des pratiques des consommateurs par les éditeurs contraste avec la situation dans le reste des industries culturelles, y compris en dehors du champ de l'exploitation des données issues du Big Data. Aux États-Unis, les producteurs travaillant pour la télévision testent par exemple depuis longtemps à travers des groupes témoin l'appréciation par le public de leurs nouveaux programmes. Dans le monde de l'édition cette évaluation se fait encore largement à travers l'analyse des chiffres de ventes et celle de la réception par la critique. Des éditeurs comme Sourcebooks aux États-Unis ont toutefois commencé à sortir des livres test en version numérique avant de les publier en version papier.

Les nouvelles possibilités offertes par l'exploitation des traces des lecteurs et des acheteurs de livres numériques posent néanmoins un certain nombre de questions.

Au niveau du respect de la vie privée d’abord. Cindy Cohn, responsable juridique au sein de l’Electronic Frontier Foundation (3), note ainsi qu'à l'heure actuelle il n'existe pas de moyen de dire à Amazon : "je veux lire vos livre, mais je ne veux pas que vous suiviez ma trace lorsque je le fais" .

Se baser sur ces données peut ensuite nuire à une politique de diversité éditoriale en amenant les éditeurs à se concentrer sur l’offre la plus profitable au détriment d’ouvrages plus risqués. Comme le souligne Nicolas Gary d’ActuaLitté (4), désormais, au sein des maisons d’édition, en « plus des commerciaux, il faudra compter sur les analystes » en charge de l’exploitation des big datas. On retrouve ici un problème qui concerne également les bibliothèques avec le développement du modèle des Patron Driven Aquisitions : la politique d’achat est fondée sur des statistiques élaborées grâce à  la mise à disposition des usagers, pour une durée limitée, d’une large quantité de contenus, remettant en cause des politiques d’acquisitions plus ambitieuses.

On notera enfin avec Nicolas Gary que, si les données issues des pratiques de lecture peuvent permettre de « produire le livre qui ressemblerait à ce que les lecteurs aiment lire » (5), l’utilisation de ces données est loin d’avoir permis à ce jour aux filiales éditoriales d’une entreprise comme Amazon d’obtenir de gros succès éditoriaux. Pour Tom Davenport, "Le principal objectif devrait non pas être de vendre du contenu, mais d'extraire les informations pour fidéliser les clients".  Pour les maisons d’édition, cela impliquerait de développer leur relation directe avec les consommateurs.

Notes

(1) Tom Davenport. Book Publishing’s Big Data Future. 3 mars 2014. Harvard Business Review. <http://blogs.hbr.org/2014/03/book-publishings-big-data-future/>, consulté le 17 mars 2014.


(3) Alexandra Alter. op.cit. L'EFF est une organisation non gouvernementale américaine défendant notamment les droits des usagers de l'Internet

(4) Nicolas Gary. L'exploitation des Big Datas : l'avenir du livre, le cauchemar du lecteur. AcutaLitté, 5 mars 2014. <http://www.actualitte.com/societe/l-exploitation-des-big-datas-l-avenir-du-livre-le-cauchemar-du-lecteur-48589.htm>, consulté le 17 mars 2014.

(5) Nicolas Gary. Collecte des informations de lecture, la traque d'une recette miracle ? ActuaLitté, 29 juin 2012. <http://www.actualitte.com/usages/collecte-des-informations-de-lecture-la-traque-d-une-recette-miracle-35062.htm>, consulté le 17 mars 2014.