mercredi 14 décembre 2011

Le premier Labo de l'Edition à Paris !

L'ouverture d'un Laboratoire de l'édition s'est tenu le 7 décembre dernier à Paris, 2 rue Saint-Médard dans le 5e arrondissement.

Un laboratoire de l'édition !!! Oui, dit comme cela tout le monde peut s'en étonner, alors voici en quelques lignes de quoi vous inciter à y aller !

Le Labo de l'édition s'adresse à l'ensemble de la chaîne de l'édition : éditeurs, diffuseurs, libraires, bibliothécaires, syndicats professionnels, entreprises, organismes de formation...
"Son objectif est de susciter des convergences et des liens entre le monde de l’édition et les acteurs du marché numérique, d’accompagner les professionnels du livre désireux d’accéder au marché numérique, et de soutenir les projets innovants du secteur de l’édition numérique."
C'est un espace privilégié pour l'univers de l'Edition, lieu d'innovation dédié au secteur du Livre. Plus de 500 m2 pour des forums de discussion, des démonstrations, des formations..., mais également incubateur de projets innovants. Toute la famille de l'édition pourra se réunir dans cet espace, aussi bien les acteurs du numérique, de la librairie et de l'édition traditionnelle pour innover, offrir de nouveaux services et garantir un secteur parfois mis à mal.
Face à la mutation du secteur de l’édition, notamment l’évolution technologique promise par le livre numérique, de nouvelles opportunités de marchés émergent. A l’inverse, les acteurs historiques de l’édition,tels que les libraires, doivent s’adapter aux innovations. Le laboratoire de l'édition en mettra sa pierre à l'édifice.

Pour rappel, l'édition numérique en quelques chiffres :
- l’augmentation du marché du livre numérique aura été de 200% en2008 au Japon, et de plus de 80% aux USA la même année (sources KPMG).
- Il est aujourd’hui évalué à environ 1 milliard $US (sources www.benefice.net).
- La vente en ligne représenterait actuellement de l’ordre de 7% du volume total du marché éditorial.


N'avons nous pas ici la reconnaissance du succès et la volonté de pérenniser l'édition numérique ?
Bref, tous les ingrédients ont été réunis pour en faire un site de référence en France et dans le monde pour l'émergence de nouveaux produits culturels alliant création littéraire et numérique.

Sources :

Site Internet de la Mairie de Paris
http://www.paris.fr/accueil/actualites-municipales/le-labo-de-l-edition-un-nouvel-equipement-innovant-de-la-ville/rub_9656_actu_98352_port_23785

ActuaLitté les univers du livre
http://www.actualitte.com/actualite/monde-edition/societe/le-labo-de-l-edition-une-reconciliation-entre-le-numerique-et-l-edition-30351.htm

Innov in the city
http://www.innovcity.fr/2011/12/08/labo-edition-espace-parisien-edition-futur/

Accès 33 : la presse numérique en perspectives

Ce mardi 13 décembre, tel veilleur du "CNAM-INTD" qui aurait décidé d'aller se dégourdir les jambes, de déconnecter du "secteur" ses fils RSS pour se laisser porter par l'escalier de la sérendipité, empruntant alors, l'accès 33, aurait pu, pourquoi pas, c'est une hypothèse, se laisser distraire, au deuxième étage, par la conférence, organisée dans l'amphithéâtre Georges-Friedman sur les perspectives de la presse numérique.

Le temps réservé à la procrastination, n'était tout de même pas si long que ce même veilleur, "homme du jour et non du lendemain", soucieux d'être juste à temps au rendez-vous des dernières nouvelles, ne se sera accordé qu'un coup d'oeil au dossier de presse distribué à l'entrée de l'amphithéâtre, regrettant (déjà) d'être trop avare de son temps. Résumons, d'une simple citation, les propos de cette rencontre, dont l'accès était libre: "Elle sera l’occasion d’un dialogue entre professionnels et chercheurs sur les évolutions, les modèles économiques qui se dessinent et qui entraînent une révision des métiers, des contenus et des attentes des lecteurs". Le contexte de cette conférence, dont le programme a pu être diffusé sous le manteau à quelques nostalgiques de la presse écrite, est celui de la disparition, comprenez celle du Journal.

Le bel oxymore - "la presse numérique" - renvoie à de douloureuses réalités pour les patrons de presse. Si les perspectives sont ouvertes pour le numérique (1), elles n'ont, s'agissant de l'imprimé, pour prise que celle du rétroviseur. Qui reprocherait, cette fois, à l'Insee, de livrer à contre-temps les données conjoncturelles sur le secteur. Certainement pas celui, qui les trace dans son travail de veille : il les connaît depuis fort longtemps et sait bien, qu'en l'occurrence, l'année de référence à peu d'importance. Quoiqu'il en soit livrons, dans un ultime effort, les derniers résultats de la statistique : "Le chiffre d'affaires global de l'ensemble de la presse écrite en 2010 - 9,4 milliards d'euros - est en forte diminution par rapport à celui de l'année précédente, dans le droit fil de la dégradation entamée en 2007. La crise est manifeste. Cette perte de - 2,2 % en euros courants se traduit par une dégradation du chiffre d'affaires plus importante encore en euros constants. Il est en effet probable que la décennie 2000 s'achève sur la perte d'un quart de sa valeur indiciaire en euros constants. La part des recettes publicitaires dans le chiffre d'affaires continue lentement de décroître au profit de celle des ventes".

L'infographie ne dirait pas mieux et d'autres secteurs sont certainement plus porteurs. Au troisième étage, Accès 33, des analyses pour nous les présenter bientôt, sont en bouclage. Peut-être une sur le modèle de la presse numérique? Rendez-vous en 2012 pour le savoir. En attendant, souhaitons de belles fêtes de fin d'année aux courageux lecteurs et non-lecteurs du blog UniversDoc.


1) La conférence "Perspectives sur la presse numérique" était coorganisée par la Chaire Innovation & Régulation des services Numériques, le Labex ICCA (Industries culturelles et création artistiques) et le GIS Culture-Média & Numérique . Le compte rendu de ces rencontres ainsi que les vidéos devraient être prochainement accessibles sur innovation-regulation2.telecom-paristech.fr
Pour aller plus loin > http://www.insee.fr/fr/themes/tableau.asp?reg_id=0&ref_id=NATTEF13302

jeudi 8 décembre 2011

L'actualité de la norme ISO 22000

La norme ISO 22000 est une référence en matière de protection du consommateur.
Cette norme concerne l'ensemble de la chaîne alimentaire. Elle provient d'un ensemble de règles nationales que l'Union européenne a intégré.
L'ISO 22000 associe les démarches qualité et managériale. La règle intègre aussi comme avec une pyramide : la réglementation communautaire et toute la législation nationale mais aussi le management et communication, l'HACCP et les bonnes pratiques.
L'HACCP est une méthode dont la norme fait la promotion.
Cette méthode repose sur sept principes : principe 1 : procéder à une analyse des dangers, principe 2 : déterminer les points critiques pour la maîtrise (CCP), principe 3 : fixer le ou les seuils critiques, principe 4 : mettre en place un système de surveillance permettant de maîtriser les CCP, principe 5 : déterminer les mesures correctives à prendre lorsque la surveillance révèle qu'un CCP donné n'est pas maîtrisé, principe 6 : appliquer des procédures de vérification afin de confirmer que le système HACCP fonctionne efficacement, principe 7 : constituer un dossier dans lequel figureront toutes les procédures et tous les relevés concernant ces principes et leur mise en application.
La norme internationale spécifie les exigences en matière de management de la sécurité des aliments. L'idée est d'appliquer les méthodes managériales à la sécurité des denrées alimentaires. Il s'agit de lutter au niveau international contre des épisodes dramatiques tels que celui de la "vache folle" et de trouver une réponse à la question des Organismes Génétiquement Modifiés. En effet une politique efficace suppose des compétences à tous les niveaux de la chaîne et l'application de règles communes. La traçabilité qui connait un grand succès prouve l'opportunité de normes telles que l'ISO 22000.

Sources:
http//www.haccp-guide.fr
http : //www.iso.org/iso/fr

Numérisation du patrimoine : appel à initiatives de numérisation en histoire de l’art, de l’architecture et de l’archéologie.

C’est avec son grand projet de bibliothèque gratuite, universelle, librement accessible que Google a tout bousculé ! Désormais il faut à tout prix numériser. Numériser quoi : tout le patrimoine culturel de tous les pays. La commission européenne nous y encourage. Le gouvernement français a emprunté et décidé de consacrer 750 millions d’euros à ce projet.

Les grands programmes de numérisation se succèdent. Pour les préparer, de nombreuses "journées" de réflexion sont organisées : autant d'espace de rencontres et d'échanges pour les professionnels des bibliothèques, éditeurs, documentalistes, acteurs culturels etc.

Le grand sujet, le 4 juin 2010 dernier, concernait : "la numérisation concertée des imprimés en arts".
Ce projet associant la BNF et l'INHA, avec bien entendu le soutien des ministères de la Culture et de la Communication et de l'Enseignement Supérieur de la Recherche, vise "à soutenir la numérisation de grands corpus d'imprimés conservés dans différentes institutions documentaires françaises". Le terme "imprimés" regroupe aussi bien les périodiques, que les catalogues de ventes, les livrets de Salons artistiques, les catalogues d'expositions, les catalogues de musées et les monographies d'artistes.

Une première étape de ce grand projet :
Un appel d'initiative a été lancé pour 2011-2012 qui concerne plus spécifiquement la numérisation des périodiques français. Ce projet est ouvert à tous les fonds contenant des collections, de préférences complètes, de périodiques. en langue française. Sont concernées aussi bien les collectivités nationales ou territoriales, que les établissements publics, les musées mais également les fondations et associations à but non lucratif.

Les subventions peuvent aller jusqu'à 170.000 euros par établissement retenu. Au final tous ces fonds devront être accessibles sur les sites partenaires du projet à savoir Gallica et la bibliothèque numérique de l'INHA.

Les dossiers de demande doivent atterrir à la BNF avant le 15 février 2012 !!

Pour tout savoir sur les conditions de l'appel à initiatives
Bibliothèque Nationale de France
Institut National d'Histoire de l'Art

mardi 29 novembre 2011

La visualisation des données

La "Visualisation des données"

Quelques "mot-clés" de la visualisation des données : Cartographies, schémas, représentations graphiques, lecture immédiate, attractivité, réseaux/médias sociaux (Facebook, Twitter, Flickr, Google+...), outils infographiques (Gephi,...), graphisme, communautés, liens, interactivité...


Un zoom efficace sur les réseaux sociaux et leur utilité :

Le blog d'Aref JDey (Demain la veille/ La valeur ajoutée de la visualisation de données) aborde le sujet ainsi "la représentation graphique des données (statistiques ou autres) permet d'améliorer la compréhension des problématiques liées aux médias sociaux mais aussi de synthétiser différents aspects de leurs usages et évolution". 5 exemples complémentaires de cartographies mettent ainsi en évidence les liens, les comportements, les usages et l'utilisation des réseaux sociaux (The Social Media Effect, Social Marketing Compass, Word of Mouth Visualized, What people are doing (Creator, Critics, Collectors, Joiners, Spectators, Inactives), The social Landscape) : une étude sociale et aussi commerciale intéressante à décrypter...


Une exercice d'esthète :


Certaines cartographies très développées, en 3D parfois, entrent dans la catégorie "Beaux-Arts"/ Art graphique : je vous recommande "la visualisation" des catalogues Data Flow : Design graphique et visualisation d'information (3 volumes existant à l'heure actuelle).


Une approche universitaire :


La cartographie sémantique par Christophe Tricot qui la définie ainsi :
On peut définir la cartographie sémantique comme étant la cartographie d’un espace informationnel basée sur sa sémantique. Et la cartographie est l’ensemble des opérations qui interviennent en vue de l’élaboration d’une carte et de son utilisation. En d’autres termes, la cartographie sémantique est le recours à des représentations graphiques d’un ensemble d’informations (des cartes) pour partager et créer des connaissances. L’objectif des cartes est d’aider à facilement appréhender des ensembles d’informations complexes.

La cartographie sémantique est une activité essentielle à la gestion des connaissances, qui permet de tirer parti de toute la richesse des informations des organisations.



Sources :

liens : http://www.demainlaveille.fr/2010/05/04/5-cartographies-pour-comprendre-les-medias-sociaux





Le cloud dans les entreprises françaises

Lors de la présentation du plan numérique de la France pour 2020, le cloud computing a été mis en avant et plus précisément son développement dans les entreprises.

Le cloud computing est un concept qui prend de plus en plus d'ampleur dans les entreprises françaises et posent question pour les décideurs informatiques que sont les DSI (sécurisation des données, migration des données, gestion des données, accès ...)

Une étude de Markess International (cabinet d’études spécialisé dans l'analyse de la modernisation des organisations avec les technologies de l’information) sur le développement du cloud computing en France 2011-2013, indique que les décideurs informatiques s'orienteront de plus en plus vers une solution externe pour l'hébergement de leur serveur.

A noter que ce sont en général les petites entreprises qui s'orientent vers le cloud et principalement pour la sauvegarde et l'archivage.

La tendance en France s'oriente donc vers le cloud mais quels sont les moyens et les outils à disposition des entreprises ? Quelles sont les garanties pour les entreprises de pouvoir accéder à leur données ?...

Au cours de la conférence CA World 2011 qui a eu lieu en novembre aux Etats-Unis, la société CA Technologies a présenté des solutions pour les entreprises afin de les aider dans la migration, la gestion, l'accès à leurs données...

Les offres de cloud augmentent. D'autres sociétés proposent des solutions de cloud tels que : Amazon, Econocom, Microsoft, Open Wide Sourcing, EMC...

Pour en savoir plus :
Article sur le plan numérique de la France pour 2020 :
http://www.journaldunet.com/solutions/acteurs/france-numerique-2020-cloud-et-informatisation-tpe-1111.shtml
Article sur les DSI et le cloud privé :
http://www.journaldunet.com/solutions/dsi/hebergement-et-cloud-prive-externe-1111.shtml
Aticle sur les offres cloud de CA Technologies:
http://www.journaldunet.com/solutions/systemes-reseaux/ca-world-2011-iam-et-migration-cloud-1111.shtml
Article sur les principaux fournisseurs de stockage en ligne :
http://pro.01net.com/editorial/533485/les-principaux-fournisseurs-de-stockage-en-ligne/

jeudi 24 novembre 2011

La DUA approuvée !

La DUA, Késako ?... En fait, il s'agit de la Déclaration Universelle des Archives. Elle a été approuvée par l'UNESCO en session plénière le 10 novembre dernier. Vous en conviendrez, l' information est passée inaperçue pour la plupart d'entre-nous, et pourtant, pour les archives c'est l'avancée la plus significative ces dernières années au niveau international !

Quelques petits rappels historiques...

Cette Déclaration a été initiée en 2007 au Québec et rédigée par des archivistes soucieux de vouloir mettre en valeur leur métier aux yeux du monde. Ils ont été soutenus par un groupe de travail international, la Section des Associations Professionnelles de l'ICA (SPA) pour que la Déclaration Universelle des Archives puisse toucher une audience universelle : prise en compte des différences de langage, de culture et de tradition archivistique.
Non sans mal le texte est approuvé par le Conseil International des Archives (ICA) en Septembre 2010.
Ce n'est qu'à la suite d'une forte mobilisation de la communauté archiviste internationale mais aussi grâce au travail remarquable de Papa Momar Diop, ambassadeur du Sénégal à l'UNESCO et ancien Archiviste National du Sénégal que cette déclaration a finalement pu être approuvée.

Que va changer cette Déclaration pour le métier ?

Elle va permettre de :
- favoriser la compréhension des archives par un plus grand nombre,
- sensibiliser le grand public et les décideurs importants à la cause des archives,
- donner une reconnaissance des archives dans la société moderne,
- mettre en valeur le rôle majeur que jouent les archives dans la transparence administrative, la responsabilité démocratique ainsi que dans la préservation de la mémoire sociale collective,...

Pour
en savoir plus :
Et pour les polyglottes la DUA est disponible en 20 langues...












Google Panda: du positif des utilisateurs aux impacts sur les sites web

Google n'est jamais à court d'idées ! La nouvelle version d'un de ses petits derniers, Google Panda, vient de connaître sa quatrième réplique le 22 novembre dernier, alors qu'il a été lancé en France le 12 août 2011! Les "mini-panda", comme les a nommé Olivier Andrieu (d'Abondance Actualité), sont des modifications du Google Panda d'origine, conçu par Google afin de fiabiliser les recherches sur son site. Pour de plus amples informations concernant l'algorithme de Panda, je vous renvoie à l'article de mon collègue, M. Jérémie Brudieux, "Google Panda : algorithme d'une domination pertinente", du 27 octobre 2011, dans ce blog UniVersDoc. Dans ce document, je vais tenter de démontrer à la fois les avantages de Panda pour les utilisateurs de Google en tant que moteur de recherche, mais également les faces cachées de celui-ci pour les sites Internet.


Les utilisateurs du moteur de recherche, étaient exténués de devoir faire face à de nombreux sites publicitaires ou trop "vieux". Devant cette lassitude et l'habitude du phénomène "première page" (consistant à ne regarder les réponses d'un moteur de recherche ne se situant que sur la première page de réponses) de nombreux utilisateurs, Google s'est vu contraint de reformuler son algorithme afin de proposer des résultats plus pertinents. En effet, selon l'article "Google améliore encore son algorithme: 35% des requêtes impactées" du Journal du Net, Panda de Google permettrait de placer en première page des résultats les sujets d'actualité ; pour les termes récurrents (des élections, des évènements annuels...), la date la plus récente sera proposée en premier ; il en sera de même pour les sujets fréquemment mis à jour (notamment dans le secteur informatique, le matériel hi-tech...). Si ce nouvel algorithme permettra aux utilisateurs de voir plus clair à travers la toile et de trouver plus rapidement les résultats de leur recherche, qu'elles pouvaient-être les faces cachées de la création de Panda par Google ?


Dans un premier temps, il est possible de supposer que devant le flux de publicité et le manque de pertinence de certaines réponses que proposait Google, les utilisateurs pouvaient se lasser. Or, pour Google, annoncer une solution pour pallier à ce problème lui permettait de garder ses utilisateurs et, ainsi, sa place dominante aux seins des moteurs de recherche. Cependant, si certaines personnes allaient tirer du bénéfice de ce changement, il n'en est pas de même pour tous les sites Internet.

Il est ici intéressant de se positionner en tant qu'observateur dans les forums de discussion et d'analyser ce que les propriétaires de sites Internet peuvent dire de ce changement. En effet, on peut y lire, sur Abondance Actualité : "Moi, j'ai été impacté. Le site d'e-commerce pour qui je travail a perdu 12% du trafic issu du référencement naturel depuis hier (lundi)" (22/11/2011), "L'un de mes sites à perdu 50% de visiteur depuis dimanche..., 230 visiteurs samedi, 124 visiteurs dimanche" (23/11/2011).
Il est également intéressant de constater que des plaintes ont été déposées par des sites Internet contre Google, en l'accusant notamment de concurrence déloyale. C'est le cas du comparateur de prix Twenga ou encore "Wikio.fr, Ciao.fr ou leguide.com [qui] ont enregistré des pertes de visibilité de l’ordre de 60 et 80%" d'après la rédaction de ZDnet.fr. D'après ces sites, les pertes financières sont fortes, sauf pour Google Shopping qui arriverait dans la première page de réponse. Google s'est bien entendu défendu contre toutes les accusations auxquelles il doit faire face (en France et dans le monde entier) en argumentant que la disparition de certains sites dans les premières pages est due à l'algorithme (pour faire clair, si les sites ne sont pas référencés c'est qu'ils ne possèdent pas de bons critères) et en aucun cas à une volonté de Google d'affirmer son territoire et de vouloir "manger le monde"1.
Cependant, pour contrer ce phénomène de sites qui pourraient disparaître des réponses du Géant du web, celui-ci a d'ailleurs mis en place un formulaire dans lequel n'importe quel utilisateur peut demander à ce qu'un site puisse être ré-indexé, en stipulant son nom, son adresse mail et, bien sûr, la raison pour laquelle il pense que ce site a été supprimé par Panda de manière absurde.
De plus il paraîtrait que les sites de e-commerce aient été peu impactés en ce qui concerne leur trafic, même si leur référencement sur Google a chuté, d'après Virgile Juhan (il ne faut pas confondre fréquentation et référencement, puisque les utilisateurs de ces sites peuvent connaître les adresses URL et n'ont donc plus besoin de passer par un moteur de recherche pour consulter ces sites).


Aux vues de ces différents sons qui parviennent à mes oreilles, je pense pouvoir conclure que si la plupart des utilisateurs du moteur de recherche Google seront ravis de cette épuration faite par Panda, qui leur apportera moins de publicité et plus de documents "neufs" dans ce monde de l'Internet où l'ancien devient très vite obsolète, les possesseurs de sites Internet, par contre, sont fortement mitigés sur la question, et il a été mis en place sur la toile de véritables forums et salons, voire même des articles dans le but d'être ré-indexés par Panda et de retrouver au plus vite une bonne place sur le moteur de recherche.
Cependant, avec Panda et ses multiples versions, je pense que nous ne sommes pas au bout de nos surprises et que ce Panda va être à surveiller pendant encore un certain temps...


Bibliographie (dans l'ordre du document):
ANDRIEU Olivier, "Mini-réplique de Panda lancée par Google", in Abondance Actualité, 22/11/2011, http://actu.abondance.com/2011/11/mini-replique-de-panda-lancee-par.html
BRUDIEUX Jérémie, "Google Panda: algorithme d'une domination pertinente", in UniVersDoc, 27/10/2011, http://bloguniversdoc.blogspot.com/search?updated-max=2011-11-03T18:22:00%2B01:00&max-results=7
La rédaction, "Google améliore encore son algorithme: 35% des requêtes impactées", in Journal du Net, 03/11/2011, http://www.journaldunet.com/solutions/moteur-referencement/mise-a-jour-google-1111.shtml
Commentaires du site Abondance Actualité, 22 et 23/11/2011, http://actu.abondance.com/2011/11/mini-replique-de-panda-lancee-par.html
La rédaction, "Google Panda: le comparateur de prix Twenga passe à l'offensive", in ZDNet.fr, 02/11/2011, http://www.zdnet.fr/actualites/google-panda-le-comparateur-de-prix-twenga-a-l-offensive-39765284.htm
La rédaction, "Concurrence déloyale: Google plaide non coupable", in ZDNet.fr, 21/09/2011, http://www.zdnet.fr/actualites/concurrence-deloyale-google-plaide-non-coupable-39764130.htm
JUHAN Virgile, "Google Panda: les plus fortes baisses de visibilité en France", in LeJournalduNet, 17/10/2011, http://www.journaldunet.com/solutions/moteur-referencement/google-panda-l-impact-en-france/panda-les-plus-fortes-baisses-en-france.shtml
1 : référence à l'ouvrage de ICHBIAH Daniel, Comment Google mangera le monde, 2010.

mardi 22 novembre 2011

Vers une TVA à 7% pour le livre numérique ?

Alors que Nicolas Sarkozy s'engage à appliquer le taux de TVA de 7% sur les livres numériques, la Commission européenne a un autre avis sur l'affaire.

Reprenons les faits - le livre papier bénéficie aujourd’hui d'un taux de TVA réduit à 5,5% (7% au 1er janvier 2012). Cette exception ne s’applique pas au livre numérique qui s'est vu infliger le taux de base - 19,6%. La situation paraît absurde et a fait l'objet de longs débats sur les spécificités du livre numérique par rapport au livre papier qui justifieraient (ou non) les différent taux appliqués. Du côté de la loi française, l’alignement de la la taxe a été prévu il y a un an, par une législation qui devait entrer en vigueur au 1er janvier 2012. Le long délai devait servir à négocier ces termes avec la Commission européenne, mais apparemment, les négociations n’ont pas abouti et la France risque de se retrouver en infraction au 1er janvier. Indépendamment des réflexions sur la nature spécifique de ce produit, l'e-book ne figure par sur la liste de secteurs qui peuvent bénéficier de la TVA réduite. Une telle décision exige l'unanimité des États membres et on est loin de là.

Alors que l’alignement de la TVA paraît logique, une question se pose sur ce produit qui en fonction de son support ne retombe pas dans la même catégorie d’objets. Certes, un livre n’est pas un produit comme les autres, mais qu’est-ce qui devrait alors décider de sa classification : son contenant ou son contenu ? Le livre électronique est-il tout simplement un livre ou plutôt un logiciel, un jeu vidéo, une base de données... ? La distinction, pourtant flagrante (mise en avant dans le rapport Zelnik sur la création et Internet) entre le livre homothétique (copie numérique du livre papier) et le livre enrichi, semble complexifier le paysage quand employé dans le contexte de la TVA ou de la loi sur le prix unique. La tendance du législateur serait plutôt à faire le distinguo entre le livre papier et le livre électronique homothétique d’un côté et le livre enrichi de l’autre. Et pourtant les enjeux du numérique se situent plutôt du côté de l’enrichi.

Il sera sans doute intéressant d’observer cette situation et son impact sur le marché de l’édition électronique en France. A suivre !

Sources :

http://actu-des-ebooks.fr/2011/11/22/tva-7-pour-cent-sur-le-livre-numerique-pourquoi-ca-coince/
http://bibliobs.nouvelobs.com/numerique/20101217.OBS4922/tva-reduite-pour-le-livre-numerique.html
http://www.lesechos.fr/entreprises-secteurs/tech-medias/actu/0201736882150-la-tva-reduite-sur-le-livre-numerique-dans-la-ligne-de-mire-de-bruxelles-247028.php
http://aldus2006.typepad.fr/mon_weblog/2011/11/sarkozy-tva-%C3%A0-7-pour-le-livre-num%C3%A9rique.html

E-reader : un succès attendu qui pourrait faire bouger les "lignes" du marché des tablettes


Face à l'arrivée des tablettes sur le marché de l'e-book, on aurait pu craindre la disparition de la "liseuse" ou "livrel", comme la nomme certains. Il n'en a rien été, bien au contraire. L'expérience très proche de celle du papier qu'offre aujourd'hui la technologie d'E-Ink avec ses écrans e-paper et la nette baisse des prix chez les distributeurs annoncent de belles perspectives pour ces appareils dédiés à la lecture...


Petit rappel historique

Si le Kindle, le lecteur de livres d'Amazon, est lancé en novembre 2007, la lecture sur appareil mobile débute dix ans auparavant. On lit d'abord sur son ordinateur - portable ou non - avant de lire sur les agendas électroniques. Suivent ensuite les premiers smartphones de Nokia et Sony Ericsson. Parallèlement, on voit l'émergence de tablettes de lecture dédiées.
Les premières sont le Rocket eBook, ou le Gemstar eBook, et ne durent pas. Après une période morose, des tablettes plus légères gagnent en puissance et qualité d'écran, par exemple le Cybook ou le Sony Reader, auquel s'ajoute le Kindle d'Amazon en novembre 2007. L'écran LCD laisse enfin la place à un écran tactile, utilisant la technologie E Ink, sans rétro-éclairage permettant un confort visuel fabuleux.


Des évolutions spectaculaires en terme de vitesse, d'écrans et de tactile

Il y a encore peu de temps, le "reader" était confronté à la complexité des menus, à un manque de performance dans l'affichage avec des saccades régulières, sans parler du téléchargement fastidieux des ebooks via un câble USB... oubliez tout ça !
Les appareils aujourd'hui proposés sur le marché sont impressionnants de souplesse dans l'interface : changement de police en un instant, fonctionnalités de recherche pleinement abouties, sauts de pages quasi-instantanés. Sans parler de leur finesse et de leur légèreté : seulement 170 grammes par exemple pour le dernier Kindle...

La distinction avec les tablettes ne s'arrête pas là. Aujourd'hui proposé à 99 euros, le Kindle d'Amazon devient très abordable. A grand renfort de marketing et de communication sur toutes ces innovations, l'hypothèse des 70 à 90 millions de readers sur le marché en 2017 (chiffre donné la semaine dernière par le site PrintedElectronicsWorld) pourrait devenir réalité.


Le passage à la couleur, une nouvelle étape

La couleur arrive, certes pour l'instant limitée, mais elle est là. Couplée à la vitesse qui est désormais correcte, on peut élargir la lecture à de nouveaux types de contenus : magazines, livres illustrés, livres pour enfants. Le premier modèle de cette génération d'écrans sera commercialisé au mois de décembre aux Etats-Unis.

De nouvelles technologies sont aussi en préparation et sont des concurrentes très sérieuses à l'encre électronique. On trouve par exemple l'entreprise Qualcomm et son écran Mirasol, très attendu et qui commencera à être commercialisé au 2nd semestre 2012, ainsi que la technologie Liquavista de Samsung.


N'en déplaise à Frédéric Beigbeder, si les éditeurs et les libraires numériques savent en saisir l’opportunité, cette évolution représenterait un environnement technologique et culturel au sein duquel les livres numériques, sous des formes variées, peuvent devenir un mode naturel d’accès à la lecture pour toute une génération...



Sources:
http://cnetfrance.fr/blog/l-ecran-mirasol-fait-sa-premiere-apparition-sur-un-e-reader-39765891.htm
Marie Lebert, Une courte histoire de l'e-book, , Dossiers du NEF
http://actu-des-ebooks.fr/
http://www.e-reader-info.com/



vendredi 18 novembre 2011

Ressources éducatives libres : quelques grands acteurs

Dans le domaine de la formation, il existe maintenant de nombreux cours en ligne gratuits. Ainsi, dans le domaine qui m’intéresse (l’enseignement des langues et la linguistique), je découvre régulièrement des sites proposant des cours, des échanges linguistiques, des entrainements linguistiques sous différentes formes.
Dans ce paysage, ce qu’on appelle les Ressources Éducatives Libres, occupent une place spécifique.Elles s’inscrivent dans le courant « WIKI », elles s’appuient toujours sur une notoriété (même acquise récemment), elles ont un mode de financement spécifique (financement par la communauté via des dons par exemple, produits dérivés, mécénat public ou privé).

La première d’entre elle, Wikipedia, définit ce concept de la façon suivante :
« L'expression Ressources Éducatives Libres (REL) (de l'anglais « Open Educational Resources ») désigne un mouvement mondial initié par des fondations, universités, enseignants et pédagogues visant à créer et distribuer via internet des ressources éducatives (cours, manuels, logiciels éducatifs, etc.) libres et gratuites. »
http://fr.wikipedia.org/

Voici 3 exemples à découvrir (ou redécouvrir) :

Le plus connu : Wikimedia

Wikimedia est une marque de la Wikimedia Foundation et le nom qui chapeaute les projets que soutient cette fondation ; il s'agit du projet d'encyclopédie en ligne Wikipédia, que nous connaissons tous.
Il existe d'autres projets, avec la même philosophie. A titre d'exemple, voici deux projets liés au langage :

WIkiquote : un projet libre de collecte de citations. De nombreuses catégories d’hommes célèbres y sont répetoriées. Dans la catégorie Chanteur, cela va par exemple de Akhenaton à Frank Zappa
http://fr.wikiquote.org/

Le Wiktionnaire, branche francophone du projet Wiktionary. C'est un dictionnaire libre et gratuit que chacun peut améliorer.Le site annonce actuellement 2 097 040 articles décrivant en français les mots de plus de 900 langues (et le site invite à s’entrainer à rédiger des articles dans le « bac à sable »).
http://fr.wiktionary.org/wiki/Wiktionnaire


Celui qui vise le plus à l’accès à la connaissance pour tous : Open Training Platform de l’Unesco


Un petit rappel, l’acronyme UNESCO signifie : United Nations Educational Scientific and Cultural Organization.
La plateforme s’inscrit donc dans la philosophie de cet organisme. “UNESCO facilitates a collaborative access to existing free training courses and promotes open licensed resources to specialized groups and local communities for development.” Elle offre un espace collaboratif structuré pour partager les formations déposées par les utilisateurs.
A ce jour, la plateforme annonce 3508 cours, 293 catégories, 6052 membres.
Un bref passage dans la catégorie langage, permet de voir la diversité des ressources proposées : initiation au polonais, langue cree, phonétique de l’anglais, etc.
http://opentraining.unesco-ci.org/


Le plus prestigieux : OpenCourseWare du MIT

Cette plateforme existe depuis 2001. Elle repose sur l’accord des enseignants volontaires pour publier l’ensemble de leurs matériaux de cours. Ils proposent aujourd’hui plus de 2000 unités d’enseignement.
Leur mot d’ordre : « Unlocking Knowledge,Empowering Minds.”
Et le contenu est annoncé de façon claire, dès la première page : « Free lecture notes, exams, and videos from MIT.No registration required.”
http://ocw.mit.edu/index.htm

Marie-Pierre Geron



Source :

Olivier Ertscheid. Les enseignants, la formation en ligne et les ressources éducatives libres : quel mode de financement ? Documentaliste - Sciences de l'information - 2011, vol.48, n°3.

Learning centers : une vraie révolution dans le monde des bibliothèques universitaires?

Les learning centers présentent plusieurs caractéristiques inspirées des learning resource centers.
Selon le rapport de Suzanne Jouguelet de décembre 2009, Les learning centers : un modèle international de bibliothèque intégrée à l’enseignement et à la recherche, les learning centers proposent:
http://www.enssib.fr/bibliotheque-numerique/document-48085

- selon la conception d’origine, un axe prioritaire de soutien à l’apprentissage avec une vision commune de l’enseignement et de la documentation, qui se traduit par un lien étroit avec les enseignants, une intégration dans les programmes d’enseignement et de recherche, une inscription des formations dans les cursus…;
- des espaces conviviaux, ouverts et flexibles;
- une accessibilité maximale, y compris à distance (horaires étendus, collections en accès libre, ressources numériques, services, wifi…);
- un personnel aux compétences multiples, avec un effacement des frontières entre professionnels, et un regroupement des services d’information dans plusieurs domaines (notion de « one stop shop »), ainsi qu’une assistance personnalisée.
- des ressources documentaires (imprimés, documents multimédia, ressources électroniques intégrées dans l’environnement virtuel de l’université…) et des équipements informatiques, de reproduction… en grand nombre.

Leur but est donc d'allier les aspects techniques aux pratiques pédagogiques.
A l'heure de la dématérialisation des documents, les learning centers ont pour vocation de maintenir ou de faire revenir les étudiants dans leurs murs et de recréer un espace d'échange tout en donnant une dimension conviviale à des métiers de plus en plus techniques.

Ce concept implique donc des changements dans l'organisation du travail des bibliothécaires mais aussi des enseignants, pédagogues, informaticiens, etc. L'organisation du travail, moins traditionnelle et moins cloisonnée, basée sur des relations transversales, collaboratives, favorise des passerelles entre les différents métiers et offre de nouvelles perspectives de carrières.

Cependant, face à cet engouement, on peut quand même se poser la question de savoir si les learning centers présentent une vraie révolution dans le monde des bibliothèques universitaires ou s'il s'agit, comme l'écrivait l'auteur du blog Bibliobsession http://www.bibliobsession.net/2010/01/20/les-learning-centres-sont-des-bibliotheques-universitaires-modernes/, de "bibliothèques universitaires modernes qui fonctionnent bien", avec des moyens financiers et humains, avec une architecture moderne, comme le Rolex Learning center de Lausanne par exemple http://fr.wikipedia.org/wiki/Rolex_Learning_Center?

lundi 14 novembre 2011

Les bibliothèques font leur cinéma

La bibliothèque au cinéma... belle rencontre, si l'on en juge par le blog "Notorious Bib" qui recense, depuis cet été, les films où figurent bibliothèques et bibliothécaires. A raison d'un article par semaine, Misterpamp, pseudonyme d'un bibliothécaire bloggeur blagueur, s'amuse à donner à voir comment la bibliothèque et les bibliothécaires sont traités dans les films.
Alléchée par le billet de Christelle Di Pietro, posté sur l'ENSSIB, Actualité du monde de l'info et des bibliothèques, le 14 novembre, aujourd'hui, donc, je suis allée constater par moi-même ce qu'il en était.
Misterpamp jette son dévolu aussi bien sur des films de fiction français qu'américains ou asiatiques, pour l'instant plutôt des années 1960 à 2010, sans oublier les dessins animés.
Sont à l'honneur les bibliothèques publiques, et ce n'est pas sans une certaine émotion que j'ai découvert dans le billet "Eros à la BNF", posté le 13 octobre, la BNF en personne, grâce à des captures d'écran, dans "Anna M." (2007), avec Isabelle Carré.
Le blog, attractif par son objet, l'est aussi par les couleurs vives qui en ornent la page d'accueil. Mais, attention, les billets sur "Notorious Bib" sont de vraies analyses professionnelles et l'ENSSIB, dont le sérieux n'est plus à démontrer, en suit de près la production pour son fonds "Image et présence des bibliothèques dans la littérature et le cinéma" .

Oser les archives

En matière d'archive, la règle générale veut que tous les organes de l'Etat versent régulièrement leurs documents aux Archives Nationales afin que celles-ci soient librement communicables au public. Cette collecte est l'objet d'une collaboration permanente entre l'Administration et les pôles d'archives.

Seuls le Ministère de la Défense, celui des Affaires étrangères et la Préfecture de Police de Paris disposent d'une exonération de versement aux Archives nationales en raison du caractère sensible de leurs documents. Cela ne signifie pas pour autant que ces archives soient "fermées", bien au contraire. Le SHD (Service Historique de la Défense), les Archives Diplomatiques et le SMAC (service de la mémoire et des affaires culturelles de la Préfecture de Police) sont chargés d'assurer la conservation et l'accès du public aux documents. Les délais imposés avant communication, contraintes propres aux documents sensibles, sont régulièrement allégés (cf loi 15 juillet 2008) et de nombreuses dérogations sont accordées chaque année (cf article d'Archimag sur le SMAC).

Malgré un retard conséquent sur ses confrères, le SMAC vient de franchir une nouvelle étape vers une gestion plus professionnelle de son patrimoine archivistique. Bruno Texier nous rapporte en effet ce 10 novembre 2011 dans Archimag que: "Pour la première fois de son histoire, la Préfecture de police dispose d'un conservateur du patrimoine". Celui-ci doit participer à la promotion d'une des plus riches sources d'informations librement accessibles au public. Déjà abondamment consultées par les historiens professionnels, les archives de la Préfecture de Police ne méritent pas leur réputation d'opacité. Le chercheur devant néanmoins s'armer de patience et d'une bonne dose d'opiniâtreté (ce qui est le propre de toute recherche d'information fiable).

Gageons qu'à l'époque de l'information immédiate et des quotidiens gratuits ce nouvel effort poussera nos concitoyens à accorder une attention plus grande à une source d'information à la fois sûre et d'une grande richesse. Face à la volatilité d'une l'information omniprésente les archives constituent une source fiable et encore irremplaçable. Verba Volant, Scipta Manent.

jeudi 10 novembre 2011

N’ayez pas peur des RSE !

Face à l’usage des réseaux sociaux sur le lieu de travail les dirigeants ne savent pas vraiment quelle réaction adopter : interdire ou encourager ces pratiques ou encore ne rien faire ?
Mais à travers cet usage il y a là un phénomène de société et les entreprises peuvent en tirer avantage.
Comment ?
En utilisant ces types de réseaux en interne afin de permettre à leurs employés de se rapprocher et de créer de véritables communautés au-delà de l’aspect ludique de ce nouveau modèle de socialisation.
A travers les RSE, les employés apprennent à comprendre le fonctionnement de leur entreprise, d’identifier les taches attribuées et surtout les experts d’un domaine.
En identifiant les compétences, les RSE participent au fonctionnement de la démarche de Knowledge Management.
Plus encore, ces outils permettent de créer ex nihilo des véritables communautés de réflexion autour de sujets propres à l'entreprise, et constituent un véritable levier pour l'innovation.
Le fruit de ces réflexions est, du fait de l'aspect social des RSE, partagé plus rapidement et diffusé à toute l'organisation.
L'enjeu est de réussir à ancrer dans les mentalités et les usages une certaine dose d'informel, de valoriser les échanges en usant même de moyens ludiques sans toutefois aller trop loin dans l'aspect décontracté pour ne pas décrédibiliser la démarche.
N'ayez donc pas peur d'autoriser l'utilisation des réseaux sociaux sur le lieu de travail en adoptant une plateforme de RSE qui ne pourra qu'augmenter le sentiment d'appartenance de tous les employés.
Osez les RSE !

Sources :
Lionel GOUJON. Réseaux sociaux dans l’entreprise, un levier pour le management des connaissances ? Septembre 2010. 73 pages.
Une étude très récente sur les apports des réseaux sociaux aux problématiques de gestion
des connaissances.

USEO. Les Réseaux Sociaux d’Entreprise : l’entrée dans l’ère du conversationnel. Étude
des usages, de 15 solutions, des pratiques de déploiement. Janvier 2010. 159 pages.
Complément de celui paru en 2009, ce livre blanc présente les usages, l’offre du marché et des
exemples de déploiement de réseaux sociaux en entreprises. Nombreux graphiques.

Le Référentiel Useo. http://referentiel.useo.fr
Un espace communautaire en ligne créé en décembre 2009. Il permet d’échanger des idées, de trouver des tutoriaux, et propose une librairie de modèles d’usages selon les types d’outils (gestion de contenu, portail, gestion et partage de documents, travail collaboratif, réseau social
d’entreprise).

Blog d’Anthony Poncier. http://poncier.org/blog
Articles sur les réseaux sociaux d’entreprise et le community management

Diffuser ses prestations sur tablettes et téléphones

Dopé par l'apparition de terminaux toujours plus ergonomiques et intuitifs et des r
éseaux plus performants et plus accessibles, le marché de l'Internet mobile a connu une très fo



Selon une

étude de Capgemini, en 2014, les terminaux mobiles deviendront les principaux points d'accès à Internet. Il est donc vital, pour toute organisation assurant la diffusion de ces prestations sur le webrte croissance depuis le lancement de l'Iphone en 2008. Au delà des innovations technologiques, c'est la forte adhésion des utilisateurs aux services de l'Internet mobile qui a profondément contribué au développement de cet écosystème.
d'assurer ces nouveaux canaux. Toutefois, le manque de structures de référence, l’absence d’indicateurs
Ainsi, prendre le temps de prendre du recul, acquérir une certaine perspective et co


nsidérer les bénéfices fondamentaux attendus par votre organisation peuvent faire la différence
pour le succès à long terme de votre service. de mesure des résultats et l’absence de visibilité de l’évolution technologique et commerciale
sont facteurs d’incertitude.

Analyser le marché

Une des étapes fondamentales de la construction d'une stratégie mobile est d'avoir examiné de près le marché : la typologie des utilisateurs mobiles, quelles plateformes mobiles utilisent-il ? Qu’elles sont leurs attentes vis-à-vis d’un service mobile ? Enfin, pensez à étudier la stratégie de vos concurrents.

Définir les objectifs

Toute stratégie peut rencontrer le succès ou l’échec en fonction de la lisibilité de ces objectifs initiaux. Ceci est d’autant plus vrai concernant la stratégie de positionnement sur l’internet mobile. En tant que média récent, l’internet mobile a plus à prouver que la plupart des canaux traditionnels. Ainsi une vision claire de ce que vous voulez réaliser et comment ces réalisations seront mesurées est indispensable avant d'envisager la mise en œuvre du produit.

Définir le produit

  • Penser le service proposé pour un usage mobile :
    • Il doit apporter une valeur ajoutée dans un contexte de mobilité :
      • Privilégier le push pour diffuser vos prestations.
      • Eviter de proposer des formulaires de recherche au profit des menus de navigation.
      • Sur le plan rédactionnel, être bref et fonctionnel. Se concentrer sur les besoins primaires de vos internautes. Si votre objectif est la portabilité de votre site web classique, il faudra mettre en place des filtres afin d'adapter le contenu et ne fournir que l'essentiel à vos mobinautes, quitte à associer à votre contenu un lien vers votre site web classique.
    • Il doit tirer parti de fonctionnalités offertes par le mobile :
      • Lister les fonctionnalités (GPS, accès au carnet d'adresse, appareil photo, ....) permet d'identifier celles avec lesquelles votre service pourrait interagir afin d’offrir une expérience d'utilisation plus riche.
  • Prendre en compte les spécificités de lecture et d’interaction sur un écran mobile :
    • taille de l’écran : une surface de lecture limitée.
      • Organiser vos pages en une seule colonne.
      • Réduire les marges, filets et autres gouttières.
      • Réserver la page d’accueil aux menus de navigation.
    • vitesse de chargement : la performance limitée des réseaux 3G.
      • Alléger au maximum le poids des pages.
    • navigation avec le doigt : un outil moins précis que la souris.
      • Ne pas hésiter à faire de longs textes pour présenter vos liens. Sur un petit écran, un lien de 5 mots est plus facilement accessible qu’un lien d’un ou deux mots.
      • Construire chaque page comme un tout afin d'éviter à votre utilisateur les phases de navigation et les temps de chargement des pages.

Choisir la plateforme : site web vs applications mobiles

Ce choix est déterminant car il va influer sur toute la stratégie de développement, le coût de production et de diffusion de votre service.
Comparatif applications mobiles/sites web mobiles

Les applications

Si vous choisissez de créer une application mobile il vous faudra faire le choix d’une plateforme sur laquelle investir. En effet, il serait trop coûteux de vouloir couvrir tous les types de terminaux. Les codes, les langages de développement sont différents et spécifiques à chaque terminal. Il vous faudra donc étudier les types de terminaux utilisés par votre cible.

Benchmark des os moblies

Le site web optimisé pour terminaux mobiles

Même si la stratégie du site web mobile peut paraître moins séduisante en terme de stratégie marketing, le site web mobile reste une solution efficace pour se positionner sur l’Internet mobile.

Un service vraiment universel

Le site mobile, peut être accessible par tout téléphone, quel que soit son type (smartphone ou non), son système d'exploitation ou ses spécificités techniques (résolution d'écran, support du Javascript ou non, etc.). Plusieurs agences mobiles proposent en effet des "moteurs de rendu". Ces services permettent, pour chaque appel de page d'un site mobile, de renvoyer instantanément au téléphone une page adaptée à ses spécificités.

Le browsing sur mobile est déjà une réalité

Selon une étude réalisée par GroupM pour SFR, les applications ne constituent pas la plus grosse porte d'entrée à l'Internet mobile aux yeux des mobinautes. Le portail de l'opérateur, l'utilisation d'un moteur de recherche ou la saisie directe d'une URL dans un navigateur mobile sont plus souvent cités par les possesseurs de Smartphones comme des façons d'accéder à l'Internet mobile.

Diffuser son service

Si la diffusion d’un site web mobile ne nécessite qu’une simple mise en ligne du produit, la diffusion d’une application sur un magasin d’application peut être soumise au respect des règles de validation en vigueur sur chaque plateforme.Certains acteurs garantissent ainsi aux utilisateurs la qualité des applications en effectuant un contrôle a priori de la qualité du produit via un circuit de soumission. D’autres acteurs fonctionnent sur le mode d'une ouverture totale des applications. Il n'y a qu’un contrôle et une régulation des abus a posteriori. Généralement, la qualité de leurs applications est moins élevée que celles que l’on trouve sur les « Market » des opérateurs ayant opté pour une stratégie de validation.
Pensez à définir une stratégie de référencement en amont de la phase de développement. N’oubliez qu’il existe des méthodes pour booster la visibilité de vos applications sur les « markets ».

Mesurer les usages

Comme dans toute stratégie Internet, il faudra mettre en place des indicateurs d’usage de votre service. Pour les applications mobiles, les « Markets » vous fourniront des données sur les téléchargements de votre service. Il est à noter que de plus en plus d’outils de SEO proposent des modules pour mesurer la visibilité et l’usage des applications mobiles.



Références
Red Ant. Going mobile ahow-to guide. 2011.
http://www.redant.com/_assets/files/Going_Mobile_Red_Ant-Second_Edition.pdf
GFI. Quelles applications pour quelle mobilité : livre blanc. 2011. http://www.gfi.fr/gfilabs/white-paper.php

mercredi 9 novembre 2011

Cairn.info passe à l'heure anglaise

Fort de sa notoriété et de la taille de son fonds de revues numériques, le kiosque va bénéficier du plan d'aide à la traduction des revues en sciences humaines et sociales que le Ministère de la Culture et de la Communication vient de confirmer au début du mois.

Ouverture à l' international
Le programme de traduction, prioritairement du français vers l'anglais, va s'étendre sur les 3 prochaines années conformément à l'accord que le Centre National du Livre vient de conclure avec le consortium des éditeurs de Cairn. Il sera financé à parité par les 2 signataires à hauteur de 2,2 millions d’euros.
L'ambition est de donner aux SHS « la place qui leur revient dans la compétition mondiale du savoir » tout en garantissant aux chercheurs « la capacité de penser et d’écrire en français ».

Les atouts du passage par la traduction
La démarche a ses avantages et ses exigences. En n'étant pas contraint à publier directement en anglais, le chercheur bénéficie d'une liberté d'approche et d'une précision dans l'expression de sa pensée qui servent la qualité conceptuelle de son travail.
L'exigence est de sélectionner des traducteurs spécialisés qui travailleront en étroite collaboration avec les chercheurs et de manière récurrente dans le programme. A plus long terme, dans la « perspective multipolaire et multilingue » du plan telle que M. Frédéric Mitterrand l'envisage, il ne faudrait pas que la langue anglaise soit utilisée comme langue de départ pour les autres traductions. Leur qualité en serait dégradée.

La nécessaire sélection
Même si le plan est annoncé comme « massif », on peut se demander quelles revues seront sélectionnées parmi les 291 disponibles sur le kiosque ? Donnera-t-on la priorité aux articles de sciences d'économie-gestion sur les articles de nos meilleurs sociologues ? Les thématiques seront-elles choisies en fonction de leur faible ancrage national ?
Les comités de sélection pourront s'appuyer sur l'expérience de certaines revues, notamment celle de la Revue française de sociologie qui, chaque année, fait une sélection d’articles parus en français, selon des critères clairement définis en vue de les publier dans un numéro supplémentaire en anglais.

Pari de pérennité
Parions que ce tournant servira le rayonnement de nombreux chercheurs francophones, notamment les chercheurs en SIC et qu'il aidera Cairn.info à atteindre l'autonomie financière vers laquelle il tend.

On a toutes les raisons d'être optimiste. Le nom même de la plateforme est de bon augure : c'est bien au sens de repère solide et immuable qu'il est compris, en français comme en anglais.

Vers la fin du fil RSS ?

Le RSS est utilisé pour la syndication de contenu web. Sans plus rentrer dans les détails techniques, ce format permet de suivre sur le web l'actualité d'un sujet qui vous intéresse via des fils ou flux d'information. Du coup, face à "l'infobésité" galopante, ce petit outil est bien utile pour affronter le bruit googlien. Le problème, c'est qu'après un âge d'or relativement long à l'échelle de l'internet (environ cinq ans), le RSS tend à disparaître.
En y regardant de plus près, il n'est pas devenu obsolète ou inutile, il est juste en passe de devenir invisible pour le non initié. Les exemples les plus parlant de cet état de fait : le géant Firefox a retiré son icône RSS de la barre d'URL ; Twitter l'a supprimé de la page d'un profil ; Google annonce que Google Reader (son lecteur de flux RSS) va disparaître de la barre de navigation depuis Gmail. Ainsi, pour générer des flux RSS, il faut dorénavant se montrer rusé et partir à la pêche sur les différents sites, pour tomber finalement sur l'icône RSS.
Etonnante au premier abord, cette disparition n'est pas si incongrue. Aujourd'hui, professionnels de l'information mis à part, les internautes ne sont pas franchement friands des RSS. L'actualité se résume souvent aux partages sur Facebook ou Twitter et la curation de contenu.
Mais pour ce qui est de l'utilisation en documentation, ce qui devrait intéresser les lecteurs de ces lignes, le RSS reste un outil des plus efficaces. Il permet une veille systématique dans un domaine choisi et/ou communautaire (le problème de la curation résidant dans la sélection préalable opérée : par qui, pourquoi, cela reste assez obscur).
Dans le même ordre d'idées, la question de l'avenir des outils qui affichent les fils RSS, comme Google Reader ou Netvibes, peut se poser. Leur "professionnalisation" est probable mais peut-être est-ce là un mal pour un bien. Car, s'il y a un défaut à trouver au RSS, c'est sans doute l'abondance d'information qu'il génère. Le développement d'outils permettant de mieux gérer ce "bruit" peut lui redonner une seconde jeunesse.
Au total, le RSS n'est plus automatique (allez sur lemonde.fr vous comprendrez) mais toujours utile pour peu que l'on en ai l'utilité. Il va donc falloir bien le chercher ou même le fabriquer soi-même.

Sources : http://bibliotheques.wordpress.com/2011/10/11/vers-la-fin-du-rss/

Pour aller plus loin : Le site commentçamarche (par exemple) pour la création de RSS.
Voir la définition de "atom", cousin du RSS.

lundi 7 novembre 2011

Internet rend-il bête ?

Sous ce titre volontairement provocateur se cache une question pas si dénuée de sens. On peut en effet se demander si l'utilisation d'Internet nous change ou non, principalement dans la façon dont on comprend son environnement. Chacun s'en rend compte, il n'est pas question d'intelligence ou de bêtise ici.

  • La traduction ne brouille-t-elle pas le message de l'auteur ?
    The Shallows, what the internet do to our brain
    , est un essai écrit par Nicholas Carr en 2010. Finaliste lors de l'attribution du dernier prix Pullitzer, dans la catégorie essais (distincte du Pullitzer des journalistes), il a été largement traduit. Et la magie un peu réductrice de la traduction, parue en Français le mois dernier, a changé The Shallows (littéralement les basses eaux, l'eau peu profonde) en Internet rend-il bête ? Nicholas Carr, membre du comité éditorial de l'encyclopedia Britannica, a bien écrit en 2007 un article du nom de Is Google making us stupid ? et c'est effectivement à partir de cette base qu'il a écrit son essai de 2010. En 2010, suite à la sortie de son livre, Carr a aussi participé au débat Does the Internet makes you dumber ? Mais le premier texte n'est pas le deuxième, ni le troisième. Si Carr a voulu être moins tranché cette fois, c'est raté.

  • La question n'est pas culturelle, elle est biologique
    Le problème des humanités, de la culture au sens large, et de la place réduite que leur laisse encore les techniques, est largement dépassé, malgré ce que laisse entendre le titre de la version française, et malgré certaines réactions vis-à-vis de Carr. On parle ici des avancées récentes des neurosciences : pas de confusion. Dans l'essai, on lit distinctement les expériences personnelles de l'auteur "Ces dernières années, j'ai eu la désagréable impression que quelqu'un, ou quelque chose, bricolait dans mon cerveau, réorganisant les liaisons neuronales, reprogrammant la mémoire. Et quand je m'asseyais avec un livre, après quelques pages mon cerveau voulait faire comme quand je suis sur Internet : vérifier mes e-mails, cliquer sur des liens, chercher une information chose sur un moteur de recherche, et sauter rapidement de page en page." En effet, nos cerveaux, l'histoire et la science l'ont montré, évoluent en fonction de nos expériences. Les technologies utilisées pour trouver, stocker, et partager l'information, sont parfaitement capables de modifier l'organisation des liaisons neuronales, que l'on soit un enfant ou un adulte.

  • Livre vs. Internet
    La conséquence pour Carr (qui s'appuie sur les travaux de Plato et Mc Luhan, ainsi que sur les découvertes de Eric Kandel (prix Nobel de médecine en 2000) est que toute technologie de l'information s'appuie sur un système de priorités intellectuelles, remettant au besoin en cause la nature même du savoir. Les livres imprimés servent aux lecteurs à concentrer leur attention, et stimulent les pensées créatives. A l'inverse, Internet encourage la rapidité de pensée, et la capacité de synthèse des informations récupérées sous une forme très fractionnée parmi de multiples sources. Les priorités d'Internet sont celles du monde industriel : vitesse, efficacité, optimisation de la production et de la consommation. Et en utilisant Internet, nous tendons à adopter ces mêmes priorités, au détriment des anciennes (pour rappel : capacité de concentration, d'interprétation, voire de réflexion). Et c'est un jeu à somme nulle. Ce que l'on gagne d'un côté, on le perd forcément de l'autre.

  • Des propos pas toujours bien reçus
    Carr déclare que la capacité à la pensée profonde et à la concentration n'est pas l'état naturel de l'être humain, mais plutôt une anomalie née avec l'imprimerie. L'internet, toujours selon Carr, ramène donc l'être humain à son état naturel, ce qui est une régression par rapport à l'état avancé atteint il y a quelques siècles. Bien entendu, ces propos, même plus ou moins couverts par des sommités de la neuroscience, ont soulevé un tollé parmi les utilisateurs d'Internet. Nombreux sont ceux qui, citant l'auteur lui-même, rappellent que Socrate, le prestigieux philosophe du cinquième siècle avant notre ère, se lamentait de l'émergence de l'écriture, censée ruiner l'esprit. La question, on le voit, ne date pas d'hier. Certains diront même qu'elle est mieux traitée ailleurs. Certains lecteurs disent en effet que puisque Carr ne lit plus, il lui a échappé que d'autres livres traitaient du même sujet, et mieux que lui.

  • Pour aller plus loin
    Au cas où, la traduction française de l'article de 2007 de Carr est ici (page du blog la main ouverte). On peut la voir comme une introduction à l'essai de 2010. Ce dernier va bien évidemment plus loin, mais il est aussi plus romanesque, surtout sur la fin, se laissant parfois aller sur le thème "l'homme devient une machine", cher aux auteurs de science-fiction. Carr ne propose de plus aucun moyen de conserver les aptitudes intellectuelles actuelles, tout en conservant l'usage d'Internet (et de la technologie au sens large). C'est dommage mais il ne faut pas oublier qu'il est un journaliste, pas un chercheur en neuro-sciences. Pour quiconque s'intéresse aux liens entre société et technologie (car il est question de l'Internet en particulier, mais sous nombre de ses phrases, l'auteur parle en fait des technologies de l'information au sens large), cet essai reste une valeur sûre. Peut-être les conclusions de l'auteur ne vous convaincront-elles pas, mais les questions soulevées gardent leur intérêt et le garderont encore un moment, a priori.

Sources :
[FR] Billet de bruit et chuchotement
[FR] Billet de l'homo interneticus
[US] Billet de NPR
[US] Billet de The Frontal Cortex
[US] Présentation de The Shallows
[FR] Extraits du numéro spécial de Books mag

Qu'indexeront demain nos moteurs de recherche ?

Avec le développement du web, les moteurs de recherche et les réseaux sociaux occupent de plus en plus une place importante dans nos accès à l'information et au savoir.

Dans son dernier article publié dans "Documentaliste, sciences de l’information", Ertzscheid Olivier (maître de conférence et auteur du blog "Affordance") s'interroge sur les capacités des moteurs de recherche et des réseaux sociaux à indexer des informations qui relèvent de nos "sphères publiques", "privées", et "intimes".

Il observe des changements qui modifient considérablement le monde de la recherche sur le web:

Sur les métadonnées: Les moteurs de recherche et les réseaux sociaux traitent n'importe quelles données comme des métadonnées. Ces données peuvent être des "clics", des "requêtes", des "comportements connectés".

Le web invisible l'est de moins en moins: Après le world "wide" web ( toile mondiale qui indexe des contenus en masse), vint le world "live" web, un web instantané qui donne accès à l'information en temps réel aux dernières informations publiées. Cela s'explique par le fait que les moteurs de recherche et les réseaux sociaux confondent les sphères de publications publiques (notre métier par exemple), intimes (nos préférences politiques, sexuelles ou religieuses), et privées (nos relations, nos amis).

L'arrivé des systèmes de recommandations: les moteurs de recherche et les réseaux sociaux fonctionnent désormais comme des prescripteurs (ils influencent le choix sur des produits). Par exemple le bouton "like" de Facebook ou le bouton "+1" de Google.
Ces systèmes de recommandation se multiplient de plus en plus et viennent à concurrencer et même remplacer petit à petit les liens hypertextes et suscitent de nouveaux usages.

Développement d'une nouvelle forme d'indexation: après l'indexation des images, des photos, des liens hypertextes, etc. Il faut désormais indexer en prenant en compte les effets de "buzz" que produisent les "boutons pressoirs" (par exemple de Facebook ou Twitter sur le site de Youtube), afin d' assurer une bonne circulation de l'information.



Sources:

Ertzscheid Olivier, "Méthodes, techniques et outils. Qu’y aura-t-il demain sous nos moteurs ?" in Documentaliste, sciences de l’information. Vol. 48, n°3, Octobre 2011, pp. 10-11.
En ligne


Pour en savoir plus:

vendredi 4 novembre 2011

Un nouveau « sésame » pour Gallica.

Gallica , la bibliothèque numérique de la Bibliothèque Nationale de France , permet à ce jour l'accès gratuit en ligne à plus d'un million et demi de documents numérisés parmi lesquels pas moins de 303 835 livres, 32838 cartes, 13 720 manuscrits , 375031 images , 819 250 fascicules de presse et revues , 5806 partitions et 1748 enregistrements sonores. Ce fonds, qui ne cesse de s'enrichir, est constitué en grande partie de collections libres de droit auxquelles viennent s'ajouter des collections de partenaires publics de la BnF ainsi que des collections de documents sous droits, proposées par des partenaires commerciaux. Avec une offre aussi riche, Gallica constitue une véritable caverne d'Ali Baba qui recèle des trésors d'informations dans les domaines les plus variés et qui ravit la curiosité intellectuelle et culturelle de nombreux publics.

Dans le souci de faciliter l'accès des utilisateurs à toutes ces ressources , la BnF a décidé de doter sa bibliothèque numérique d'un nouveau moteur de recherche. L'heureux élu, déjà adopté par des sites institutionnels tels que l'Ina et le CNRS , est le moteur d'indexation et de recherche sémantique CloudView d'Exalead , un « sésame » qui permettra aux utilisateurs de naviguer plus facilement dans Gallica , d'en explorer de façon pertinente toutes les richesses et d'optimiser les résultats de leurs requêtes. Arnaud Beaufort, directeur des services et des réseaux à la BnF, annonce ce changement pour la fin de l'année.

Les fonctionnalités sémantiques de CloudView vont permettre entre autres une analyse de fond de tous les documents contenus dans Gallica , et de révéler les liens sémantiques qui les relient. L'utilisateur se verra ainsi proposer en recherchant ou consultant un document donné, d'autres documents au contenu sémantique proche. Comme le souligne Arnaud Beaufort, cette fonctionnalité « offre la possibilité d’une navigation transverse dans Gallica » et donc une exploration plus "fouillée" de ses collections. Par ailleurs, les liens sémantiques analysés par CloudView seront visibles depuis des moteurs de recherches externes. Ce qui aura pour conséquence d'accroitre la visibilité des contenus de Gallica sur le web et de susciter la curiosité de nouveaux utilisateurs.

Sources :

http://cblog.culture.fr/2011/05/11/un-nouveau-moteur-de-recherche-pour-gallica-la-bibliotheque-numerique-de-la-bnf

http://www.bnf.fr/fr/collections_et_services/bibliotheques_numeriques_gallica/a.gallica_bibliotheque_numerique_bnf.html

Liens :

http://gallica.bnf.fr/
http://fr.exalead.com/software/products/cloudview/





jeudi 3 novembre 2011

Quand l'information structure le développement durable.

Comment l'information façonne le mouvement du "développement durable", comment à travers ce concept un nouveau système mondial de gestion de l'information se construit, ouvrant des perspectives, immédiatement concevables, pour les professionnels de l'info-doc.

C'est ce que nous montre Amal Habib et Claude Baltz dans «Quelle information pour piloter le développement durable ? »

La collecte, le traitement et la diffusion du savoir apparaissent comme les outils piliers du développement durable dans un contexte où la maîtrise de l'information conditionne la plupart des activités humaines . Les auteurs signalent que dans l'Agenda 21 _programme d’action international pour le XXIe siècle définissant les principes du développement durable_ la place de l'information est clairement établie au coeur des textes., en définissant la variété de ses aspects, ses acteurs et ses contributions possibles .

Pour le développement durable le besoin d'information se pose partout.

"L'enjeu : fournir à la population les données sur l'environnement, sur les ressources et sur le développement à tous les niveaux dans toutes les formes compréhensibles".


Aussi, l'information en tant qu'outil de prise de décision sera indispensable dans tous les thèmes abordés par le domaine : données démographiques, sociales, économiques, permettront d'élaborer des indicateurs nécessaires au développement d'un monde plus durable. Multiplicité des thèmes, multi-dimentionnalité, autant de nouvelles pratiques de gestion de l'information, autant de stratégies à élaborer : permettre la promotion de l'utilisation globale des indicateurs du développement durable , améliorer la collecte des données, les méthodes d'évaluation et d'analyse, suivre et maintenir cette information fiabilisée, promouvoir l'éducation, la formation et de l'information publique, créer de nouvelles modalités de partenariat, des transferts de technologies tous azimut. Le concept de développement durable déclenche une véritable révolution de la culture informationnelle basée sur le dialogue, le partenariat, le "capacity building ", s'ouvrant d'avantage sur le capital humain."

L'article de 2008 reste complètement d'actualité.


source : Amal Habib et Claude Baltz « Quelle information pour piloter le développement durable ? », Documentaliste-Sciences de l'Information 1/2008 (Vol. 45), p. 4-13.
URL : www.cairn.info/revue-documentaliste-sciences-de-l-information-2008-1-page-4.htm. DOI : 10.3917/docsi.451.0004. Petite bibliographie : Amal Habib.Participation de l’information et des technologies de l’information dans le développement durable : cas du Liban. Thèse de doctorat, Université Paris-8, 2006. 409 p. Olivier Gayteet al. Conception des systèmes d’information sur l’environnement. Paris : Hermès, 1997. 152 p.


Nicolai Denisov, Leiv Christoffersen : impact of environnemental information on decision-making processes and the environmentArendal.2000


Institut Français de l'environnement Indicateurs de développement durable Juillet 2007









jeudi 27 octobre 2011

Google Panda : algorithme d'une domination pertinente

Dans le souci majeur et permanent de maintenir sa position d'acteur dominant du secteur, Google a effectué une nouvelle mise à jour de de l'algorithme de son moteur de recherche. Introduite le 24 février 2011 sur le sol américain, cette mise à jour s'étend au monde entier au cours de l'année 2011 et impacte la France le 12 août dernier.
Panda est le nom de code officiel de cette modification d'algorithme qui chamboule la sphère SEO.

Depuis Caffeine en 2009, qui améliorait la rapidité de l'indexation, Google avait malheureusement crawlé et indexé une grande quantité de spams et de pages non pertinentes. Les techniques de cloaking, de spamdexing, de spamming et de web scrapping parasitaient la qualité des recherches. Mais surtout depuis 2010, la nuée de fermes de contenu polluaient les demandes de résultats.
Ces fermes de contenus sont des sites éditoriaux créés et développés spécifiquement pour générer des revenus publicitaires. Basés sur les statistiques des requêtes sur les moteurs de recherche, des rédacteurs payés au lance pierre écrivent au lance pierre, des articles courts et à la qualité discutable. Leader mondial et inventeur de ce nouveau modèle économique, Demand Média se vante de posséder une base de 3 millions d'articles et 13 000 rédacteurs.
Au début de l'année 2011, Demand Media était valorisé à 1,45 milliard de dollars par les marchés financiers...

Fin 2010, Matt Cutts, responsable de Google Webspam et bloggeur très suivi par la communauté SEO, laissait entendre que la lutte contre le spam sera la cause prioritaire de Google en 2011. Dont acte.
Amit Singhal, responsable du département Search Quality à Google, explique sur le blog officiel de la firme de Montain View : "Au cours des derniers mois, nous avons apporté de nombreuses modifications à nos algorithmes afin de mettre en valeur les sites de haute qualité dans les résultats de recherche Google."
Panda juge la qualité d'un site, entre autre critères, par la proportion de pub sur le site, le temps passé par l'internaute, la fréquence de partage du contenu sur les médias sociaux.
Stupeur et tremblements chez les webmasters de fermes de contenus et les ingénieurs SEO friands de techniques de référencement Black Hat !
Depuis le passage de Panda, les fermes de contenus dégringolent dans le Page Rank de Google, mais aussi d'une manière générale les annuaires de commerce, les comparateurs de prix, les sites d'avis de consommateurs, les agrégateurs d'annonces, ainsi que les sites d'annonces. Panda jette aux oubliettes les sites à faible contenu original et/ou de faible qualité. Bingo !
Il fallait remonter à 2003 (Mise à jour Florida) pour trouver un changement aussi profond dans les pages de résultats de Google.

Cependant si Panda a pour but la pertinence des recherches sur le World Wide Web, il améliore par ricochet la visibilité des produits Google... Ainsi YouTube (propriété de Google) a grimpé au page ranking, tout comme Daily Motion son concurrent. Mais Google Products, comparateur de prix, profite de la disparition de ses principaux concurrents. Voilà qui pourrait alerter la Commission Européenne en charge d'une enquête contre Google sur un possible abus de manipulation des résultats naturels obtenus par un utilisateur.
En attendant les conclusions de cette enquête, qui pourrait accoucher d'une souris, Panda marque la volonté de Google de rester maître sur ce qui a construit son succès et sa réputation : rendre toujours plus pertinentes les recherches de ses utilisateurs.
Récemment, Matt Cutts annonçait sur son compte Twitter de nouvelles améliorations de l'algorithme Panda. Le monde du SEO reste en alerte !

Bibliographie :
Parts de marché de Google aux Etats Unis. Septembre 2011.
http://www.comscore.com/Press_Events/Press_Releases/2011/10/comScore_Releases_September_2011_U.S._Search_Engine_Rankings

Parts de marché de Google en Europe.
http://www.atinternet.com/Ressources/Etudes/Barometre-des-moteurs/Barometre-des-moteurs-Septembre-2011/index-1-1-6-249.aspx

Google Panda/Farmer : la chasse aux spams est lancée. Guillaume Thavaud. La Lettre Recherche et Référencement n° 125. avril 2011

Les chiffres clés de Demand Media. Le journal du Net. Baptiste Rubat du Mérac, 27/01/2011.
http://www.journaldunet.com/ebusiness/le-net/chiffres-cles-de-demand-media.shtml

High quality sites algorithm launched in additionnal langages. Amit Singhal. Google Webmaster Central Blog. 12/08/2011.
http://googlewebmastercentral.blogspot.com/2011/08/high-quality-sites-algorithm-launched.html

More guidance on building high-quality sites. Amit Singhal. Google Webmaster Central Blog. 06/05/2011.
http://googlewebmastercentral.blogspot.com/2011/05/more-guidance-on-building-high-quality.html

Google Panda : mais que se passe t-il en France depuis quelques semaines. Guillaume Thavaud. La Lettre Recherche et Référencement n°127. juin 2011

Panda : analyse et effets de la mise à jour au RU. Philippe Yonet et Jérôme Spiral. La Lettre Recherche et Référencement n° 126, mai 2011.

La Commission européenne poursuit l'enquête ouverte sur les pratiques commerciales de Google. Alexandre Diehl, Avocat à la Cour, La Lettre Recherche et Référencement N°122. janvier 2011

Une société peut-elle attaquer Google en justice suite à un déclassement de son site par Panda ? Alexandre Dhiel, avocat à la cour, Recherche et referencement n° 129, septembre 2011.