mardi 31 mai 2011

Perspectives de l'e-G8


Perspectives électroniques du G8

Une réunion voulue.

Ce billet fait un bilan du sommet sur le plan de l'internet. En effet à côté du G8,
s'est tenu l'e-G8.Cette réunion voulue par le président français visait à combler le
fossé entre les peuples et les dirigeants.
Dans son mot d'accueil au forum e-G8, le président de la République a réaffirmé
son attachement aux valeurs des Lumières et fait d'internet leur successeur. Il a
insisté sur la promotion de la liberté d'expression permise grâce à internet.

Des enjeux de politique intérieure.

C'est en effet un enjeu politique pour tout chef de l'Etat de prouver sa
compréhension des enjeux du virtuel. L'entrepreneur comme base électorale
semble se substituer à l'agriculteur.Plus largement à l'e-G8 c'est la société civile
qui était invitée avec l'idée d'influer sur le G8. Cette attention visait à
contrebalancer les critiques portant sur le manque de démocratie de la
mondialisation.
Mais le discours présidentiel va plus loin pour rassembler technologies et écologie
autour de l'éco-système. Il souligne aussi le poids des échanges de 8000 milliards
d'euros chaque année. C'est la dématérialisation dont il souligne le poids.

Des résultats décevants.

La fin du sommet, mercredi 25 mai, n'a pas satisfait toutes les attentes. Ainsi
l'harmonisation fiscale n'a pas progressé alors qu'elle est essentielle pour les
européens au niveau politique et pour les entrepreneurs au niveau économique.
Or, la déclaration finale du G8 encourage les Etats à légiférer alors que les
participants à e-G8 souhaitaient des législations plus légères.
Ce qui est central, c'est la gouvernance de l'internet.
Quelle place a accorder à l'internaute dans la répartition des pouvoirs entre sphère publique et sphère privé?


Open Jukebox

L'utilisation des données publiques agite la place et fait grand débat. Qu'on pense aux enjeux soulevés (économiques, dans un premier temps) ou aux dérives à encadrer (par exemple pour la réutilisation des données personnelles), il y a, en effet, bien du travail. Pourtant, quel formidable potentiel!

Et la culture alors?

En France, la difficile articulation du droit d'auteur avec la loi de réutilisation des informations publiques (Loi n°78-753 du 17 juillet 1978, article 11) laisse les données culturelles à part. Pas tout à fait comme les autres, mais pas complètement exceptionnelles, elles doivent rester réutilisables pour ce qu'elles ont de meilleur à offrir et auquel chacun a droit, dans le respect de la propriété intellectuelle et des données personnelles qu'elles peuvent contenir... Plus facile à dire qu'à faire: entre imbroglio, vide juridique et latitude d'interprétation des textes, la route est large et la destination incertaine.

Dans ces moments de découragement, il peut être réconfortant de jeter un oeil (et une oreille) chez les autres. Car oui, certains arrivent à tirer le meilleur des possibilités de l'"open data" pour la diffusion de leur patrimoine culturel.
Plusieurs initiatives ont vu le jour, de la Grande Bretagne (3 millions de notices bibliographiques de la British Library disponibles en licence CCO -"no rights reserved" en licence Creative Commons) à l'Australie (participation des bibliothèques et archives au portail national de données publiques australien, www.data.gov.au), en passant par les Etats-Unis.

Un monde, une époque, à découvrir en quelques clics


La Library of Congress (Washington, USA) vient de partager gratuitement, avec l'aide de Sony music, la "Largest Collection of Historical Recordings Ever Made Publically Available Online". Plus de 10.000 titres datant de 1901 à 1925 (produits, entre autres, par Columbia Records, OKeh, et Victor Talking Machine Co.) et appartenant à plusieurs genres (musique populaire, musique pour danser, opera, early jazz, discours célèbres, poésie et humour) sont à écouter en ligne sur le National Jukebox (www.loc.gov/jukebox/).

Les oeuvres sont sous une licence spécifique qui donne à la LOC le droit de les rendre accessibles gratuitement (en streaming); Sony, propriétaire des labels utilisés, se réserve la possibilité de retirer certains titres dans l'avenir pour en faire une utilisation commerciale.
Bien sûr, on peut penser que ces 10.000 titres disponibles sur les 3 millions que contient le fonds d'enregistrements sonores de la LOB ne sont qu'une goutte d'eau dans un océan. Bien sûr, il faudra voir si le succès des premiers jours se maintient (248.000 titres écoutés en moins de 48 heures selon le Los Angeles Times du 12 mai 2011). Peut-être que ce succès est tout relatif.

L'espoir qu'il donne, lui, est bien réel, et parfois il n'en faut pas plus pour se remettre au travail et envisager vraiment de résoudre les problèmes. Parfois.



SOURCES:

- Données publiques, données personnelles, données culturelles:

Et si la culture s'ouvrait à l'open data?, Calimaq, 25-05-11
http://owni.fr/2011/05/25/et-si-la-culture-souvrait-a-lopendata/

Réutiliser les données des archives publiques, un droit gazeux, Michèle Battisti, Paralipomènes, 20-03-11
http://paralipomenes.net/wordpress/archives/4110

L'ouverture des informations publiques : un enjeu pour le développement de l'économie numérique, 20-05-10
(Dans le cadre du cycle de séminaires organisé par le GFII "Economie numérique : le nouveau partage de la valeur")
http://www.gfii.asso.fr/fr/document/l-ouverture-des-informations-publiques-un-enjeu-pour-le-developpement-de-l-economie-numerique?symfony=nv3j3dc2rkfbh4kpsvn0v379c4

- National Jukebox:

La bibliothèque du Congrès ouvre un jukebox patrimonial, Christelle Di Pietro, ENSSIB, 13-05-11
http://www.enssib.fr/breves/2011/05/13/la-bibliotheque-du-congres-ouvre-un-jukebox-patrimonial

National Jukebox website logs 1 million page views, 250,000 streams in under 48 hours, LA Times, 12-05-11
http://latimesblogs.latimes.com/music_blog/2011/05/national-jukebox-library-congress-sony-music-1.html

News from the Library of Congress, 10-05-11
http://www.loc.gov/today/pr/2011/11-087.html

mardi 24 mai 2011

eG8 Paris, capitale de l'internet ! du mardi 24 - mercredi 25 mai 2011

A la veille de l'année 2012, année butoir pour l'objectif du "Tout Numérique" en France (Rapport Besson), Paris devient terre d'accueil pour deux jours du Tout Internet à deux pas du Palais du Louvre, au coeur du Jardin des Tuileries ! Voulu par le Président de la République française, cette grande messe réunissant les grands noms de l'Internet mondial, est destinée à nourrir les réflexions sur Internet des Etats du G8, qui doivent se réunir quelques jours plus tard à Deauville (27-28 mai). Court délai pour assimiler autant d'informations et d'idées (de qualité n'en doutons pas !) mais nous faisons confiance aux grands de ce monde pour n'en retenir que le meilleur !

En effet, le thème est vaste s'il s'agit d'aborder tous les domaines touchés par le phénomène Internet : impact sur la croissance, éducation, propriété intellectuelle, 'innovation, mobilité, liberté d'expression, fiscalité, développement des infrastructures de réseaux, droit des individus, droits de reproduction des oeuvres... cette liste ne peut prétendre à l'exhaustivité.

La question comment réguler et surtout contrôler Internet à l'heure où chaque internaute a la possibilité de créer son propre espace et de s'exprimer sans connaître forcément les règles de droit à respecter : droit des individus, de la propriété intellectuelle ... Toutes ces règles qui ont été établies bien avant la création et la diffusion d'Internet mais qui ne sont pas appliquées de la même façon partout dans le monde... Contrôler certes mais ne bridons pas non plus la créativité et le partage, des notions positives qui se dégagent également.

Donc la question peut-on réellement encore contrôler Internet ?

Beaucoup d'enjeux économiques également autour d'Internet puisque pour citer le Président de la République :
"En quelques années, vous avez bouleversé les fondements même de l'économie mondiale dont vous êtes devenus des acteurs majeurs. Aujourd'hui ce sont plus de 8000 milliards d'euros qui sont échangés en une année par le biais du e-commerce.
La contribution de ce fantastique outil technologique qui balbutiait encore il y a dix ans à peine pèse aujourd'hui près de 3% du PIB mondial. Soit un poids supérieur à celui de l'agriculture ou de l'énergie. Sa contribution à la croissance mondiale serait même aujourd'hui de 20%."

Beaucoup de questions et d'enjeux auxquels il semble difficile de répondre en seulement quatre jours !


Tout savoir sur l'eG8
http://www.eg8forum.com/fr/

Retrouvez le discours du Président de la République :
Ressources (non exhaustives)
http://www.lefigaro.fr/hightech/2011/05/24/01007-20110524ARTFIG00445-internet-un-poids-croissant-dans-l-economie.php
http://lexpansion.lexpress.fr/high-tech/ce-qu-il-faut-savoir-sur-l-eg8_255965.html?p=2

I-Expo : un salon plein de ressources !

L'édition 2011 du salon I-Expo s'est déroulé au ViParis à la Porte de Versailles les 18 et 19 mai dernier.

Ce salon, dédié aux professionnels de l'information, a fait le point sur les "i" !

Avec plus de 130 exposants les sujets portaient sur l'Information numérique, l'Innovation, l'Intelligence individuelle et collective...

De nombreux ateliers (payants malheureusement) proposaient des retours d'expériences très riches, notamment dans le domaine des archives et de la gestion des connaissances, les pratiques de veille en entreprise ou encore sur l'ouverture des données publiques dans les collectivités locales.

Heureusement les conférences plénières était en accès libre et là encore, les constats et retours d'expériences ont été forts ! Quelques exemples de sujets, tout aussi intéressants les uns que les autres : Mobilité du grand public vers l'entreprise ; Confidentiel entreprise : quelles protections pour les informations stratégiques ? ou encore Réseaux sociaux : quels enjeux pour les services d'information dans les organisation ?

Bien sûr, il était possible de se rendre sur les stands en rapport avec nos projets personnels et un panel très diversifié de professionnels s'offrait à nous :
- Editeurs de presse économiques, professionnelles et spécialisées (Documentaliste : SI, Archimag ; l'Informaticien, Stratégies, Le Moci, l'OCDE, ....),
- Editeurs de BDD (Kompass, Cairn Info, ...) ;
- Editeurs de solutions des gestions et/ou d'accès à l'information et de systèmes de veille (Ixxo, Digimind, Ami software....).

Etaient présents également des associations et organismes de renom comme le GFII, l'ADBS, le CNRS, l'INPI, l'ADIJ, Questel, sans oublier les écoles spécialisées dans notre secteur.

Tous les sujets y étaient : communication marketing, document numérique, gestion des connaissances, informations juridiques, économiques et financières, les sciences et techniques, l'intelligence économique et la veille, les réseaux sociaux, la valorisation et le management de l'information...

Pour tous ceux qui n'ont pas pu venir, allez vite sur le site de I-Expo !
Vous pourrez vous y procurer les coordonnées de tous les professionnels présents. et prochainement un certain nombre d'interventions seront mises également en ligne.

Un beau petit trésor de contacts et d'informations pratiques à ne pas rater en attendant le prochain salon !

http://www.i-expo.net/fr/

lundi 23 mai 2011

« Les archives ouvertes en 2011 », journée d’études organisée par l’ADBS

Quelques rappels pour comprendre les enjeux

« Le terme archive ouverte désigne un réservoir où sont déposées des données issues de la recherche scientifique et de l’enseignement et dont l’accès se veut ouvert, c’est-à-dire sans barrière. Cette ouverture est rendue possible par l’utilisation de protocoles communs qui facilitent l’accessibilité de contenus provenant de plusieurs entrepôts maintenus par différents fournisseurs de données.

Une archive institutionnelle relève d’une institution (université, grande école, organisme de recherche, association professionnelle) et a pour objectif de contenir, valoriser et conserver l’ensemble de la production scientifique de celle-ci.

Un entrepôt OAI est une base de données, constituée par un fournisseur de données, qui supporte le protocole OAI-PMH. Cet entrepôt contient des métadonnées qui sont disponibles dans différents formats afin de répondre à différents types de demandes. » [1]

L’importance de ces archives est liée aussi à l’évaluation des équipes de chercheurs. Parmi les indicateurs bibliométriques « le facteur H » est l’indice permettant d’évaluer le chercheur : il est corrélé à la quantité d’articles produits ainsi que la qualité (nombre de citations). Publier, être vu, être lu le plus possible est devenu impératif pour la notoriété et le classement.

L’AERES (Agence d’évaluation de la Recherche et de l’Enseignement Supérieur), créée en 2007, est une Autorité administrative indépendante. Elle est chargée de l’évaluation des établissements d'enseignement supérieur et de recherche, des organismes de recherche et de leurs unités, des formations et diplômes d’enseignement supérieur, ainsi que de la validation des procédures d’évaluation de leurs personnels.

Le CCSD (Centre pour la Communication Scientifique Directe) est une unité du CNRS dédiée à la réalisation d’archives ouvertes.

« Présentation de la politique INRA de dépôt dans l’archive ouverte Prod’INRA ».
L’INRA est un EPST (Etablissement Public à caractère Scientifique et Technique) qui disposait, bien avant la création de l’archive ouverte pluridisciplinaire HAL de sa propre archive institutionnelle ProdINRA. La création de ProdINRA2 (prévue pour 2012) doit faciliter le dépôt des travaux par les chercheurs, mettre en place un nouveau Workflow, faciliter la réutilisation des données et permettra des statistiques sur la production scientifique de l’INRA. Pour s’assurer de la complétude des archives, les incitations à déposer (tous les travaux, sauf les articles) passent par les départements. La dissémination des données entreposées est prévue vers des portails (HAL entre autres), mais aussi vers d’autres archives ouvertes nationales et internationales par moissonnage OAI.

« L’archive ouverte institutionnelle CemOA, un dispositif original » concerne l’archive du CEMAGREF. Pour cet établissement, le dépôt est obligatoire pour tout ce qui est produit, l’évaluation portant uniquement sur ces dépôts, l’incitation est forte. Le dépôt par les chercheurs est très simplifié ; ce sont les documentalistes qui rajoutent et complètent les champs spécifiques pour l’archive HAL et traitent le document. La dissémination se fait par moissonnage OIA vers des portails partenaires.
De nombreux services sont proposés aux chercheurs et aux animateurs scientifiques pour les aider à connaitre leurs positionnement, à publier dans des revues hors de leurs champs habituels de publication, les accompagner dans leurs rapports avec les éditeurs…

« Le projet PETALE : les thèses et les mémoires des universités de Lorraine en ligne » avait pour objectif de valoriser la production scientifique des universités de Lorraine, sous forme numérique, en offrant un point d’accès unique dans le cadre de la fusion en cours de 4 universités. Les objectifs en étaient la valorisation des travaux, la diffusion en open access, le recensement en vue d’évaluations par l’AERES. Après une analyse de l’existant (pratiques heureusement homogènes dans les différentes universités), le travail a porté sur la définition d’un workflow unique et simple, les métadonnées et le choix de l’outil de référencement ORI-OAI. Les anciennes thèses ont été numérisées, ce qui n’a pas été sans problèmes quant à l’aspect juridique : les thèses dont les auteurs n’ont pas été retrouvés sont diffusées uniquement sur l’Intranet. Au-delà des thèses de doctorat, ce sont les thèses d’exercice et les mémoires qui sont visés par ce projet de création d’archive ouverte connectée à HAL.

Le retour d’expérience avec « Les corrections des métadonnées dans l’archive ouverte de l’INRIA » a nuancé l’enthousiasme dont pouvaient être porteurs ces grands projets d’archives ouvertes. Les ressources doivent être propres et fiables. Le travail de recherche de doublons et d’élimination de données incohérentes dans l’archive ouverte se fait par l’intermédiaire d’un outil spécifique : HALTOOLS. La question qui se pose lors des corrections est la suivante : quand doit-on s’arrêter ? Ce travail profite certes à toute la communauté, mais il suffit qu’une personne ne remplisse pas correctement l’un des champs de référencement au moment du dépôt pour créer un doublon. Un travail de sensibilisation est mené dans les services pour tenter de limiter ces incohérences dont la correction est chronophage et qui nuisent à la visibilité du travail des chercheurs.

"Le projet HELOISE : un accord éditeurs/CCSD pour connaitre la politique des éditeurs francophones en matière de dépôt dans les archives ouvertes." Un groupe de travail du GFII créé en septembre 2007 consacré au libre accès réunit des représentants d’instituts de recherche, des éditeurs scientifiques, des représentants de l’Open Access. Plus que la politique des éditeurs, c’est la politique par matières ou par revue qui définit la politique d’embargo des éditeurs sur les écrits, avant le libre accès. Bientôt en ligne sur le portail du CCSD, le système Héloïse permettra de définir les droits de diffusion des revues sur différents supports (archives ouvertes, sites personnels, intranet).

"Le point sur des initiatives internationales" a permis de découvrir :
  • · Les archives ouvertes internationales E-LIS soutenues par Le CIEPI concernent le domaine des sciences de l’information documentation.
  • · VOA3R , projet européen concernant les bibliothèques numériques en accès ouvert dans le domaine de l’agriculture et de l’aquaculture.
  • · OpenAIRE , autre projet européen dont le but est d’accompagner l’obligation de dépôt en accès libre en application des décisions de la Commission Européenne et du Conseil Européen de la Recherche (ERC).

Conclusions, toutes personnelles
L’accès facilité aux archives ouvertes, dans un contexte de restrictions budgétaires semble délicat.
Les problèmes à résoudre sont de nature techniques (référentiels, propreté et fiabilité, choix des métadonnées, complétude des archives, interopérabilité..), humains (réduction des équipes infodoc, formation au dépôt par les auteurs, services...), économiques (place de l’Open Access par rapport aux éditeurs...).
Dans le même temps, ces projets passionnants sont soutenus par des acteurs institutionnels et portés par des professionnels très volontaires et enthousiastes.

G.Lu

Les diapositives ayant servi de supports aux différentes conférences seront très prochainement sur le site de l’ADBS, à la rubrique « Se former et s’informer / manifestations ADBS

Quelques signets








[1] Définitions d'après le site «Libre accès à l’information scientifique et technique » http://openaccess.inist.fr/spip.php?page=glossaire consulté le 22 mai 2010.

La réu­ti­li­sa­tion des don­nées publi­ques : quels défis pour les archi­ves ?

Une journée de débat organisée le 11 mars dernier par AAF Association des Archivistes Français.

L'origine de cette journée de débat est triple : 
la loi du du 17 juillet 1978 concernant le droit d'accès à l'information permet à toute personne d'obtenir l'accès aux informations créées dans le cadre d'une mission de service public, adapté à la directive 2003/98/CE du parlement européen et du Conseil du 14 novembre 2003 relative à l'utilisation des informations du secteur public et complétée en droit français par l'ordonnance 2005/650 du 6 juin 2005 et par le décret n° 2005/1755 du 30 décembre 2005. 
Elle stipule que : “Les informations publiques, non nominatives, provenant d'organismes publics ou d'entreprises privées exploitant un service public doivent pouvoir être rendues accessibles et réutilisées à des fins commerciales ou non, d'une manière non discriminatoire et non exclusive, et à des coûts qui n'excèdent pas leur coût de production.” Mais les archives publiques bénéficiaient d'un régime dérogatoire, article 11 de la loi du 17 juillet 1978.
une société commerciale de généalogie a approché de manière individuelle et systématique toutes les archives départementales pour récupérer les documents numérisés en leur possession en vue de les indexer et de les mettre en ligne sur un site payant. Ce qui donna lieu à une lettre ouverte de l'AAF sur les risques pour les libertés individuelles de la création d'un fichier nationale de données sensibles obligeant la CADA et la CNIL à plancher sur le problème.
Enfin la parution du rapport "partageons notre patrimoine" commandé par le ministère de la Culture à Bruno Ory-Lavollé fini de mettre au coeur du débat la problématique de la mise à disposition des données publique ste de leur utilisations à des fins commerciales au non.

La journée du 11 mars 2011 a mis en présence plusieurs acteurs autour de deux thèmes :

Enjeux sociaux et économiques :
réutilisation des données publiques, Quelles relations entre secteur public, secteur privé et « tiers secteur » ?
Enjeux éthiques et juridiques :
La question des données personnelles, Quelle politique de valorisation dans un environnement numérique ?

De l'avis général il n'est pas question d'interdire la réutilisation des données mais cela ne soit pas se faire sans cadre et donc construire des règlements et des licences, sans perdre de vue que le réutilisation est par définition à d'autres fins que celles pour lesquelles le documents a été produit à l'origine. Cette réutilisation est aussi l'opportunité pour les d'une visibilité et d'une valorisation forte pour les centre d'archives au delà de leurs propres sites.

Cette journée a été aussi l'occasion de mettre en valeur des initiatives :
Celle de le ville de Rennes qui a mis en ligne toutes ses données publiques et lancer un concours de développement de services et d'applications qui a donné naissance à http://www.handimap.org/index.html générateur d'itinéraire pour personnes en situation de handicap.
Celle des archives départementales du Cantal qui propose aux internaute sans identification préalable de participer a une folksonomie et reçoit ainsi 600 à 700 indexations collaboratives par jour. ce centre d'archives a reçu pour cette innovation le prix Territoria d'or 2010, catégorie valorisation du patrimoine.

Cette journée a mis en évidence que les centre d'archives ne pouvait faire l'économie d'une présence forte sur la toile y compris avec l'aide d'acteurs privés mais que dans la phase actuelle il est important pour soulager les tensions de trouver un nouveau partage des responsabilités juridiques, des risques et une réflexion autour de la créativité.

Dans la même problématique nous suivrons avec intérêt le blog


mercredi 18 mai 2011

La cybercriminalité , un problème universel

Le vol de données sur internet concerne autant les individus que les entreprises. Cela inclut non seulement la question de la protection des données personnelles mais aussi, au niveau des entreprises, la question de la protection des données professionnelles. Le cas de Sony illustre bien cette double problématique. La société japonaise a subi mi-avril et début mai une double attaque de pirates informatiques. Ses réseaux Playstation Network (PSN) et Sony Online Entertainment sont alors touchés. Le vols de données concerne plus de cent millions de joueurs. Dans le détail, il s'agit de mots de passe, de coordonnées bancaires et de coordonnées de carte de paiement.
Ainsi, cet événements jette le discrédit sur la société japonaise et modifie la position des entreprises sur l'utilisation du cloud computing. Les projets de migration des données dans les sociétés tendent à se ralentir.
Plus généralement, les entreprises font appel à des spécialistes de la fraude sur internet pour "nettoyer" leurs réseaux. Nombre de sociétés se sont spécialisées dans le domaines de la cybersécurité. Sony a ainsi fait appel à Data Forte, un cabinet dirigé par un ancien de la NCIS, et à des enquêteurs spécialisés dans la cybercriminialité.
Dans un article du Figaro du 4 mai 2011, Laurence Ifrah, cybercriminologue fait le constat amer du "pillage" des données dans les entreprises françaises. Le vol d' informations se fait dans un moment clé. Lors des appels d'offre, la concurrence met en place des dispositifs pour capter les innovations. Laurence Ifrah parle de "transfert" de technologie à bas coût.

Cet article rappelle que le problème est avant tout humain et les fuites viennent souvent de l'intérieur. L'information dans les entreprises serait trop accessible dès lors le vol de données serait le résultat de différends humain. Selon l'entreprise de sécurité informatique Verizon, 20 % des vols sont causés par des salariés.

Les solutions technologiques ne font pas tout. Il faudrait réfléchir, en amont, à la diffusion des données personnelles ou professionnelles sur internet.


Finkle Jim, Baker Liana B., Les ennuis de Sony, un nuage dans le ciel du "cloud computing", Reuters, L'Usine Nouvelle, 9 mai 2011.
http://www.usinenouvelle.com/article/les-ennuis-de-sony-un-nuage-dans-le-ciel-du-cloud-computing.N151521

Finkle Jim, Baker Liana B., Après les cyberattaques, Sony recrute des enquêteurs extérieurs, Reuters, L'Usine Nouvelle, 4 mai 2011.
http://www.usinenouvelle.com/article/apres-les-cyberattaques-sony-recrute-des-enqueteurs-exterieurs.N151211

Gabizon Cécilia, Le Galès Yann, Les firmes françaises très vulnérables, Le Figaro, 4 mai 2011.
http://www.lefigaro.fr/actualite-france/2011/04/10/01016-20110410ARTFIG00210-les-firmes-francaises-tres-vulnerables.php

Bientôt du temps pour lire ! Mais quoi ?

Je l'ai attendu, il va venir : le temps de lire ce livre vers lequel j'exerce une attention flottante ! Serait-ce le "dernier Fred Vargas" ? J'ai lu un article à ce sujet... Peut-être.

Mais qu'est-ce que ça pourrait être d'autre ?

Direction Amazon.fr, livres, colonne de gauche "livres nos rubriques" thématiques, 6 grandes rubriques, je me lâche, je clique sur "Sciences, Techniques et Médecine", j'enchaîne sur "Sciences de l'information", mes chers.

Le texte de la quatrième de couverture est repris, l'auteur situé. La table des matières, la bibliographie, quelques pages sont numérisées. Je ne sais pas s'il en est de même pour tous les livres. Oui. Quelques titres surprenants à cet endroit, dont un ouvrage sur la technique de tricot !

Tout cela est bel et bon, mais je dois commander le livre, soit, et risquer d'attendre : qui n'a pas vécu la déception d'un livre tant attendu, mais dont le revendeur se dédouane de l'engagement de le fournir... Et vers qui alors se tourner ? Vers le mail, vers Amazon, qui se sent responsable en partie...

Je suis mauvaise langue, cela n'arrive jamais -ou presque, alors oublions-le. Et je me tiens informée des derniers titres publiés sur un thème, des nouveautés d'un éditeur. Le fameux "Kit du chef de projet" n'est pas le même que celui présenté par Nadia, je le trouve sur Eyrolles.fr.

Et si je me trouvais un bon e-book ? Le choix e-book par rubrique n'y est pas encore en ligne. Allez FNAC.fr me propose de consulter sa librairie de 80 000 titres numérisés.

Nous sommes dans un tournant historique : le 17 mai 2011 le Parlement a définitivement voté une loi qui prévoit une définition du livre numérique, et qui oblige "tout éditeur diffusant un livre numérique en France de fixer un prix de vente" modulable "en fonction du contenu, de l'accès et de l'usage de l'offre". Il est prévu que l'éditeur français fixe un prix valable pour les diffuseurs non seulement en France mais aussi à l'étranger.

BUT la Communauté européenne n'est pas tout à fait dans la même ligne que ce texte. En un mot le sujet du prix du livre numérique demeure un sujet.

Et quid des libraires ? Ces passionnés de lecture, dans nos quartiers, qui peuvent nous proposer un choix. Le tout est de trouver quelqu'un qui soit capable de capter nos intérêts. A Alfortville, la libraire est associée à une offre relationnelle : on s'y retrouve , on peut y prendre le thé le dimanche. Des ateliers sont animés au collège, en bonne intelligence avec la médiathèque...

En tout cas, on entend parler d'eux, le rapport Gallimard en 2007 prônait la création d'un label "librairie indépendante" en écho au label art et essais. Moyennement Optimiste.

Bien sûr je pense aussi aux librairies regroupées qui vendent sur le net les livres.

Bon. Je ne vais pas lire de roman pour le moment. J'ai envie de me plonger dans l'enjeu du livre numérique.

Sauf si j'entendais parler du livre essentiel...





mardi 17 mai 2011

Internet et la catégorisation sociale

Contrairement aux idées communément répandues, Internet est un univers structuré et non un magma d’informations.

Il a évolué au cours du temps et l’information y est organisée de manière sociale; c'est ce que l'on appelle la catégorisation communautaire qui s'est matérialisée par la cartographie depuis 2003-2005.

Plus récemment c'est le social bookmarking qui s'est immensément développé via les réseaux sociaux professionnels et personnels; ainsi l'internaute participe au classement non pas inconsciemment, mais de façon volontaire.

Les problèmes qui se posent sont :

  • la permanence de l'accès à l'information,
  • la redondance
  • les risques de cloisonnement
  • l'"e-reputation" des marqueurs.
(Cf l'article de Michel Remize, paru dans Archimag le 11/02/2011 suite à la présentation de Benoît Thieulin, dirigeant de la Netscouade, dans le cadre du colloque Mémoire et Savoir : internet et la catégorisation sociale.)
http://v2.archimag.com/article/colloque-m%C3%A9moire-et-savoir-internet-et-la-cat%C3%A9gorisation-sociale

Par ailleurs, Google indexe environ 1% de la production sur le web, ce qui est très peu.

Se pose également la question de la fiabilité des sources.

D'où l'utilité d'outils de veille plus performants si l'on veut couvrir un champ large et obtenir de l'information stratégique ou décisionnelle.





Traduction automatique : est-ce que ça marche ?

La traduction automatique sur Internet, est-ce que ça marche ? M’intéressant au sujet, j’ai fait quelques petits essais rapides sur trois sites qui proposent des moteurs gratuits pour la traduction de phrases ou de textes un peu plus longs.

Phrases choisies pour le test et résultats :
Il est beau : 1 traduction sur 3 convient (i.e. : He (it) is beautiful)
Il fait beau : 2 traductions sur 3 conviennent (i.e. : The weather is beautiful)
Il fait le beau : 0 traduction sur 3 (traductions erronées ou glissement de sens)
On se penche à la fenêtre : 0 traduction sur 3 (traductions erronées)

Bien sûr le pronom « il » en français est particulier ("il" peut être personnel ou impersonnel comme dans « il pleut »), bien sûr il existe en anglais deux traductions possibles « he » ou « it », qui ne recouvrent pas les mêmes réalités. Il ne s’agit pas seulement de « chercher la petite bête ». En fait très rapidement, dès qu’il s’agit de traduction automatique, le traducteur est confronté à ce type de difficulté. Et ces premiers résultats donnent à penser qu’il faut forcément connaitre la langue source pour pouvoir utiliser des traducteurs automatiques de façon à pouvoir opérer les rectifications nécessaires.

Cependant malgré ces difficultés, et quelle que soit la qualité des traductions, des milliers d’internautes, chaque jour utilisent ces traducteurs automatiques…
En fait les spécialistes répondent à cela en nuançant la notion de traduction.
On peut d’abord distinguer deux domaines : la recherche d'informations et la production de documents. S'il s'agit de générer un texte parfait (i.e. une traduction parfaite), alors la difficulté est effectivement gigantesque (surtout lorsqu’il s’agit de récit, de littérature, etc.). Mais pour comprendre le sens d'un document, on peut se contenter d'une version imparfaite voire syntaxiquement fausse.

Dans son article Traduction automatique : ça marche ou non ? Christian Boitet de l’Université Joseph Fourier de Grenoble propose un classement des différents types de traduction selon le but recherché.
Il y a plusieurs sortes de « traduction automatique », ou plus généralement de « traduction automatisée » (TAO), avec des buts bien différents.
Par ordre de difficulté croissante pour les développeurs de système :
- aider un vrai bilingue à produire des traductions de haute qualité en lui fournissant des « prétraductions » les plus utiles possible, ainsi que des aides dictionnairiques. On parle de « TA du traducteur ».
- aider quelqu’un à accéder à une information dans une langue qu’il ne connait pas. On parle de « TA du veilleur ».
- aider 2 personnes n’ayant pas de langue commune à communiquer (par oral, ou par écrit en tchat). On parle de « TA de dialogue ».
- aider une personne monolingue ne connaissant pas ou que très peu une langue étrangère, mais très bien le domaine en cause, à produire des traductions de qualité dans sa langue. C’est une tâche envisagée assez récemment, et qui suppose de proposer une traduction mot à mot multiple, et plusieurs prétraductions complètes, (...) pour « faire apparaitre » une bonne traduction, jugée plausible. On pourrait parler de « TA du transcripteur ».
- aider quelqu’un à produire des traductions de haute qualité dans une langue qu’il ne connait pas, en le « consultant » (dans sa langue) en cas de doute, grâce à un dialogue de désambiguïsation le moins lourd possible : on parle de « TA de l’auteur ».

Pour conclure, il semble intéressant d'ajouter que, selon les moteurs de traduction, les techniques sont différentes. Par exemple Google utilise pour l'instant une approche purement statistique. D'autres s'en servent pour compléter l'analyse linguistique. Ce panachage améliore considérablement les performances, ce qui explique les grands progrès actuels dans ce domaine . Pour autant, la perfection reste encore très loin. Si la traduction automatique est aujourd'hui souvent efficace dans le domaine technique, elle baisse les bras dans le domaine littéraire.

http://translate.google.fr/
http://www.reverso.net/text_translation.aspx?lang=FR
http://fr.babelfish.yahoo.com/
http://www-clips.imag.fr/geta/christian.boitet/pages_personnelles/zArticles_sur_la_TAO_pdf/Interstices-TA&TAO-Boitet.v3.pdf
Traduction automatique : ça marche ou non ? C. Boitet - Laboratoire LIG, GETALP – Université Joseph Fourier Grenoble
http://www.erudit.org/revue/META/1992/v37/n4/003997ar.pdf
« La traduction automatique : l’ordinateur au service des traducteurs » - Birgitte Roudaud – www.erudit.org

jeudi 12 mai 2011

Once upon a time, un hébergeur de photographie d'origine canadienne, racheté en 2005 par Yahoo et hébergeant en 2010 plus de 4 milliards de photographies dans le monde. Comme ses concepteurs étaient de petits plaisantins ils le nommèrent Flickr (cela ne se prononce pas Fliicre mais bien Fliker)

En janvier 2008, ce dernier passait un partenariat avec la Bibliothèque du Congrès de Washington pour la mise en ligne de plusieurs dizaines de milliers de clichés dans le but de diffuser ce contenu iconographique à toutes les communautés Flickr. Malheureusement, un terrible malheur frappa le royaume : une terrible crise (économique) éclata quelques mois plus tard et envoya le projet aux oubliettes...

Mais dans un conte de fée tout ce fini toujours bien !

Après bien des rebondissements, Flickr vient d'annoncer la relance du projet baptisé The Common. En plus de la Bibliothèque du Congrès, le partenariat est désormais ouvert à une cinquantaine d'institutions culturelles : la Nasa, les Archives nationales du Royaume-Uni, la Bibliothèque nationale de Nouvelle Zélande, et, pour la France, la Bibliothèque de Toulouse qui a fourni une série de prise de vues de Monaco au début du 20ème siècle.

Et voilà, ils firent un partenariat et eurent pleins de belles photographies en lignes...

Fin du conte : la morale de l'histoire.

L'intérêt pour les institutions est bien sûr de donner une visibilité plus importante à leur collection de photographie. Et comme elles sont hébergées par Flickr, elles pourront faire l'objet d'un traitement documentaire collaboratif. Les membres des communautés ont la possibilité d'enrichir la description des clichés via des tags et des commentaires. Et pour les sceptiques de l'intelligence collective ce corpus de métadonnées sera modéré par Flickr.

Source: Bruno Texier,Flickr relance son projet d'archives photographiques, Archimag, 11/05/2011

Pour jubiler, un seul lieu

Bibliothèque numérique patrimoniale, la Jubilothèque, est un projet initié entre 2005 et 2008 par la Bibliothèque Pierre et Marie Curie, de l'université du même nom, située dans le sixième arrondissement de Paris, en association avec la Bibliothèque nationale de France, la Bibliothèque inter-universitaire de médecine, la Fondation de France, etc.
Elle s'inscrit dans la logique de l'initiative des archives ouvertes (Open archives initiative /OAI).

Nous pousser à la réjouissance ?

Qu'est donc cette Jubilothèque dont le nom seul semble nous pousser à la réjouissance ? C'est prosaïquement un projet visant à la mise en ligne d'une sélection de documents scientifiques anciens sur des thèmes aussi variés que la physique chimie, la biologie, la géologie régionale, les publications de la Société géologique de France ou encore les thèses scientifiques du XIXe siècle.
Deux corpus existent : le fonds sciences que nous venons en partie de détailler et le fonds Charcot (projet initié entre 2001 et 2004 par le Service commun de documentation médicale). Ce dernier est constitué principalement de la bibliothèque de neurosciences du professeur Jean-Martin Charcot (1825-1893), éminent clinicien et neurologue français, et de la bibliothèque des internes de la Salpêtrière.

Un intérêt notoire

D'un intéret notoire, tant pour les scientifiques que les historiens, ces deux fonds, qui représentent plus de 200 000 pages numérisées (environ 1000 documents), ont fait l'objet d'une campagne de numérisation débutée en 2007.
Ainsi, pour ceux que la Revue d'Hypnotisme (fonds Charcot) fascine ou que les photographies de la Nouvelle iconographie de la Salpêtrière : clinique des maladies du système nerveux (1888-1918) intriguerait, il faut savoir que "par derrière" (déformation professionnelle ?) la mise en ligne a fait l'objet d'un énorme travail de numérisation réalisé par plusieurs partenaires spécialistes de la numérisation des fonds anciens et fragiles, et du traitement de l'image comme Arkhênum, Jouve, Datland ou encore Safig (groupe Jouve).

Un travail soigné de numérisation

Une attention toute particulière a été donnée aux choix de numérisation. Les documents ont été numérisés en 300 dpi ; les fichiers jpeg sont consultables en 150 dpi, aussi une version PDF permet de télécharger l'intégralité d'un document (certaines images sont binarisées).

Par ailleurs, "les textes imprimés ont fait l'objet d'une reconnaissance optique de caractères non corrigée indexée et recherchable dans l'interface, qui peut également être affichée en regard de la page image. Les tables des matières ont été saisies en XML, et les métadonnées encodées en Dublin Core simple, en cohérence avec l'ensemble du portail documentaire de l'UPMC."

Le site offre également à l'usager la possibilité de suivre ses diverses requêtes grâce à un historique de requêtes et de mettre ses choix dans un porte document (panier). Un cadre de classement thématique permet aussi d'accéder aux divers documents numérisés selon une certaine arborescence.

Le fonds de la Jubilothèque a été déposé le 1er février 2011 sur la plateforme d’archivage numérique du CINES (Centre informatique national de l’enseignement supérieur) de Montpellier, ce dernier offre et permet la conservation à long terme du patrimoine numérique national.

Enfin, pour finir, notons que les images numérisées de la Jubilothèque sont libres d'usage, mais qu'elles ne peuvent être utilisées dans un but commercial.

Pour en savoir plus :

http://jubilotheque.upmc.fr/pages/about.html
http://blog.bnf.fr/gallica/?p=2642

mardi 10 mai 2011

Après la révolution tunisienne, l'intégrité des archives nationales menacée

Après la révolution tunisienne, les Archives nationales pourraient mettre en lumière la corruption du régime de Ben Ali. En effet une commission anti-corruption devrait s'appuyer sur certains documents d'archives.

Ces archives sont susceptibles de menacer de hauts fonctionnaires et d'anciens dignitaires du parti de Ben Ali toujours en place, c'est pourquoi elles sont menacées de vol, de destruction ou de falsification.

Les archivistes se sont mobilisés sans passer par les Archives nationales le 3 février 2011 à l'Union générale tunisienne du travail (UGTT) pour demander en urgence la prise d'un "décret-loi présidentiel" imposant une garde judiciaire des fonds d'archives pour éviter le vol ou la destruction. Les archivistes tunisiens appellent les administrations et le public à veiller sur les archives.

Les Archives nationales représentent la mémoire d'un Etat et seront nécessaires à la Tunisie pour lutter contre la corruption et réécrire une part oblitérée de son histoire.

Source:
Les archives tunisiennes en ébulition, Patrick BREBION, Archimag, mars 2011

Etalab, data.gouv.fr

Dans le cadre de la création du portail unique de réutilisation des informations publiques (data.gouv.fr), le Conseil de modernisation des politiques publiques présidé par le Président de la République, a créé la mission Etalab.

Sous l’autorité du Premier ministre, Etalab coordonne l’action des administrations de l’État et apporte son appui aux établissements publics administratifs pour faciliter la réutilisation la plus large possible de leurs informations publiques. Le portail unique s’inscrit donc dans la politique de simplification des services publics en ligne.

Faciliter l’accès et l’utilisation des informations publiques constitue une priorité de la politique de modernisation de l’État. Etalab mettra à disposition librement des données brutes dans un format exploitable et développera de nouveaux services en ligne au profit des citoyens. La réutilisation de ces données offre de larges opportunités à la communauté des développeurs qui pourront les utiliser afin de proposer des services applicatifs innovants.

Pour permettre une réutilisation efficace des données publiques et leur assurer une diffusion la plus large possible, la mission Etalab veille à ce que les fonctionnalités du portail data.gouv.fr correspondent aux besoins exprimés par les producteurs et réutilisateurs de données publiques.

L’équipe Etalab met en oeuvre des ateliers de travail en groupe où elle présente ses travaux aux réutilisateurs de données, pour leur permettre de faire part de leurs réserves, de leurs appréciations, de leurs recommandations et de leurs attentes.

Le prochain atelier de travail aura lieu le 18 mai et permettra de discuter sur les outils et les espaces d’échanges employés pour les producteurs et les réutilisateurs de données publiques.

Pour en savoir plus : Etalab

mardi 3 mai 2011

FAI vs fournisseurs de contenu : et la neutralité du net dans tout cela ?

Si vous êtes un abonné SFR, Orange ou Free et usager de la plate-forme de partage de vidéos Youtube, vous vous êtes sans doute aperçu depuis un mois de la lenteur exceptionnelle du temps de chargement des vidéos. Ce dysfonctionnement serait lié selon le blogueur Korben à une stratégie de “bridage” de la plateforme de la part des fournisseurs d’accès à Internet.
Une petite explication s’impose :
Lorsqu’un site génère beaucoup de trafic, les FAI placent entre leur réseau et le site en question un point d’interconnexion (dit peering) afin d’en améliorer le trafic. Il semblerait que face à l’augmentation constante des visites sur la plate-forme vidéos de Google, cette interconnexion soit saturée. Grosso modo le tuyau n’est pas assez gros et le trafic est engorgé.
Ce dysfonctionnement pourrait être aisément résolu si les FAI augmentaient la taille du tuyau. Cependant cette intervention a un coût et les fournisseurs d’accès ne veulent pas supporter seuls la charge de ces investissements.
La société Free, qui tout en se défendant des accusations de mener une action de bridage à l’encontre de Youtube, rappelle que Free et Orange militent depuis un certain temps pour faire payer aux gros fournisseurs de contenu les investissements pour augmenter la capacité des réseaux.
Si cette stratégie devait être appliquée, en discriminant certains fournisseurs de contenu, elle constituerait une remise en cause de “la neutralité du net”, principe fondateur d’internet.

Sources :
http://www.korben.info/fai-la-strategie-du-pourrissement.html
http://www.freenews.fr/spip.php?article10172

lundi 2 mai 2011

Les écrans tactiles et nos habitudes de lecture

Dans l'article "Reading in a Whole New Way" publié en août 2010 dans le Smithsonian Magazine, Kevin Kelly, fondateur du magazine Wired et éditeur du site web Cool Tools, s'interroge sur l'avenir de la lecture et le rôle des écrans tactiles dans le changement de nos habitudes de lecteurs.

Selon lui la lecture devient une expérience de plus en plus "athlétique" par le fait que notre corps interagit avec les écrans et il annonce que très bientôt les écrans sauront capter, analyser et suivre les mouvements de nos regards.

En attendant cette nouvelle génération d'écrans, plusieurs études ont été menées depuis la sortie de iPad sur notre façon de lire et d'interagir avec des écrans tactiles. Ainsi, on peut retenir de l'article de Frédéric Cavazza "Plusieurs études sur l'utilisabilité de l'iPad" deux types d'études décrites - eyetracking et étude de traces des doigts sur la surface de iPad.

1. Les études d'eye tracking réalisées par Miratech - société spécialisée dans l'analyse du comportement des utilisateurs vis-à-vis des écrans montre que la lecture sur iPad se caractérise par certaine efficacité : le nombre des articles parcourus sur l'iPad est plus élevé que sur le support papier, mais aussi par superficialité : les utilisateurs retiennent moins bien le contenu.

2. L'étude basée sur l'analyse des traces de doigts sur l'écran de iPad établit un lien entre le contenu et les modalités d'interaction. Ainsi lors de la navigation sur le Web l'iPad est tenu d'une seule main et l'écran n'est touché qu'avec un seul doigt (index) ; alors que la vérification des emails exige plus d'attention, iPad est tenu de deux mains et les messages sont parcourus à l'aide de deux pouces.

Aujourd'hui avec l'apparition des tablettes concurrentes de l'iPad la question de la standardisation des principales interactions tactiles se pose. Apple a référencé ces interactions et a déposé le brevet "Detecting and Interpreting Gestures on Touch and Hover Sensitive Devices" Mais il existe d'autres référencements d'interactions tactiles, par exemple "Touch Gesture Reference Guide" publié sur le site LukeW ou encore "Open Source Gesture Library" publié sur Open Exibits

En voyant la diversité des gestes à utiliser sur les écrans tactiles le futur de la lecture décrit par Kevin Kelly ne nous parait pas si lointain :

"Just as it seemed weird five centuries ago to see someone read silently, in the futre it will seem weird to read without moving your body"

"Reading in a Whole New Way", Smithsonian Magazine, août 2010
http://www.smithsonianmag.com/specialsections/40th-anniversary/Reading-in-a-Whole-New-Way.html

Xavier de la Porte, "Lire d'une toute autre manière", InternetActu.net
http://www.internetactu.net/2010/07/20/pdlt-lire-dune-tout-autre-maniere/

Frédéric Cavazza, "Plusieurs études sur l'utilisabilité de l'iPad", SimpleWeb.fr
http://www.simpleweb.fr/2011/02/17/plusieurs-etudes-sur-lutilisabilite-de-lipad/

Frédéric Cavazza, "Vers une standartisation des interfaces tactiles", SimpleWeb.fr
http://www.simpleweb.fr/2011/01/31/vers-une-standardisation-des-interfaces-tactiles/

"Detecting and Interpreting Gestures on Touch and Hover Sensitive Devices", Patently Apple
http://www.patentlyapple.com/patently-apple/2011/01/apple-wins-trackpad-iphone-gesturing-on-hover-device-patents.html

"Touch Gesture Reference Guide", LukeW http://www.lukew.com/ff/entry.asp?1071

"Open Source GestureLibrary", Open Exibits http://openexhibits.org/gesturelibrary

La génération Y pousse les DSI à l'innovation

Selon une récente étude d'Ipsos reprise et commentée par la presse spécialisée, "environ un actif sur deux (51%) considère que le numérique fait autant partie de sa vie privée que de sa vie professionnelle" et "deux sur trois (70%) ont commencé à utiliser des technologies dans la vie privée avant de s'y mettre dans la vie professionnelle" (L'usine Nouvelle et Le Journal du Net).

La génération Y (née à partir de 1980) a intégré dans son quotidien l'utilisation des réseaux sociaux, de la vidéo et de l'écoute de musique en ligne, des messageries instantanées, la lecture de blogs... Elle acquiert donc des compétences en matière de TIC qu'elle entend utiliser dans la vie professionnelle. C'est un véritable défi pour l'entreprise : les jeunes actifs veulent pouvoir recourir aux mêmes outils dans leur entreprise que ceux qu'ils utilisent dans la sphère privée. Ils sont demandeurs de compatibilité et d'interopérabilité entre les applications et d'accès aux plates-formes collaboratives.

Les éditeurs l'ont bien compris en se lançant sur le créneau avec :
  • des produits qui se ressemblent - par exemple : Links (entreprise) et MSN (privé) ou Sharepoint et Skydrive
  • le cloud computing qui donne accès à des applications depuis n'importe quelle machine.
Mais qu'en est-il des DSI ?

De nombreux responsables informatiques semblent beaucoup moins enthousiastes sur la question mettant en avant le danger des messageries les plus utilisées telles que MSN ou Yahoo car leur popularité attire également un grand nombre de pirates et malversations. De plus, leur interopérabilité est limitée, il n'y a pas de contrôle des sources et de la sécurité du code. A cela s'ajoutent les risques de fuite d'information(s) confidentielle(s). (Le Journal du Net)

Il y a cependant des solutions : par exemple, mettre en place un outil dédié, Open Source où l'on peut contrôler le code et répondre aux exigences de sécurité de l'entreprise.

Mais est-ce suffisant pour la génération Y qui a soif de nouvelles technologies ?

Il apparaît, en tout cas, que nos DSI se doivent d'être source d'innovation, d'organiser une veille technologique et de rester à l'écoute de l'évolution des besoins des utilisateurs.

Pour en savoir plus :
Les DSI face aux exigences de la génération Y - Le Journal du Net publié le 29/04/2011 par Virgile Juhan
L'informatique personnelle prend le pas sur l'informatique professionnelle - L'Usine Nouvelle, publié le 29/04/2011 par Christophe Dutheil
la Génération Y, consultez le blog de Julien Pouget
La Génération Y va-t-elle révolutionner l'entreprise et ses pratiques en matière de NTIC ? Dream Orange publié le 03/11/2010

Nouveautés sous Zotero

Aujourd’hui, j’ai eu envie de vous parler d’une fonctionnalité très pratique de Firefox, Zotero, qui sollicite l’avis des internautes sur de nouveaux services et axes d’amélioration depuis fin avril 2011.

Tout d’abord, un petit rappel… Zotero est un module complémentaire du navigateur Firefox qui permet de collecter, annoter, gérer et citer différentes sources, documents électroniques ou papier.

Un simple clic sur la barre de menu d’un site ayant la fonctionnalité Zotero permet de collecter instantanément toutes les métadonnées liées à une œuvre : un livre, un journal, un article ou toute autre ressource numérique.

La caractéristique de Zotero est sa capacité à repérer un élément (ou des éléments) sur une page Internet. Par exemple, si l’on regarde la fiche d’un livre sur une bibliothèque ou un catalogue de références en ligne, l’icône livre de Zotero apparaît dans la barre d'adresses de Firefox en haut de la fenêtre du navigateur. Il suffit de cliquer sur l’icône et Zotero enregistre toutes les informations liées à la référence de ce livre dans la bibliothèque.

En d’autres termes, Zotero propose un système de gestion bibliographique (collecte, gestion, export de références) en extrayant les métadonnées des pages consultées. L'outil est construit sur un mode collaboratif et les utilisateurs sont invités à proposer de nouveaux sites intéressants qui ne sont pas encore repérés par Zotero. Zotéro est compatible avec les traitements de texte (Microsoft Word, OpenOffice.org Writer, LibreOffice Writer, NeoOffice, Zoho, Google Documents...). Le mode collaboratif permet également de créer son propre style bibliographique, d'importer ou d'exporter des fichiers.

Zotero est surtout connu dans le domaine de la recherche et de l’enseignement car très pratique pour se constituer sa propre bibliographie mais peut-être utilisé par tous. Un bémol cependant : il nécessite l’utilisation du moteur de recherche Firefox pour être activé et n’est disponible que sur les sites compatibles, ce qui restreint son « champ d’activité ».

Un article publié sur le site officiel le 26 avril dernier fait part des dernières innovations et services proposés sur Zotero, à savoir le lancement d’une newsletter et la refonte du site. Il invite les internautes à donner leur avis sur ces améliorations.
Si vous êtes intéressé, vous pouvez vous connecter directement sur le site via l’adresse ci-dessous.
http://www.zotero.org/blog/zotero-website-redesign-and-newsletter/

dimanche 1 mai 2011

Nouvel algorithme Google : une révolution dans le référencement ?

Google déploie un nouvel algorithme de recherche : Matt Cutt, responsable du référencement chez Google et Amit Singhal, responsable des algorithmes, ont annoncé le lancement de "Panda" aux Etats-Unis en février 2011. Mis en place au Royaume-Uni courant avril 2011, Panda devrait être progressivement étendu au reste du monde.

Ce nouvel algorithme est très officiellement destiné à améliorer le référencement des sites à forte valeur ajoutée. Officieusement, il s'agit de dégrader le référencement des "fermes de contenu" dans le plus populaire des moteurs de recherche.

On désigne sous le terme de "fermes de contenus" ("content farms") les sites qui publient du contenu de faible valeur dans l'unique but de générer du trafic, et donc des revenus publicitaires. Grâce à des outils algorithmiques maison ou des outils Google tels que G Analytics et G Trends, les éditeurs de ces sites identifient les sujets les plus recherchés par les internautes, mais aussi les sujets de niche les plus rentables en termes de revenus publicitaires générés "au clic".

Ils produisent alors des contenus susceptibles d'attirer de l'audience, de très faible valeur informative, mais contenant les termes et les métadonnées nécessaires pour obtenir un bon référencement sur Google sur les requêtes les plus populaires du moment. Ces contenus sont produits à très faible coût : les éditeurs font appel à des pigistes, mais aussi à des blogueurs voire à de simples internautes pour rédiger des articles rémunérés en moyenne 5 à 20 $ par unité. Ce journalisme low-cost génère bien évidemment des contenus à très faible valeur ajoutée, souvent conçus par des rédacteurs sans compétences sur les sujets traités, voire purement et simplement copiés sur d'autres sites.

En revanche, grâce à leur excellent référencement sur Google, ces sites génèrent de forts revenus publicitaires. Demand Media, leader du marché qui édite des dizaines de sites et blogs, génère un CA évalué à 300 millions de dollars annuel. Panda va donc remettre en cause un modèle économique très rentable.

Après quelques semaines de fonctionnement du nouvel algorithme, le site allemand Sistrix a réalisé une étude de son impact sur le web américain (http://www.sistrix.com/blog/985-google-farmer-update-quest-for-quality.html). Le bilan semble mitigé. La plupart des grandes fermes de contenus ont vu leur référencement s'effondrer : c'est le cas pour Associated Content, propriété de Yahoo, de Mahalo, ou encore de eZineArticles. En revanche, e-How, le site phare du groupe Demand Media, qui était en première ligne dans le viseur de Google, n'a non seulement pas été pénalisé, mais semble même avoir bénéficié favorablement du changement d'algorithme Google.

La webosphère bruisse de récriminations sur les dégâts collatéraux de Panda : sur le fil de discussion sur Google Webmaster Central (http://www.google.com/support/forum/p/Webmasters/thread?tid=76830633df82fd8e&hl=en), les plaintes et les questions affluent. De nombreux sites et blogueurs se plaignent de la disparition de leurs pages sur certains de leurs mots clés jusque là très bien placés.

Le nouvel algorithme devrait mis en place en France dans les mois qui viennent. Les webmasters vont avoir du pain sur la planche pour adapter leurs contenus et leurs mots-clés aux nouvelles règles du géant du web.