lundi 25 janvier 2010

Trop de Succès pour Flickr…


Cela fait deux ans que la Bibliothèque du Congrès a confié la gestion de sa collection iconographique à Flickr, la banque d’images. L’initiative appelée The Commons (voir capture d’écran) proposait de regrouper et de mettre à disposition les collections d’images, libres de droit, de 31 organismes culturels (ex : Library of Congress, The Brooklyn Museum, Bibliothèque de Toulouse, etc.). Victime de son succès, Flickr a annoncé hier dans un communiqué que l’initiative ne s’étendrait pas à de nouvelles institutions. Techniquement, le Flickr de Yahoo ! ne serait plus en mesure de traiter de nouvelles demandes. Un récent article du blog « Affordance » parle d’un véritable «embouteillage ».



Quelles sont les raisons de ce succès ?

Flickr obtient une renommée et une crédibilité en terme de traitement d’images.
-Les institutions acceptant ce partenariat obtiennent une visibilité sur la toile sans payer.
-Le concept a de quoi séduire de nombreux organismes culturels.

Qu’est-ce que Flickr exactement ? Un outil de web 2.0 mis au point par Ludicorp (plus tard racheté par Yahoo!), il permet le partage d’images et de photos. Son public est professionnel comme amateur, chacun peut y déposer ses propres photos et consulter celles des autres. En 2009, la banque d’images comportait 3 milliards de documents. De nombreuses technologies rendent son utilisation participative et intéressante dans le cadre d’une mise à disposition d’images d’archive (comme dans le projet « The Commons ») : ainsi l’interface AJAX permet elle, entre autre, de laisser un commentaire et de "tagger" une photo. La mise à disposition comprend une consultation mais aussi une possibilité de téléchargement.

Et à l’avenir…Flickr s’impose comme un sérieux concurrent à des projets européens de numérisation de collection tel qu’Europeana ou Gallica. Son atout est de s’appuyer sur l’aspect accessible de Flickr qui avait déjà séduit de nombreux internautes. Une fois les problèmes techniques résolus, il y a fort à parier que The Commons-Flickr deviendra un véritable garant du patrimoine mondial en matière d’iconographie…

Ariane

http://affordance.typepad.com/mon_weblog/2010/01/embouteillages-dans-les-nuages-.html
http://affordance.typepad.com/mon_weblog/2008/01/la-bibliothque.html
http://blogs.loc.gov/loc/2010/01/library’s-flickr-site-celebrates-the-taggable-twos/

jeudi 21 janvier 2010

Heureusement, Twitter est là.

"Partagez et découvrez ce qui se passe en ce moment, partout dans le monde."
Telle est la promesse véhiculée par la signature de Twitter, qui aura pris tout son sens avec la catastrophe haïtienne du 12 janvier dernier.


Le séisme qui a dévasté l'île d'Haïti le ayant mis hors-service les moyens de communication traditionnels (téléphone, télévision, radio), toutes les rédactions du monde entier étaient complètement sourdes et aveugles et dépourvues de toute information sur ce qui se passait à Haïti. Les seules éléments dont ils ont pu disposé étaient relayés via Twitter par les quelques survivants qui disposaient d'une connexion internet encore en état de marche. Troy Livesay et Lisandro Suero, présents sur l'île au moment du séisme ont posté de nombreux commentaires et photos qui ont permis aux journalistes du monde entier, alors bloquées dans leurs rédactions, de diffuser les premières informations sur l'événement. “Nous venons de subir un tremblement de terre majeur ici à Port-au-Prince – les murs s’effondrent – nous allons tous bien – nous prions pour ceux qui vivent dans les bidonvilles”, "J’étais dans la rue après la dernière réplique, les gens étaient terrifiés, ils criaient et couraient dans toutes les directions" sont deux exemples de commentaires postés sur Twitter dans les heures qui ont suivi la catastrophe.

Il aura donc fallu une castastrophe humanitaire pour que Twitter (et par là même les autres media sociaux sur internet) démontre enfin une véritable utilité et surtout sa capacité à diffuser de l'information instantanée qui soit utilisable. Car jusqu'ici, l'intérêt de Twitter pouvait sembler assez léger. Les messages intéressants sont souvent noyés par ceux dénués de tout intérêt postés par les fameux Kikoolol, internautes qui passent leurs journées à raconter chaque minute de leur quotidien qui, au final, se révèle encore moins passionnant que le nôtre.

Une fois les premiers équipes JRI débarquées sur lîle, les médias traditionnels ont repris le leadership sur la diffusion de l'information. Mais le rôle de relai d'information de Twitter ne s'est pas arrêté pour autant. Les parents ou amis d'habitants de l'île postent des messages avec des liens hypertextes pointant vers des fiches de personnes portées disparues comme celle-ci, destinées à être remplie par ceux ou celles qui sauraient si ces personnes sont vivantes ou non.

La crise haïtienne vue par Twitter aura sans doute porté un coup fatal au vieux principe du One to All au profit du One to One, principe fondateur de la diffusion d'information né avec Twitter et les media sociaux sur internet. Une chose est sûre, Twitter aura marqué des points quant à la reconnaissance de son statut de media à part entière, dépassant largement l'effet de mode qu'il a suscité à ses débuts.

Oeuvre "libre" : vers une définition jurique

Le web collaboratif fait émerger un nouveau type d'œuvre, réalisé par "plusieurs mains" et en perpétuelle évolution. Ces nouveaux contenus repoussent les limites du droit d'auteur.

Un nouveau type d'oeuvre
On rencontre communément ces contenus avec les wiki ou les blogs par exemple. Toute une communauté d'artistes convaincus et de créations d'un genre nouveau sont également concernées. Or les cadres juridiques définis pour les oeuvres de collaboration, collectives ou composites, ne suffisent aujourd'hui plus.

Les propositions
La question de savoir quel régime juridique appliquer à ces œuvres spécifiques se pose avec d'autant plus de force que ces contenus se multiplient chaque jour.
  • Une première solution consisterait à redéfinir la notion d'œuvre de collaboration en introduisant l'idée que l'œuvre elle-même serait le support de la collaboration, et non plus l'entente entre les auteurs. Mais cette solution ne convient que si le nombre de ceux-ci est limité ; or cela entre en conflit avec la nature même des œuvres dont nous parlons, puisque le nombre des participants peut être ici considérable.
  • Le concept d'œuvre libre tend ainsi à s'imposer comme nouveau type de création et à se définir juridiquement. Très simplement, l'accent serait mis sur l'idée que chacun puisse à loisir faire évoluer une œuvre dite libre. La notion d'un auteur-initiateur fixant des droits de diffusion héritables au profit d'auteurs secondaires, comme c'est le cas dans les copyleft (qui rentrent dans les cadres fixés par les droits d'auteurs), pourrait être dépassée.
Au moment où le pouvoir exécutif met en place des dispositifs répressifs pour le respect des droits d'auteurs (créant une certaine crispation autour de ces questions), il est intéressant de remarquer la prise en charge par le droit de la philosophie du libre dans ses avancées les plus radicales.


A partir d'un article de Michèle Battisti sur le site de l'ADBS : http://www.adbs.fr/l-oeuvre-collaborative-de-l-oeuvre-de-collaboration-a-l-oeuvre-libre-76040.htm

mardi 19 janvier 2010

Quand jouer devient sérieux

Le forum iLearning qui se déroule au Palais des Congrès, du 18 au 19 janvier, se termine ce soir. On y a abondamment parlé des serious games. Ce nouveau type de formation qui combine le jeu vidéo à une volonté éducative investit le secteur de la formation et l'entreprise 2.0.

Le premier à tâter le terrain, comme souvent, est l'armée américaine avec America's army. Depuis 2002, ce jeu de simulation permet de vivre le quotidien d'un soldat au moyen d'un avatar.

D'autres secteurs développent leurs activités autour du serious gaming. Ce matin, la société Interaction Healthcare présentait officiellement son projet Pulse, une simulation 3D, permettant d'appréhender de manière ludique des savoirs médicaux complexes. De même, l'Académie de Toulouse a créé le jeu Technocity qui permet de découvrir les métiers de l'ingénierie à travers des jeux de plateforme et de réflexion.
Même les grandes entreprises s'y mettent. Ainsi, l'Oréal a développé HairBe12, un serious game sur la gestion d'un salon de coiffure. BNP Paribas propose Ace Manager pour les jeunes diplômés afin de les familiariser aux métiers bancaires.

Ce secteur en pleine expansion a d'ailleurs le soutien de Mme Nathalie Kosciusko-Morizet, la secrétaire d'état chargé de la Prospective et du Développement de l'économie numérique. En septembre 2009, son ministère décidait de financer 92 projets de serious game à hauteur de 35 millions d'euros.

Ainsi, à l'heure où les digital natives commencent à entrer sur le marché du travail, le monde de l'entreprise serait bien avisé de se saisir du serious game et de l'interfacer avec l'environnement web 2.0, notamment les réseaux sociaux. Déjà, le jeu Jetset qui permet de se former comme agent de sécurité aéroportuaire n'est disponible que sur iPhone et Facebook.
Et les univers virtuels tels que Second Life peuvent également offrir des opportunités réelles comme interfaces de jeux éducatif, participatif et collaboratif.

Alors à quand une application téléphonique ludique "Comment devenir boss à la place de mon boss" dans le train de banlieue en direction du boulot sous l'avatar de Karl Marx ?

lundi 11 janvier 2010

Les logiciels libres ont-ils le vent en poupe ?

Bientôt, une « gouvernance Open Source » de la Maison blanche ?
Scott McNealy, PDG de Sun, a été chargé par Barack Obama d’élaborer un rapport sur l’Open Source. Une étude, ménée par un un cabinet spécialisé dans les secteurs informatiques et médias, Survey Interactive, vient d'être publiée et montre l'engouement et la progression des logiciels libres, en Europe, en Amérique du Nord et en Chine.
Le cabinet a interrogé près de 1500 responsables de service informatique, dans différents secteurs (services financiers, secteur public, télécommunications, industrie manufacturière) sur leurs pratiques et attitudes face aux logiciels libres.
Cocorico ! La France compterait, selon l'étude, le plus grand nombre d'entreprises (67%) utilisant les logiciels open source, plus que le Royaume-Uni (42 %) et les Etats-Unis (41 %). Pour des utilisations suivantes : bases de données (80,3 %), systèmes d’exploitation de serveur (76,1 %) et développement d’applications (69,2 %), auxquelles s’ajoutent la sécurité (47,9 %), les applications d’entreprise (44,4 %), les outils de productivité personnelle (42,7 %) et les middlewares (30,8 %).
Les avantages mis en avant ? Financiers, bien sûr, grâce à l'absence de coût de licence (77,7 %), mais aussi car leur technologie est basée sur les normes (58,3 %), qu’ils sont construits sur des plates-formes libres (52,0 %), leur indépendance face à Microsoft (44,6 %) et leur flexibilité (29,1 %).
En Chine, l’accès au code source est largement plébiscité (72 % des personnes interrogées), démontrant qu'il peut être un bon antidote à la crise et le moyen, en s'affranchissant du monopole de l'industrie des logiciels, d'accroître son pouvoir d'innovation.

http://www.actuate.com/fr/download/OpenSourceSurvey/OS-Survey-France-09.pdf

Une journée d'étude à la BNF sur la numérisation du patrimoine culturel

Appartient-il à un acteur privé de dicter ses règles en lieu et place de la loi ? C'est la question que pose le "coup de force" de Google dans son entreprise de numérisation du patrimoine culturel. Aussi, les réponses qu'apportera, d'ici à la fin du mois, Marc Tessier, ancien président de France télévision chargé d'un rapport sur la numérisation du patrimoine culturel par le ministre de la Culture, seront-elles commentées avec abondance.
Quelques fuites dans la presse (La Tribune du 14.12.09) en donnent un avant-goût. « Les programmes publics de numérisation restent lents et les outils ne sont pas suffisamment performants », estimerait le rapporteur.
"En somme, la situation pourrait se résumer ainsi : Google ne serait qu'un réservoir de données où l'information est abondante et diverse, et les bibliothèques numériques ne proposeraient qu'un contenu réduit car filtré par des experts. Google répond à des intérêts privés dictés par des actionnaires et les bibliothèques à l'intérêt public. A Google donc la charge de numériser rapidement et à grande échelle, ce qui est son point fort, et aux bibliothèques de s'en servir pour construire des bibliothèques numériques."
C'est ainsi qu'une journée d'étude sur la numérisation du patrimoine organisée, le 8 janvier, par la BNF et plusieurs universités françaises a posé l'équation du problème, ici résumée par l'ADBS. Mais ses termes seraient-ils si simples ? Non. Google, ont répondu les intervenants, de régie publicitaire se transformerait aujourd'hui en immense librairie en ligne. Amené de la sorte à occuper une position prépondérante dans la chaîne du livre, le moteur de recherche s'imposerait ainsi comme un acteur culturel majeur.
Les participants à ses journées d'études se sont interrogés sur les moyens de contourner ou d'aménager ce monopole. Il appartient à l'Etat de garder la maîtrise de ses fichiers et de ses métadonnées et de multiplier par ailleurs les licences d'exploitation accordées à un large éventail d'acteurs...
Que restera-il alors aux bibliothèques ? Valoriser, hiérarchiser, donner du sens à leurs contenus et promouvoir une culture numérique contextualisante et respectueuse des données personnelles serait leur mission. Mais à quel prix ? Selon des tarifs raisonnables, ont répondu les intervenants. Quant à l'ADBS, qui propose un compte-rendu de cette journée d'étude, à lire ici, elle s'interroge : comment le troc s'organisera-t-il entre Google et à la BNF ?

mardi 5 janvier 2010

Google : vers un moteur parfait ?

C'est du moins l'ambition annoncée par Marissa Meyer, vice-présidente recherche et services aux utilisateurs lors de son passage à Paris le 9 décembre 2009, à l'occasion de la conférence "Le web '09". Elle y a présenté les axes de réflexion de Google pour 2010, notamment en France.

Après la recherche en temps réel (partenariat avec Twitter et à sa suite avec Facebook, MySpace, FriendFeed, Jaiku et Identi.ca) et par l'image (la nouvelle application Google Goggles pour Android qui recherche de l'information à partir d'une photo prise de son mobile en la mettant en rapport avec la base d'images de Google), l'un des principaux projets serait le passage à une recherche universelle : alors qu'aujourd'hui la recherche s'effectue avec des mots dans un champ de recherche, il s'agirait de soumettre, dans une boîte de recherche, n'importe quel type de fichier (audio, vidéo...) pour obtenir des informations à son sujet.

Du côté de la recherche en langage naturel, la réalisation semble plus difficile mais la recherche vocale est déjà disponible sur les mobiles en trois langues (anglais, japonais et mandarin) et le sera également en français en 2010.

La recherche en temps réel en français sera également lancée prochainement.

En parallèle, une étude menée par Google France est également parue le 9 décembre. Intitulée "Le moteur de recherche idéal vu par les internautes", cette étude a été menée en novembre dernier auprès de 1002 internautes français et met en évidence plusieurs points intéressants :
- la progression de l'utilisation d'internet sur mobile (25% des personnes interrogées), ce qui laisse présager le fort développement de la géolocalisation.
- une attente très forte sur l'amélioration de la pertinence des résultats, par le biais d'une meilleure présentation.
- le souhait d'être aidé dans sa recherche par des suggestions, donc une plus grande interactivité.
- une attente au niveau de la personnalisation avec des réponses selon son profil (âge, sexe, localisation...).
- un décalage dans l'utilisation des nouveaux outils : la plupart des personnes interrogées estiment peu probable la possibilité d'effectuer une recherche directement à partir d'une image, alors que cette fonctionnalité existe déjà.
Enfin, on notera dans cette étude l'évocation, parmi les fonctionnalités qui auraient le plus fort impact sur leur quotidien aux yeux des personnes interrogées, des possibilités futuristes, telles que la requête par télépathie ou la possibilité d'obtenir des informations sur ce que l'on touche...

Voir :
- Recherche : Google avance sur tous les fronts
- Marissa Meyer (Google) : "Nous voulons créer le moteur parfait"
- Etude exclusive réalisée par Google France sur le moteur de recherche idéal selon les internautes français


lundi 4 janvier 2010

Bilan d'une année de libre accès



En ce début d'année, Peter Suber se plie à l'exercice incontournable des bilans et nous propose celui de l'Open Access en 2009 dans le monde entier. Son article de 41 pages est paru dans la "SPARC Open Access Newsletter".

Dans son bilan, le 6e du genre, Peter Suber énumère les nouvelles politiques publiques en faveur de l'Open Access et les organismes publics qui ont adopté l'Open Access dans le monde entier. Si 2009 était effectivement l'année de l'accès libre aux Pays-Bas, force est de constater que l'avancée de l'OA concerne le monde entier : agences gouvernementales canadiennes, Conseil britannique de la recherche ou Académie chinoise des Sciences sont venus rejoindre les rangs de l'OA.

Côté universités, la tendance est également à l'adoption de mandats d'OA avec 60 nouvelles universités dotées d'un mandat OA qui viennent s'ajouter aux (seules) 13 universités recensées en 2008 dans le monde. Deux nouvelles initiatives (les projets SPARC Campus Open Access Policies et Enabling Open Scholarship) sont arrivées trop tardivement en 2009 pour être à l'origine de cette vague d'adoption mais pourraient bien accélérer la tendance en 2010 dans les universités.

Les chiffres que nous donne Peter Suber reflètent bien la croissance : le DOAJ (Directory of Open Access Journals) a étoffé son offre de quelque 723 journaux OA à comité de lecture enregistrant ainsi une croissance de 19 % par rapport à l'an passé (la croissance de 2008 était de 27 %). Bien plus impressionnant est le nombre de répertoires créés avec six nouveaux répertoires chaque semaine en 2009. Le nombre d'articles déposés chaque jour atteint les 21 600 ce qui représente une augmentation de 7 887 824 articles en 2009 selon les chiffres de Scientifics Commons.

Les initiatives en matière d'archivage se multiplient et on a assisté en 2009 à des tentatives de couvertures systématiques des institutions et écoles n'ayant pas encore adopté le concept. On peut citer par exemple le Pays de Galles qui a lancé un programme de répertoire institutionnel dans chaque université, le Mozambique qui a créé un répertoire national unique pour l'ensemble de ses institutions ou encore le Brésil, la Colombie et le Mexique qui participent au réseau fédéré des répertoires institutionnels de documentation scientifique d'Amérique latine.

Pour sa part, Mendeley poursuit sa progression et son objectif de plus grand répertoire de recherche en accès libre. Après avoir investi 2 millions de dollars, la société enregistrait en novembre 8 millions de travaux en dépôt, 100 000 utilisateurs et un taux de croissance de 100 % toutes les dix semaines.

La liste des initiatives est longue et les 41 pages de ce bilan ne sauraient tenir dans ce résumé. Pour les plus pressés, un "best of" et un "worst of" de l'OA est proposé en guise de conclusion.

Contrat passé entre Google et la Ville de Lyon

Le contrat récemment passé entre Google et la Ville de Lyon, concernant la numérisation du fonds ancien de sa bibliothèque, a fait de l'objet de certains articles dans Télérama ou Archimag par exemple. Toutefois, aucune analyse détaillée d'un point de vue juridique n'a été réalisée, malgré l'intérêt actuel du débat sur la numérisation du patrimoine.

L'article sur Silex, qui s'intitule "Contrat Google/Bibliothèque de Lyon : l'ombre d'un doute" présente deux aspects essentiels qui n'ont pas encore été analysés. Il s'agit d'une part de la question de l'exclusivité d'indexation et d'autre part, de celle des possibilités de réutilisation des fichiers numériques remis à la ville de Lyon.

En ce qui concerne la première question, le Cahier des Clauses Techniques Particulières ne comporte pas d'exclusivité d'indexation explicite. Mais rien n'empêche Google, d'un point de vue juridique, de bloquer les moteurs de recherche concurrents afin qu'ils n'indexent pas les contenus. Afin de lutter contre cette exclusivité d'indexation de Google, la Ville de Lyon peut réagir en créant une autre bibliothèque numérique par ses propres moyens.

Un autre problème se pose au sujet du téléchargement. En effet, le contrat précise que la Ville de Lyon permettra le téléchargement gratuit des images numérisées d'un ouvrage, et non pas du texte. De plus, il est indiqué que ce sera pour un usage individuel, ce qui exclue par exemple une utilisation pédagogique, ainsi que la possibilité de réutiliser des fichiers en ligne sur internet.

Le contrat passé entre Google et la Ville de Lyon est plus ouvert et apporte davantage de garanties que les contrats réalisés avec l'université de Michigan et celle de Californie. Mais l'accord lyonnais sera cependant source de déséquilibres (des accès de la liberté d'indexer les contenus et des usages à cause de la réutilisation restreinte des fichiers).