jeudi 27 octobre 2011

Google Panda : algorithme d'une domination pertinente

Dans le souci majeur et permanent de maintenir sa position d'acteur dominant du secteur, Google a effectué une nouvelle mise à jour de de l'algorithme de son moteur de recherche. Introduite le 24 février 2011 sur le sol américain, cette mise à jour s'étend au monde entier au cours de l'année 2011 et impacte la France le 12 août dernier.
Panda est le nom de code officiel de cette modification d'algorithme qui chamboule la sphère SEO.

Depuis Caffeine en 2009, qui améliorait la rapidité de l'indexation, Google avait malheureusement crawlé et indexé une grande quantité de spams et de pages non pertinentes. Les techniques de cloaking, de spamdexing, de spamming et de web scrapping parasitaient la qualité des recherches. Mais surtout depuis 2010, la nuée de fermes de contenu polluaient les demandes de résultats.
Ces fermes de contenus sont des sites éditoriaux créés et développés spécifiquement pour générer des revenus publicitaires. Basés sur les statistiques des requêtes sur les moteurs de recherche, des rédacteurs payés au lance pierre écrivent au lance pierre, des articles courts et à la qualité discutable. Leader mondial et inventeur de ce nouveau modèle économique, Demand Média se vante de posséder une base de 3 millions d'articles et 13 000 rédacteurs.
Au début de l'année 2011, Demand Media était valorisé à 1,45 milliard de dollars par les marchés financiers...

Fin 2010, Matt Cutts, responsable de Google Webspam et bloggeur très suivi par la communauté SEO, laissait entendre que la lutte contre le spam sera la cause prioritaire de Google en 2011. Dont acte.
Amit Singhal, responsable du département Search Quality à Google, explique sur le blog officiel de la firme de Montain View : "Au cours des derniers mois, nous avons apporté de nombreuses modifications à nos algorithmes afin de mettre en valeur les sites de haute qualité dans les résultats de recherche Google."
Panda juge la qualité d'un site, entre autre critères, par la proportion de pub sur le site, le temps passé par l'internaute, la fréquence de partage du contenu sur les médias sociaux.
Stupeur et tremblements chez les webmasters de fermes de contenus et les ingénieurs SEO friands de techniques de référencement Black Hat !
Depuis le passage de Panda, les fermes de contenus dégringolent dans le Page Rank de Google, mais aussi d'une manière générale les annuaires de commerce, les comparateurs de prix, les sites d'avis de consommateurs, les agrégateurs d'annonces, ainsi que les sites d'annonces. Panda jette aux oubliettes les sites à faible contenu original et/ou de faible qualité. Bingo !
Il fallait remonter à 2003 (Mise à jour Florida) pour trouver un changement aussi profond dans les pages de résultats de Google.

Cependant si Panda a pour but la pertinence des recherches sur le World Wide Web, il améliore par ricochet la visibilité des produits Google... Ainsi YouTube (propriété de Google) a grimpé au page ranking, tout comme Daily Motion son concurrent. Mais Google Products, comparateur de prix, profite de la disparition de ses principaux concurrents. Voilà qui pourrait alerter la Commission Européenne en charge d'une enquête contre Google sur un possible abus de manipulation des résultats naturels obtenus par un utilisateur.
En attendant les conclusions de cette enquête, qui pourrait accoucher d'une souris, Panda marque la volonté de Google de rester maître sur ce qui a construit son succès et sa réputation : rendre toujours plus pertinentes les recherches de ses utilisateurs.
Récemment, Matt Cutts annonçait sur son compte Twitter de nouvelles améliorations de l'algorithme Panda. Le monde du SEO reste en alerte !

Bibliographie :
Parts de marché de Google aux Etats Unis. Septembre 2011.
http://www.comscore.com/Press_Events/Press_Releases/2011/10/comScore_Releases_September_2011_U.S._Search_Engine_Rankings

Parts de marché de Google en Europe.
http://www.atinternet.com/Ressources/Etudes/Barometre-des-moteurs/Barometre-des-moteurs-Septembre-2011/index-1-1-6-249.aspx

Google Panda/Farmer : la chasse aux spams est lancée. Guillaume Thavaud. La Lettre Recherche et Référencement n° 125. avril 2011

Les chiffres clés de Demand Media. Le journal du Net. Baptiste Rubat du Mérac, 27/01/2011.
http://www.journaldunet.com/ebusiness/le-net/chiffres-cles-de-demand-media.shtml

High quality sites algorithm launched in additionnal langages. Amit Singhal. Google Webmaster Central Blog. 12/08/2011.
http://googlewebmastercentral.blogspot.com/2011/08/high-quality-sites-algorithm-launched.html

More guidance on building high-quality sites. Amit Singhal. Google Webmaster Central Blog. 06/05/2011.
http://googlewebmastercentral.blogspot.com/2011/05/more-guidance-on-building-high-quality.html

Google Panda : mais que se passe t-il en France depuis quelques semaines. Guillaume Thavaud. La Lettre Recherche et Référencement n°127. juin 2011

Panda : analyse et effets de la mise à jour au RU. Philippe Yonet et Jérôme Spiral. La Lettre Recherche et Référencement n° 126, mai 2011.

La Commission européenne poursuit l'enquête ouverte sur les pratiques commerciales de Google. Alexandre Diehl, Avocat à la Cour, La Lettre Recherche et Référencement N°122. janvier 2011

Une société peut-elle attaquer Google en justice suite à un déclassement de son site par Panda ? Alexandre Dhiel, avocat à la cour, Recherche et referencement n° 129, septembre 2011.

mercredi 26 octobre 2011

Le réseau social en entreprise

Au cours des dernières années, les réseaux sociaux sont devenus des outils de plus en plus incontournables dans notre quotidien. En particulier Facebook, leader mondial, qui permet de suivre l’actualité de ses « amis » au jour le jour. Mais petit à petit, le réseau social a investi le champ professionnel, avec des sites comme Viadeo (français), Linkedin ou Twitter (internationaux) qui permettent, entre autres, de suivre l’actualité d’une entreprise. Aujourd’hui, on observe une tendance grandissante : le réseau social d’entreprise (RSE).

En tant qu'outil issu du web 2.0, le RSE facilite le partage des informations, la libre expression et le dialogue entre experts et non-spécialistes. Sa facilité de compréhension et son ergonomie lui promettent un avenir fructueux. Aux fonctions premières de mise en relation et de conversation du réseau social, s'ajoute des fonctions de partage documentaire, de publication, de coproduction et de gestion de projet qui remettent en question les méthodes de traitement et de diffusion de l'information en entreprise.

Un réseau social d'entreprise comme outil collaboratif ?

Le RSE remplace les échanges de courriels et propose une approche centrée sur l’échange et le partage d’informations par la conversation, de manière moins structurée et moins contraignante que l'outil groupware. Le réseau social facilite l'expression d'un avis personnel. Il permet le foisonnement des idées et crée des dynamiques d'intelligence collective.

Certains RSE proposent des fonctions élémentaires de gestion de projet.

Créer une synergie au sein de l’entreprise :

L'utilisateur du RSE se crée une identité numérique à travers laquelle il va faire apparaître son profil professionnel et ses centres d'intérêts au fur et à mesure de ses contributions. Cette fonction sociale permet d'aller plus loin que le simple annuaire par le rapprochement entre personnes qui partagent les mêmes intérêts à travers leurs activités : lectures, expertises, discussions etc. On entre en contact avec les personnes avec qui l’on a de fortes chances de travailler en commun du fait de la complémentarité de nos compétences. De plus, la participation active des membres du réseau garantie la mise à jour régulière des profils d'utilisateurs.

L’utilisation du réseau social d’entreprise valorise le capital savoir de l’entreprise :

Le RSE remplace la constitution de bibliothèques des savoirs (knowledge management) par un réseau d’experts, facilement identifiables via leurs contributions. Trouver la bonne personne au bon moment, voici le pari que promet de tenir le RSE.

Facilité de consultation de l’information :

Le réseau social d’entreprise recrée le contexte de communication orale : chacun s’adresse en son nom à son entourage et chacun est libre de recevoir ou non l’information. Ce mode de communication permet de garder contact avec son entourage, de rester alerte face à l’actualité et de s’informer efficacement, puisque les informations proviennent d’un réseau constitué par l’utilisateur (experts, collègues, etc.).

Les réseaux sociaux d’entreprise peuvent concerner plusieurs groupes de personnes : collaborateurs, collègues, partenaires, clients, etc. Les enjeux sont alors très diversifiés : améliorer la communication, échanger des informations, donner son avis sur des produits, etc. Le RSE privilégie alors la transversalité au sein de l’entreprise et est aussi ouvert sur l’extérieur.

Faire le choix du réseau social d’entreprise c’est être réactif face au changement et privilégier l’interaction entre personnes plutôt qu’avec des outils.


Pour aller plus loin :

GOUJON Lionel, Réseaux sociaux dans l'entreprise, un levier pour le management des connaissances?, Septembre 2010, www.slideshare.net/goujonlionel/rse-et-km

Le référenciel Useo : http://referentiel.useo.fr

Site Collaboratif-info : www.collaboratif-info.fr

Revue Documentaliste-Sciences de l'information, Réseaux sociaux professionnels : le document menacé par la conversation?, 2010/3, Vol.47, http://www.cairn.info/revue-documentaliste-sciences-de-l-information-2010-3.htm


mardi 25 octobre 2011

Michèle Battisti : " Une nécessaire évolution du droit d'auteur"

"De nouveaux modèles juridiques pour accompagner les nouveaux modèles d'accès de l'information ?"

Le monde de l'information a subi une révolution avec l'ère numérique au cours de ces dernières années. Des acteurs comme Google et Facebook permettent l'accès gratuit et quasiment instantané à l'information. Cette évolution pose une nouvelle problématique : la dualité complexe entre le droit d'auteur garant de la propriété intellectuelle et le droit à l'information directement lié à la liberté d'expression.

Le principal problème entre droit d'auteur, droit de propriété et liberté d'expression, c'est qu'ils ont une valeur pratiquement égale dans les droits fondamentaux (Droit de l'homme et du citoyen, Convention européenne des Droits de l'Homme, ...)

Des pays européens comme l'Allemagne, les Pays-Bas,... ainsi que les États-Unis ont mis en place des moyens pour hiérarchiser ces notions, par exemple : le conseil constitutionnel du 10 juin 2009. Il note une nouvelle dimension à la liberté d'expression en soulignant la "capacité à contribuer, à diffuser l'information et à participer à la création, à l'échange d'idées et d'opinions" (http://www.conseil-constitutionnel.fr/decision/2009/decisions-par-date/2009/2009-580-dc/decision-n-2009-580-dc-du-10-juin-2009.42666.html ) et faisant de l'accès à internet, "un droit fondamental".
En autre, le rapport de l'ONU du 16 mai 2011, (http://www2.ohchr.org/english/bodies/hrcouncil/docs/17session/A.HRC.17.27_en.pdf) remarque "la valeur de la liberté sur internet et il s'oppose ainsi aux politiques de blocage et de filtrage de l'internet..." ce rapport n'a pas été approuvé par la France mais par 41 autres pays.
Les États-Unis disposent d'un Fair use qui établit des règles et des exceptions en essayant de tenir compte des intérêts de l'auteur et ceux du public. Ce système comporte de nombreux dilemmes car il est basé sur l'intention de l'usage des documents et donne aux juges ce pouvoir d'appréciation. Michèle Battisti explique ces dilemmes dans le texte, "Vers un fair use en Europe? La France, village gaulois ou roseau?" où elle soutient qu'un tel système en France"serait tout à fait désastreux pour la création de s'incliner dans l'urgence sans en mesurer toutes les conséquences".

La France bénéficie d'exceptions strictement définies qui laissent peu de marge de manœuvre dans la diffusion d'information d'œuvre ayant droit.
Par exemple: pour une critique de film, ou l'analyse, il n'est pas légal pour le critique de montrer l'œuvre en question. L'exception n'est là que pour se défendre devant un juge elle est nullement un droit. Le juge évalue l'exception suivant trois étapes précises.(http://www.foruminternet.org/specialistes/veille-juridique/actualites/copie-privee-la-cour-de-cassation-explique-le-test-en-trois-etapes.html)

Néanmoins, le droit à l'information ne remet pas en cause le droit d'auteur puisqu'il existe d'autre recours comme le droit à la concurrence (si l'information est trop chère) ou les licences libres.

Le droit d'auteur doit cependant évoluer puisque son but premier est bien de protéger l'œuvre dans son identité intellectuelle mais aussi pour protéger l'investissement par commerce des œuvres. L'utilisation d'une œuvre via internet vise généralement une activité non marchande Michèle Battisti évoque l'idée d'"un droit d'auteur 2.0". Un aménagement des lois dans ce domaine est à prévoir sans pour autant radicaliser le système déjà en place afin garder l'identité physique et morale de l'œuvre et de son l'auteur.

Utilistateurs de Facebook : apprentis documentalistes ?

Il est certain que Facebook, réseau social aux 800 millions d'utilisateurs a encore de beaux jours devant lui. Lors de la dernière conférence annuelle F8 Mark Zuckerberg a présenté de nouvelles fonctionnalités qui donnent une nouvelle ampleur au réseau social. En effet de nouvelles applications changent la donne en faisant du site un nouvel outil performant pour les utilisateurs.

Tout d'abord Open Graph 2.0 permet d'intégrer un maximum d'applications à Facebook qui trouve des partenaires prêts à profiter du vivier d'internautes potentiels. On peut citer Deezer ou Spotify par exemple. Les activités web sont centralisées afin de le rendre incontournable. Nouveau potentiel, nouvelles applications, nouveau look mais cela change t-il quelque chose pour l'utilisateur ?

Un utilisateur qui devient auteur et créateur


Il est intéressant d'examiner Timeline, "l'histoire de votre vie" selon l'expression du fondateur ou littéralement ligne du temps qui correspond à la possibilité pour l'utilisateur d'illustrer en images, textes et pages qu'il apprécie les moments clefs de sa vie. En effet Timeline devient un tableau de bord qui peut retracer la vie de l'utilisateur depuis sa naissance. Cette activité de scrapbooking ou création d'album demande à l'utilisateur de nouvelles compétences : celles de sélectionner l'information qu'il jugera pertinente selon l'idée qu'il se fait d'un évènement qui compte, celle aussi d'éliminer ou de donner moins d'importance à une information qu'il jugera secondaire. Timeline mise sur les capacités de sélection de l'information en vue de la création d'une mini biographie.

Véritable interface intelligent il est accompagné de fonctionnalités qui permettent de partager musique, film, et images avec ses amis en temps réel ainsi que d'avoir accès à leurs activités même si l'on s'était déconnecté. Ainsi Facebook permet à l'utilisateur de s'assurer un accès plus facile aux informations qui intéressent son réseau en temps réel mais il lui permet aussi de qualifier les activités qu'il réalise: je cuisine, je regarde la télé, j'écoute de la musique...C'est l'utilisateur qui définit les termes de son activité grâce à la multiplication des boutons.

Avancée ou poudre aux yeux ?


Les détracteurs de l'ère numérique pourraient opiner que ces fonctionnalités restent des gadgets et que rien ne peut remplacer l'écriture de sa biographie par exemple. Cependant il nous semble que ces outils appellent la créativité des utilisateurs et les amènent à s'interroger sur leur vie afin de déterminer quels sont les faits marquants qui la composent tout en leur demandant de définir leur périmètre en réservant à un petit ou grand nombre l'accès au contenu. Ces outils permettent l'affirmation de soi et la création virtuelle d'une identité qu'il peut être difficile d'appréhender dans la réalité. Facebook serait donc le facilitateur d'une démarche pour une meilleure connaissance de soi tout en stimulant nos potentialités créatives et notre soif de partage et de communication.

Ces fonctionnalités qui vont un peu plus loin dans le dévoilement de la vie privée des utilisateurs constituent une ressource non négligeable pour les annonceurs. On peut noter que l'utilisateur peut faire de la publicité sur son site grâce à la fonctionnalité Sponsored Story. Il voit ses potentialités sollicitées à mesure que la participation des annonceurs et sponsors gagne en visibilité.



http://www.mediassociaux.fr/2011/09/23/limpact-des-changements-de-facebook-pour-les-utilisateurs-les-annonceurs-et-les-fournisseurs-de-contenu/

http://pro.clubic.com/blog-forum-reseaux-sociaux/facebook/actualite-448520-facebook-open-graph-2-risque-centralise.html

http://www.generation-nt.com/facebook-publicite-sponsored-story-actualite-1149411.html

jeudi 20 octobre 2011

ISIDORE, la platerforme numérique de recherche d'information en sciences humaines et sociales

Depuis avril 2011, vous pouvez avoir accès aux données scientifiques de la recherche française en sciences humaines et sociales au format numérique via la plateforme ISIDORE (ou Intégration de Services, Interconnexion de Données de la Recherche et de L'Enseignement).

Cette plateforme de recherche, mise en place par le Très Grand Equipement (TGE) Adonis du CNRS, centralise plus d'un million de documents dont ceux de Revues.org, de Cairn, de Persée, du portail des thèses ou encore aux articles présents sur HAL-SHS.
Le but de celle-ci est d'être un outil de veille informationnelle, de mettre en valeur des contenus scientifiques pas toujours simples à obtenir, et d'être un complément face à des services comme Mir@abel ou Index Savant.

Ces données sont essentiellement en accès libre. Ainsi, TGE Adonis permet à un public varié de pouvoir avoir accès à l'information. Il s'adresse aussi bien à des étudiants de tous niveaux pour leur recherche, aux enseignants-chercheurs, et aux amateurs de la discipline.

Toutefois, avoir accès librement à un document est bien, mais trouver l'information que l'on cherche dans une plateforme qui gère un million de documents n'est pas toujours aisée. Et les créateurs de la plateforme l'ont bien compris.

C'est LA valeur ajoutée du site.

La recherche peut s'effectuer par siècle, par types de documents, par catégories, par périodiques historiques, par disciplines, par langues, par nature des documents, par nature des sources, par collections et organisations. Les fonctionnalités de recherche ne s'arrêtent pas là, car cette recherche se fait par arborescence. A chaque fois que vous choisisez d'affiner votre recherche, ISIDORE vous propose d'autres critères permettant d'affiner encore votre demande. Et à chaque fois, ISIDORE vous indique combien d'articles correspondent à votre demande.

La plateforme propose aussi un certains nombre d'outils du web 2.0 comme les flux RSS ou les réseaux sociaux, mais aussi un annuaire qui détaille les différentes sources qui alimentent ISIDORE.

ISIDORE est un outil essentiel pour le recherche rapide et efficace de l'information, ce qui n'est pas toujours le cas sur des sites comme Persée, Cairn, le SUDOC ou encore sur les sites des bibliothèques universitaires. De plus, contrairement à certaines plateformes, des outils du web 2.0 ont au moins le mérite d'exister, et mettent un peu de modernité et de jeunesse dans un domaine perçu comme peu attractif par les non spécialistes et les non amateurs.

Source: http://eduscol.education.fr/numerique/veille-education-numerique/octobre-2011/isidore

Informations complémentaires sur la plateforme ISODORE: http://www.tge-adonis.fr/wiki/index.php?title=Plateforme_de_recherche_ISIDORE

Le courriel est-il un document comme les autres ?

Initialement, la messagerie a été créée comme un outil de communication asynchrone. Mais par la suite, grâce à sa simplicité, chacun s'est approprié cet outil très facilement et l'a détourné vers d'autres usages, parmi lesquels on trouve couramment : envoi de documents et archivage, délégation et suivi de tâches, envoi de rappels (parfois à soi-même), stockage de noms et d'adresses, demande d'assistance, programmation de RV... [1]. On trouve même des conseils pour mieux détourner le courriel [2].

La boîte de réception s'est alors bien remplie et depuis elle a beaucoup de mal à se vider. Les messages qui ne quittent pas la boîte de réception appartiennent généralement à la catégorie des tâches non terminées : à faire (action longue), à lire (message long), au cas où (le statut du message n'est pas encore figé et peut évoluer), discussion en cours (conserver tous les messages pour retrouver le contexte dans le cas où l'historique n'est pas transmis avec la réponse ). D'autres messages restent dans la boîte pour des raisons juridiques : conservation des originaux des mails engageants.

Plusieurs raisons empêchent le classement de ces messages.
D'une part, disposer d'un rappel visuel dès qu'on ouvre sa messagerie est très important : le geste supplémentaire consistant à ouvrir un dossier doit être volontaire, il est donc souvent de trop. On souhaite également que les données relatives aux tâches en cours restent accessibles.
D'autre part, classer est une tâche cognitive coûteuse. Il faut prévoir la récupération dès le classement, le nom du dossier doit être significatif et le rester dans le temps, il faut évaluer l'importance de l'information avant de la classer (d'où stratégie d'attente). La taille du dossier ne doit pas être trop petite (multiplication des dossiers) ni trop grande (on se retrouve au point de départ).

On entend souvent dire que le courriel est un document comme les autres et qu'il doit être géré par la GED. Mais au vu de ce qui précède, il est clair que la GED à elle seule ne peut suffire.

Les pistes pour améliorer la situation doivent tendre d'une part à réduire le flux des courriels, d'autre part à structurer les courriels pour permettre leur prise en charge par un outil de gestion (GED ou outil dédié aux courriels [3]).
Pour réduire le flux, il faut revoir l'utilisation du courriel [4] et les processus de l'entreprise. Faut-il pour autant tendre vers l'entreprise "zéro mail" ? L'exemple d'ATOS reste à surveiller [5].
Quant à la structure des courriels, il faut commencer par former les utilisateurs (voir des conseils en [6] par exemple) et envisager des formulaires.

[1] http://www.sigchi.org/chi96/proceedings/papers/Whittaker/sw_txt.htm
[2] http://www.nytimes.com/2011/09/08/technology/personaltech/an-easy-way-to-stanch-the-e-mail-flood.html
[3] http://cr2pa.fr/WordPress3/?p=113
[4] http://www.lifehack.org/articles/communication/when-to-use-email-when-not-to.html
[5] http://atos.net/en-us/about_us/zero_email/default.htm
[6] http://www.liv.ac.uk/csd/email/emailuse.htm

lundi 17 octobre 2011

Le livre numérique augmenté : l'avenir de l'édition ?

Si l'édition papier a encore de beaux jours devant elle, l'avenir numérique du secteur de l'édition est en marche ! Pour preuve, la large place faite au livre électronique et à ses contenus multimédia lors de la 63e foire internationale du livre de Francfort - grand messe de l'édition mondiale où se négocient les droits et où l'on s'informe des tendances et des dernières nouveautés - qui s'est achevée ce week-end. Les participants ont en effet pu accéder aux conférences via les livres numériques enrichis et ainsi tester directement les toutes dernières innovations de l'industrie du livre en matière d'édition électronique.

Rappelons qu'un livre numérique est un livre dématérialisé qui peut être transporté par le moyen d'un fichier informatique. Contrairement au livre papier, le livre électronique permet de naviguer, de faire des recherches, d'annoter ou de mettre en relief du texte. Il propose une interactivité et des fonctionnalités plus ou moins élaborées selon qu'il est homothétique (c'est-à-dire qu'il reproduit à l'identique un livre papier) ou enrichi.

Ce qui caractérise les livres numériques enrichis c'est leur aspect multimédia : intégrant de la couleur, du son, de la vidéo, pouvant même mêler 3D et 2D (principe de la réalité augmentée), des commentaires, des liens et des connexions vers des réseaux sociaux, ils tendraient à ressembler de plus en plus à un site web.

Alors où en est le marché du livre numérique en France ? Une étude, "The Global Ebook Market: Current Conditions & Future Projections", de Rudiger Wischenbar, fait le point sur ce marché, encore modeste, mais qui ne cesse de croître, dans 13 pays. Aux Etats-Unis (leader du marché), la part des ebooks entre 2008 et aujourd'hui est passée de 0,6 % à 6,4 %. En France, début 2011, le marché de l'ebook représentait 0,5 % du marché global. En juin dernier le SNE annonçait un chiffre de 1,8 %.

En outre, le marché en France est rendu particulièrement complexe par le contexte politique et culturel : TVA sur les ebooks supérieure à celle sur les livres (19,6 % contre 5,5 %), prix fixés par les éditeurs (loi sur le prix unique votée), conflits relatifs à la numérisation des oeuvres entre Google, Amazon et les éditeurs avant que des accords ne soient trouvés...

Quoi qu'il en soit, nul doute que l'arrivée des nouveaux readers et autres tablettes (cf. le nouveau Kindle d'Amazon, l'attendu Kobo by Fnac, etc.) à des prix attractifs, faciles à utiliser et des librairies en ligne possédant un choix considérable d'ouvrages disponibles en français (35 000 pour Amazon, 80 000 pour la Fnac) ne boostent encore les ventes et incitent les éditeurs à rivaliser de créativité pour proposer des livres numériques innovants dont les fonctionnalités exploitent toujours plus les possibilités offertes par ces nouveaux supports en constante évolution.

Sources
http://actu-des-ebooks.fr/2011/10/12/the-global-ebook-market-une-etude-complete-sur-le-marche-des-ebooks/
http://www.publishersweekly.com/binary-data/ARTICLE_ATTACHMENT/file/000/000/522-1.pdf
http://www.idboox.com

Quelques exemples de livres numériques augmentés
http://www.youtube.com/watch?v=jOijVrER-pU&feature=related
http://www.youtube.com/watch?v=LGUqe9u56Xo&feature=player_embedded
http://www.youtube.com/watch?v=xbhEafUIvsw

La Cnil s'intéresse au cloud computing

La Commission nationale de l'informatique et des libertés (Cnil) se saisit d'un nouvel enjeu de l'ère numérique : le cloud computing.

Pour mémoire, le cloud computing (ou informatique en nuage) consiste "à déporter sur des serveurs distants des traitements informatiques traditionnellement localisés sur des serveurs locaux ou sur le poste client de l'utilisateur" (Source : Wikipédia, mise à jour : 16.10.2011). Les entreprises n'ont plus besoin de serveurs dédiés puisqu'un prestataire leur assure une puissance de calcul et de stockage à la demande. Le succès de cette nouvelle pratique est manifeste et s'explique par : sa simplicité, sa flexibilité, le paiement à l'usage, un accès léger depuis n'importe quel type de terminal, la virtualisation et la mise en commun des ressources.

Comment s'étonner alors que le marché du cloud computing s'élève à 6 milliards d'euros en Europe, dopé par une croissance annuelle de l'ordre de 20 % !

Toutefois, le cloud computing induit une certaine opacité puisqu'il prend en charge le versant informatique complexe, ce qui permet aux clients de se focaliser sur leur activité principale. De cette opacité naît une inquiétude ou au moins une interrogation quant à la protection des données personnelles et à la sécurité de celles-ci. Ces questions sont d'autant plus légitimes qu'elles s'inscrivent dans un environnement numérique mondialisé où le cloud computing se caratérise par la volatilité des données et la multiplicité des serveurs auxquels il recourt. Les entreprises intéressées par ce service ainsi que les pouvoirs publics sont préoccupées par ces problématiques.

En conséquence, la Cnil souhaite étudier les solutions juridiques et techniques qui assureraient un niveau élevé de protection de ces données, tout en ayant à l'esprit les enjeux économiques du marché. Elle lance ainsi une consultation auprès des professionnels, du 17 octobre au 17 novembre 2011 : la Cnil interroge les différents acteurs, qu'ils soient clients ou prestataires (par exemple : "Que pensez-vous d'un régime juridique spécifique pour les prestataires?") et partage avec eux les solutions qu'elle envisage (sur le droit applicable, l'encadrement des transferts, la sécurité des données...) via un document de dix-sept pages téléchargeable depuis son site et à lui retourner.

A l'issue du traitement des réponses, des grandes orientations seront dégagées puis publiées sur le site de la Cnil avec les solutions retenues. A suivre...

Source : "Cloud computing : la Cnil engage le débat" publié le 17 octobre 2011 sur le site de la Cnil.

jeudi 13 octobre 2011

Europeana : la bibliothèque numérique européenne en pleine évolution

Europeana est la bibliothèque numérique européenne créée dans le but de rendre le patrimoine culturel et scientifique de l'Europe accessible au grand public avec des Images, des Textes, des Sons et des Vidéos.

Son enrichissement est le résultat d’une volonté politique.
Et la récente refonte de son portail lui apporte une vraie valeur ajoutée.

Le résultat d’une volonté politique

Europeana a été lancée officiellement par la Commission européenne en novembre 2008.

Les états de l’UE se sont engagés à mettre en commun les ressources numérisées de leurs bibliothèques nationales (livres, matériel audiovisuel, photographies, documents d'archives, etc.) afin d’assurer via Internet la conservation, une diffusion transnationale et un accès public et gratuit de ces documents culturels numérisés libres de droit.

1500 institutions (notamment la Bibliothèque Nationale de France, la British Library, le Rijksmuseum d'Amsterdam et le Louvre) ont participé à ce projet. La France et l’Allemagne en sont les principaux contributeurs.

L'initiative de Google avec le projet Google Book Search (anciennement Google Print) a en effet poussé les pays européens à se questionner sur leur patrimoine et à réagir rapidement pour proposer une alternative européenne au monopole de Google et au problème concomitant de droit d’auteur.

A son lancement, Europeana proposait 2 millions de documents culturels. Trois ans plus tard, elle dépasse largement les objectifs fixés. Les objets consultables en ligne et/ou téléchargeables (deux tiers de photographies, cartes, tableaux, pièces de musées et autres images numérisés, pour un tiers de textes numérisés) s’élèveraient à 15 millions selon les derniers articles circulant sur le web ou plutôt - comme l’indique le dernier communiqué de presse d’Europeana du 12 octobre 2011- à 19 millions de documents.

Cependant, mal organisé et encore mal connu, le contenu de cette bibliothèque se devait d’être repensé après trois ans d’une telle croissance. Face à l’enrichissement de sa base et au développement du Web2, Europeana a réagi en proposant un nouveau site refondu.

Un site métamorphosé

En ce mois d’octobre 2011, Europeana a présenté un site complètement refondu, intégrant de nouvelles fonctionnalités et élargissant sa présence sur le web.

Grâce aux retours de ses utilisateurs, l'ergonomie du nouveau site a été repensée pour devenir « plus visuelle, plus interactive et plus facile à utiliser » :
  • Le portail présente une nouvelle page d'accueil épurée et une navigation dynamique (carrousel d'images permettant la mise en valeur de collections et/ou d'expositions virtuelles),
  • Le site est adapté aux nouveaux usages sociaux (plus d’interactivité, d’accessibilité, de personnalisation) :
    • interface adaptée pour les écrans tactiles iPads et Androïd,
    • espace personnel Mon Europeana (pour sauvegarder ses recherches et articles préférés, indexer ses documents favoris)
    • liens vers Wikipedia et Amazon pour poursuivre ses recherches,
    • ciblage des droits de téléchargement gratuit (le téléchargement se faisant sur le site de l’institution contributrice) et réutilisation des points forts culturels trouvés sur le site,
    • suivi des actualités et possibilité de partager, discuter ou blogger autour du contenu grâce à sa newsletter, son blog, ses pages Twitter et Facebook, ainsi que son LinkedIn groupe pour les professionnels du patrimoine
    • recherche de contributions (retours d’expérience et suggestions d’utilisateurs, ThoughtLab, projet de collecte de documents de particuliers sur la Guerre de 14-18 en Allemagne).
  • La recherche a été restructurée pour plus de précision et de logique.
    La richesse du catalogue de recherche peut désormais être explorée :
    • par l’unique champs de recherche (en tapant des mots ou expressions répondant aux simples questions qui ? quoi ? quand ? où ? puis une fois les résultats affichés sous forme de vignettes en affinant par média, langue, date, pays, contributeur ou droits)
    • par contenu associé
    • par la liste d'institutions contributrices
    • par une frise chronologique interactive.

      Couplé avec le projet de moteur de recherche européen Quaero, le site nécessite des registres de métadonnées afin de fonctionner efficacement.

En route vers l’idéal d’une bibliothèque riche à l’architecture juridique ouverte

Dans son blog S.I.Lex, Calimacq (Lionel Maurel, conservateur à la BNF particulièrement intéressé par les questions juridiques) - qui rêvait d’une bibliothèque à architecture ouverte - constate qu’Europeana n’est maintenant pas si éloignée de cet idéal, plusieurs projets ayant été conduits pour permettre la préservation du caractère ouvert du domaine public numérisé et la libération des droits sur les contenus et métadonnées.

Le récent protocole d’accord, signé le 20 septembre 2011 sous l’égide de la Commission européenne, entre bibliothèques, éditeurs, auteurs et sociétés de gestion des droits d’auteurs – qui permettra aux bibliothèques européennes de numériser et rendre accessibles livres et revues épuisés et hors-commerce tout en garantissant le respect des droits d’auteur - devrait largement bénéficier à l’enrichissement de la base Europeana. Rappelons au passage que Google a aussi signé cet été avec Hachette un accord pour la numérisation d'oeuvres épuisées dont la BNF devrait aussi tirer parti.

L’autre avancée significative est l’accord (« Data Exchange Agreement ») adoptée le 21 septembre 2011, qui prévoit la mise à disposition libre de toutes les métadonnées des oeuvres numérisées de ses collections, sous licence CCo (la licence Creative Commons Zéro, CCo, est une licence libre Creative Commons permettant au titulaire de droits d'auteur de renoncer au maximum à ceux-ci dans la limite des lois applicables, afin de placer son œuvre au plus près du domaine public). La Conférence des bibliothécaires nationaux européens (CENL) a voté massivement pour soutenir les licences ouvertes de leurs données.

En pratique, cela signifie une accessibilité croissante et une réutilisation libre des métadonnées des bibliothèques (titre, auteur, date, empreinte, lieu de publication, etc) décrivant des millions de livres et de textes jamais publiés en Europe, ce qui accroîtra la puissance de recherche d’Europeana. Cette avancée touche au droit des bases de données en respectant les principes de l’Open Data dans lesquels Europeana souhaitent s’engager notamment avec son programme d’Open Linked Data qui lui permettra de jouer un rôle majeur dans le développement du web sémantique.

Par ailleurs, Europeana a, d’une part, développé un Public Domain Calculator qui après remplissage d’un questionnaire établit un diagnostic juridique permettant de calculer automatiquement si une oeuvre appartient ou non au domaine public, et d’autre part, elle a établi un guide de bonnes pratiques pour encadrer la réutilisation des données et contenus.


La grande bibliothèque numérique européenne est donc en marche avec le soutien de la Commission Européenne.

Les étapes importantes qu’elle a franchies doivent toutefois être relativisées. Les détenteurs des droits conservant en amont la décision de numériser et de rendre public, cette liberté pourra toujours la freiner. De même que la liberté de choix des institutions culturelles pour les licences attachées à leurs contenus (usage des licences Creative Commons – et plus encore de la Public Domain Mark). Enfin les coûts et temps de numérisation ne sont pas à négliger !


Sources :

www.europeana.eu un site portail pour « Explorez les collections culturelles d’Europe de l’Antiquité à nos jours »

Article « Europeana » sur Wikipedia

Apports de la nouvelle version signalés dans la lettre d’information d’Europeana d’octobre 2011article de Bruno Texier paru le 12/10/11 sur Archimag

Adoption d’un nouveau Data Exchange Agreement :
annoncée le 22/9/11 par le site Creativecommons

Accord de numérisation des livres hors commerce :
- Communiqué de presse de la Commission européenne du 20/09/11 : Droits d'auteur: la Commission aide à conclure un accord visant à rééditer un plus grand nombre de livres épuisés
- Actualité Vie publique du 28/09/11 : Bibliothèques européennes : numériser les livres hors-commerce
- Site de presse Actualitte, article de Xavier Gillard du 22/09/11 : Europeana se nourrira des oeuvres épuisées des 27 Européens
- Site Clubic.com, article d’Olivier Robillart du 22/09/11 : Numérisation : Europeana peut utiliser les œuvres "épuisées" des éditeurs

Implications juridiques et ouverture à l’Open Data :
Blog S.I.lex article de Calimaq du 10/10/11 : L’architecture juridique ouverte d’Europeana

Importance du projet Europeana :
Sur le site Actualitté, article de Xavier Gillard du 26/09/11 : Europeana : Un projet important pour la Commission


mercredi 12 octobre 2011

Qu'est-ce que le Web sémantique ?

Le Web - est-il besoin de le rappeler à la mémoire du lecteur de ce billet, internaute averti qui en vaut deux - est une application d'Internet permettant de consulter des documents (pages de sites) via un navigateur selon un système hypertexte. Le Web 1.0 conçu en 1989 par Tim Berners-Lee et publicisé dès 1993, est donc un Web "documentaire".

Si son architecture demeure la même sur le principe (URLs, protocole HTTP, langage HTML), le Web sémantique diffère de ces prédécesseurs quant à son contenu : il contient des documents non pas en langage naturel mais en "métadonnées" répondant à des standards développés par le W3C et destinées à être traitées par des logiciels. Pas évident pour le profane de se représenter les implications d'une telle "révolution". Pour mieux les saisir, posons-nous donc la question de ses applications.
On a entendu çà et là qu'il pourrait à terme permettre le développement de la recherche dite par "entités nommées" via l'utilisation de moteur de recherche, par le biais de la génération d'algorithmes et de l'établissement de relations sémantiques entre des données (bon, c'est toujours compliqué) : concrètement, au lieu d'utiliser des combinaisons de termes, l'utilisateur pose simplement sa question comme il l'exposerait oralement. Par exemple, si l'on recherche un lieu pour sortir à Paris le soir même, là où l'on inscrivait "sortir Paris [date du jour]", en affinant ensuite la recherche par activité (théâtre, concert, etc), il deviendra possible d'écrire simplement "où sortir à Paris ce soir". Ré-vo-lu-tion. En vérité, il n'en serait rien.
Tim Berners-Lee est en effet revenu sur ces spéculations, les tenant pour déraisonnables. Il s'agissait simplement, selon lui, de se doter d'un autre langage que le langage naturel pour représenter des ressources (note : est une ressource "tout ce qui est identifié par une URL" générant sa "représentation", par opposition au document qui, lui, existe). Ce langage est le RDF, qui permet de créer des identifiants de ressources et de les associer de manière libre. En résulte un enrichissement non négligeable des communications entre données sur le Web : chacun peut relier deux ressources via une troisième là où le lien n'existait pas auparavant. Pour son inventeur, le Web sémantique pourrait tout aussi bien s'appeler "Web de données". Là où il apparaît finalement comme révolutionnaire, c'est que les notions de vérité ou de fausseté n'ont pas lieu d'être avec le RDF : l'agencement des notions tel qu'il le permet est libre et écarte de fait toute imposition d'une ontologie universelle. Liberté d'expression pure et simple. Mais limitée à la mise à disposition sur Internet de données enfermées dans des bases. Une de ces illustrations est notamment le mouvement de l'Open Data (ouverture des archives de diverses administrations).

Certains parlent déjà de Web 3.0, définissant ainsi a posteriori le Web 2.0 comme celui qui, dépassé, aura reposé sur la contribution des internautes : le Web social et ses forums, réseaux , etc. Ce serait être quelque peu réducteur : est-il envisageable désormais de se passer des échanges permis par le Web d'aujourd'hui ? Qui sait, peut-être le "lecteur averti" aura-t-il envie de partager son idée sur la question à l'occasion d'un commentaire...

Sources :
http://cblog.culture.fr/2011/09/07/web-semantique-iri-opendat
http://www.clubic.com/internet/actualite-391340-retour-enjeux-web-semantique.html
http://fr.wikipedia.org/wiki/Web_s%C3%A9mantique

lundi 10 octobre 2011

Michael Thomas : « L'usage de la technologie n'est pas défini par l'âge »

"Il y a du numérique pour tout" : le numérique est entré en force dans notre environnement au début des année 1980. Le mythe du Digital Native conçu par Marc Prensky en 2002 distingue 2 générations :
  • celle qui a grandi dans cet environnement : les natifs du numérique,
  • celle qui a grandi hors de cet environnement et qui l'a adopté plus tard : les migrants du numérique (les plus de 30 ans !)
Marc Prensky assure que les natifs du numérique parce qu'ils ont développé des compétences particulières "apprendraient différemment de leurs parents et auraient, en conséquence, besoin d’un enseignement spécifique". Il parle d’« une rupture importante sans point de retour ».


Les natifs du numérique sont-ils des mutants ? Y a-t'il un fossé entre ces deux générations ?


Michael Thomas (chercheur spécialisé en numérique et en éducation) 'déconstruit' ce concept. Dans le livre Deconstructing digital natives, écrit par plusieurs chercheurs sous sa direction, il nous fait part des résultats des études menées :
  • "des personnes qui n’appartiennent pas à cette prétendue génération des natifs ont une utilisation des nouvelles technologies aussi sophistiquée voire plus. L’usage de la technologie n’est pas défini par l’âge".
  • Si numérique renvoie souvent à l’idée "d’une « amélioration » et d’une « transformation » de la faculté à résoudre toutes sortes de problèmes", il ne faut pas partir du postulat que tout usage de la technologie est bon. Il faut rester vigilant, car de "nouvelles questions sont soulevées en termes de vie privée, de sécurité, de plagiat, de jeux en ligne, de pornographie etc."
  • Les jeunes auront toujours besoin d'être guidés pour "comprendre les opportunités offertes par le numérique (tant en termes d’accès qu’en termes de créativité) et les responsabilités qu'ils portent".
Sources :
http://www.rslnmag.fr/blog/2011/10/3/michael-thomas_l-usage-de-la-technologie-n-est-pas-defini-par-l-age_/
http://fr.wikipedia.org/wiki/Natif_numérique
http://www.rslnmag.fr/vu-sur-le-web/314/sale-temps-pour-les-digital-natives

La mauvaise réputation sur Internet : la protection du droit à l’oubli par la Commission nationale de l’informatique et des libertés

Qui n’a pas déjà tapé dans Google son nom pour savoir “ce que pensent les autres de moi ?” et "quelles traces laissons-nous sur Internet ?"

Si l’on ne fait pas attention, très rapidement, toute personne, y compris un recruteur potentiel, peut apprendre une inscription sur Facebook, MySpace ou Twitter et découvrir des bribes de la vie privée plus ou moins gênants.

La question se pose dans des conditions plus dramatiques quand une personne a été condamnée il y a de nombreuses années, mais qu’une mention figure encore sur des sites web.

Un tel cas de figure a été étudié par la Commission nationale de l’informatique et des libertés (CNIL) qui a rendu public le 10 octobre 2011 une décision du 12 juillet 2011. Elle a en effet prononcé une peine d’amende de 10 000 euros à l’encontre d’un site web qui a publié de nombreuses décisions de justice non anonymisées. (consultable à l'adresse : http://www.cnil.fr/fileadmin/documents/La_CNIL/decisions/D2011-238-LEXEEK.pdf).

Il est cité dans un article du Monde commentant cette décision (Pour le droit à l'oubli, le Web est défaillant, article du Monde, Laurence Borredon, 8 octobre 2011, consulté le 10 octobre 2011, http://www.lemonde.fr/technologies/article/2011/10/08/pour-le-droit-a-l-oubli-le-web-est-defaillant_1584411_651865.html), le cas d’une personne qui a vu apparaître son nom dans un arrêt de la Cour de cassation qui l’avait condamnée en 1997 pour des faits d 'escroquerie. Elle avait retrouvé cette décision par l’intermédiaire de Google dans ce site proposant de la jurisprudence.

Dans une interview donnée dans le même journal le même jour (Droit à l'oubli: "Actuellement, il manque des solutions juridiques", consulté le 10 octobre 2011, http://www.lemonde.fr/technologies/article/2011/10/08/droit-a-l-oubli-actuellement-il-manque-des-solutions-juridiques_1584412_651865.html), Monsieur Yann Padova, secrétaire général de la Commission de l ’informatique et des libertés rappelle la nécessité de conserver les données personnelles le temps de son utilisation et surtout de permettre “le mise en œuvre cette liberté fondamentale : celle de changer d'avis et de changer de vie”.

Sans entrer dans le détail de la décision de justice (http://www.cnil.fr/la-cnil/actu-cnil/article/article/droit-a-loubli-sur-internet-injonction-de-cesser-le-traitement-et-amende-de-10000-euros-pour/), la question est posée du droit à l’oubli sur Internet et de la e-réputation. Comment ainsi contrôler sa e-réputation et faire valoir son droit à l’oubli ?

La CNIL propose, dans son rôle de sensibilisation auprès du grand public,une fiche pratique constituée de mesures préventives : http://www.cnil.fr/en-savoir-plus/fiches-pratiques/fiche/article/le-reputation-en-questions/.

En cas de violation de son identité numérique, cette institution recommande de faire appel à des sociétés spécialisées (comme ReputationSquad) et en cas de besoin, elle propose une assistance pour porter plainte :http://www.cnil.fr/vos-libertes/plainte-en-ligne/.