mardi 29 mai 2012

Humer l'ère numérique

Si vous voulez vous tenir au courant de l'actualité et des dernières tendances de l'information numérique, rendez-vous à I-Expo !

Le salon de l'information, de la veille et de la connaissance se tiendra les 13 et 14 juin 2012 à Paris, à la Porte de Versailles. Cet évènement est organisé par le groupe SPAT, en partenariat avec le GFII (Groupement Français de l'Industrie de l'Information), groupe composé d'acteurs du marché de l'information et de la connaissance (producteurs d'information, éditeurs, serveurs, diffuseurs d'information, prestataires, éditeurs de logiciels, cellules de veille, bibliothèques, acheteurs d'information…).
Le programme est choisi par un comité scientifique, composé de professionnels, de chercheurs et d’experts. Le salon I-expo en est cette année à sa 29ème édition, ce qui montre qu'il a su évoluer pour toujours proposer des thématiques qui reflètent l'actualité. Il a commencé en étant le "Congrès national français sur l'information et la documentation", puis le salon "Marchés et industries de l'information", et il est aujourd'hui la référence en matière d'actualité numérique.


Les thèmes de réflexion :

Voici, entre autres, les grands thèmes qui seront abordés cette année : le web sémantique, les réseaux sociaux, la veille stratégique, le livre électronique, l'e-reputation, le cloud computing, l'industrie des connaissances en Europe, les moteurs de recherche...


Les ateliers proposés :

Quatre types d'évènements vous seront proposés :
- six master-class, sous forme de conférences ou de tables rondes
- des conférences d'application de 45 minutes
- douze ateliers
- quatre conférences plénières

Informations pratiques :

Horaires
Mercredi 13 juin 2012, de 9h00 à 18h00
Jeudi 14 juin 2012, de 9h00 à 18h00

Lieu
Paris - Porte de Versailles - Hall 5.1

Accès
Métro : ligne 12, station Porte de Versailles
Bus : lignes 39, 80 et PC1, station Porte de Versailles
Tramway : T3, station Porte de Versailles
En voiture :
Depuis les autoroutes A1, A4, A6, A10, A15 : prendre direction Paris, accès par le périphérique Ouest, sortie Porte de Versailles.
Depuis A3, A13, A14 : prendre direction Paris, accès par le périphérique Sud, sortie Porte de Versailles.
Depuis le périphérique : sortie Porte de Versailles.

Sources :


La liste des exposants :
http://www.i-expo.net/fr/exposant

So.cl, le réseau social de Microsoft ouvert à tous

Après Google, c’est au tour de Microsoft de lancer son réseau social So.cl. Imiter Facebook ou Twitter semble voué à l'échec, tant ils se sont approprié l'espace social du Net. Mais est-ce vraiment le but de Microsoft ?

Sans rentrer en concurrence directe avec Facebook, leader du secteur récemment introduit en Bourse, Microsoft veut séduire le monde de la recherche et des études avec son nouveau service 2.0, So.cl. Prononcez « Social », à l'américaine.

Lancé officiellement le 18 mai 2012, So.cl n'encourage pas à la création de contenu mais insiste sur le partage de lien. En intégrant son moteur de recherche Bing à So.cl, Microsoft propose aux utilisateurs de partager avec leurs abonnés, à la manière d'un compte Twitter, les résultats de leurs requêtes. Par exemple, un étudiant en économie internationale lance, depuis So.cl, une recherche sur Ben Bernanke. Il peut alors publier un lien vers la biographie officielle du président de la réserve fédérale américaine, afin que ses camarades de cours puissent aussi en profiter. So.cl innove aussi en permettant à plusieurs utilisateurs de visionner et commenter une vidéo simultanément, via un système baptisé « Video Parties ».

Une belle conjugaison de Facebook et Twitter

L'atmosphère sur So.cl est hybride : on retrouve la capacité de publication de Facebook, ainsi que la fluidité et le potentiel de partage de Twitter, tout en oubliant définitivement les ratés de Google +.

L’avantage de So.cl, qui a la possibilité de faire de lui un réseau prometteur, c’est son ergonomie très intuitive, un sourire pour « liker », un petit élément pour partager. Le design se prête rapidement à des mutualisations de l’information alors que les nouveaux formats de profil Facebook endiguent l’information de chaque internaute comme pour geler sa communication au minimum.

En plus de partager, taguer des informations, publier des news et sourire aux autres, on peut faire du « follow » (suivre l'actualité postée par tel ou tel compte). La logique veut que le compte ainsi suivi en fasse de même, en retour. Ce qui n'est pas sans rappeler Twitter, sans bien sûr les contraintes du microblogging, que sont la taille des posts et les réductions de liens.

So.cl propose également une identification unique pour les détenteurs de comptes Windows Live ou Hotmail, mais a aussi ouvert l'identification aux membres de Facebook, avec lequel sont entretenus des liens étroits.

Développé par le Fuse Labs de Microsoft – une équipe d'ingénieurs spécialisée dans l'expérimentation autour de l'Internet social –, le service a d'abord été testé par les étudiants des universités de Washington, New-York et Syracuse.


http://www.so.cl/
Le plus Le Nouvel Observateur
Les Echos
Le Journal du Net

jeudi 24 mai 2012

Une piqûre de rappel avec le communiqué de presse de l'AAFdu 16 mai 2012 : "Archives et politique: le fantasme du broyeur".

Pour peu que je me souvienne, j'ai eu goût à lire il y a deux ans, voire plus, un livre traitant des archives des Hommes politiques contemporains. Honnêteté intellectuelle: je n'ai plus grand souvenir du contenu détaillé des sujets traités dans ce livre, exceptés des débats autour du statut de ces dites archives et l'idée selon laquelle qu'à chaque changement d'exécutif politique, les médias se font l'écho d'un rituel établi: le fonctionnement des déchiqueteuses. Est-ce un hasard ?

Il est d'adage que tout diagnostic exige une étiologie. Il n'est pas de mon propos de chercher les vraies causes de ce "fantasme du broyeur". En revanche l'expression, à juste titre, utilisée dans ce communiqué mérite d'être relayée; tant elle aura le mérite - c'est du moins ma conviction profonde - de corriger quelques idées fausses, parce que stéréotypées, et d'attirer le regard sur le respect et le sérieux que les institutions accordent à l'article L214-3 du Code du patrimoine qui punit tout acte de destruction illégale ou de détournement d'archives publiques. Mieux, il permettra d'expliquer aux médias ou dans les médias quels sont les élans auxquels il est besoin de tendre pour donner au Service Interministériel des Archives de France (avec son Bureau des missions) la portée qui visiblement, pour cause de fantasme ordinaire, voire orchestré, lui a échu.

Certes beaucoup de choses qui méritaient d'être dites à ce sujet l'ont déjà été d'une manière ou d'une autre et peut être même à de nombreuses fois, en revanche cette piqûre de rappel sous forme de communiqué aura le mérite d'éclairer encore plus quelques lanternes au sortir de ces toutes dernières élections présidentielles et de celles parlementaires à venir.Car, il sied de le mentionner, l'écho du "fonctionnement des déchiqueteuses après les élections" ne fait qu’ajouter, si je m'autorise pareille extension dans le propos, de la fumée au brouillard. Le professeur Adhémar Esmein n'avait peut être pas tord de dire, non, sans humour: "le brouillard est tel que je reprends tout de même la plume et rallume mes phares"!


Sources:
http://www.archivistes.org/Archives-et-politique-le-fantasme

mercredi 23 mai 2012

Knowledge Graph : "le graphe de la connaissance" par Google

La célèbre firme de Mountain View  (GOOGLE) vient d'ajouter il y a quelques jours une nouvelle fonction  à son célèbre moteur de recherche, afin de se rapprocher encore plus des utilisateurs finaux : Knowledge Graph (sur la version en anglais du site dans un premier temps).
Comprendre encore mieux la recherche de l’utilisateur et proposer l’information recherchée rapidement en suggérant d’autres informations susceptibles d’intéresser l’internaute grâce à un moteur intelligent, voilà le défi qui nous est lancé.
 Selon Johanna Wright, chef de produit chez Google, « Nous sommes au début d’une transformation qui va nous faire passer d’un moteur d’information à un moteur de savoir. ».

COMMENT CA MARCHE ?

En se basant sur le principe du Web sémantique, il s'agit d'établir les différentes données nécessaires pour décrire un objet et de les collecter pour les proposer sur le moteur de recherche, afin de lier des informations qui restent d’habitude isolées. Un objet, une "entité nommée", peut ainsi être reliée à des données le décrivant et permettre à votre moteur de recherche de vous  proposer des suggestions, afin d'optimiser votre requête. Vous voulez en savoir plus sur votre chanteur préféré, il vous suffit de taper son nom et Google vous proposera tout un tas d'informations liées (homonyme, date de naissance, discographie...)
Ces nouvelles fonctionnalités ne constituent pas encore vraiment de la recherche sémantique, mais le fait de créer une base de données conséquente constitue un pas vers un outil intelligent qui ne connecterait pas simplement des pages de documents par des liens, mais aussi des concepts, des idées, des faits.
Il s'agit en effet, dans un premier temps, d'exploiter une gigantesque base de données alimentée depuis Wikipedia et Freebase, une base de données développée par la société Metaweb rachetée par Google en 2010.
Le but final serait de proposer un outil intelligent capable de répondre à certaines questions en langage naturel, -un assistant proche de celui d’Apple, que l’on interrogerait en langage naturel pour obtenir des réponses…

PRINCIPALES FONCTIONNALITÉS

Google se contentait de renvoyer les personnes qui cherchent quelque chose vers d’autres sites web, le moteur de recherche n’était donc qu’un passage et pas une finalité en soi. Avec le Knowledge Graph cela va changer puisque certaines informations apparaîtront directement sur le site web de Google :

- une désambigüisation de la requête demandée : des mots clés peuvent paraître ambigus et présenter plusieurs significations, alors le moteur proposera une liste de choix,
- obtenir le meilleur résumé : une fenêtre présente un résumé des faits les plus importants liés à la recherche, afin d’obtenir au plus vite le bon résultat,
- davantage de sérendipité dans la recherche en l’approfondissant, grâce à une fonction indiquant les requêtes associées effectuées par d’autres internautes,
- éviter les problèmes d’homonymie,
- des propositions de liens pour en savoir plus sur des sujets proches de celui recherché.

Avec ces nouvelles fonctions, votre moteur de recherche préféré pourra même répondre à la question que vous n’avez pas encore posée. Pour atteindre cet objectif,  Google s’appuiera sur les suggestions, ces suggestions seront proposées grâce aux requêtes qui reviennent le plus fréquemment à propos d’un mot clé. Google se basera donc sur l’historique des recherches pour proposer les suggestions aux internautes.

EN CONCLUSION

Google ne doit toutefois pas oublier que ses revenus proviennent justement des sites tiers et doit donc jongler entre amélioration de son moteur de recherche et préservation de son modèle économique.
 N'y a t- il pas un risque pour Wikipedia de voir le nombre de ses visiteurs chuter en flèche vu que l’information sera disponible sur Google ? 
Google améliore la recherche pour les visiteurs, normal c’est le but. En revanche, certains webmasters auront des raisons de s'inquiéter en voyant le nombre de leurs visites chuter …

SOURCES



EN SAVOIR PLUS SUR LE WEB SEMANTIQUE



POUR ESSAYER


VIDÉO DE DÉMONSTRATION











Alphalire "Connectez-vous à la littérature de demain"


Pour la première fois en vingt-cinq ans d'existence, le Festival du premier roman de Chambéry offre à ses participants une plateforme pour lire, diffuser et partager des premiers romans. Numérisées, ces oeuvres de fiction ont été sélectionnées en mars par les adhérents-lecteurs du Festival qui recevra, entre le 31 mai et le 3 juin, quatorze auteurs francophones et sept européens (italiens, espagnols, allemands, roumains et anglais).
Avec Alphalire, les curieux de nouveaux styles et ceux qui veulent participer au choix des concurrents au Festival et faire émerger les auteurs de demain, pourront laisser trace (tags et commentaires) de leur émotion et la faire partager directement sur les réseaux sociaux.

Alphalire étend encore la communauté de lecteurs du Festival et l'espace de diffusion de ces nouveaux auteurs avides de reconnaissance.
Alors, quand vous "connectez-vous à la littérature de demain"?

lundi 21 mai 2012

La curation pour les nuls !


Le dernier numéro de la revue Documentaliste-SI, consacré à la curation, nous donne l’occasion de faire le point sur cette pratique, qui depuis le début de l’année 2011 fait l’objet de nombreux débats et discussions.

Une cure contre l’infobesité
Le mot curation vient de l’anglais content curation ou data curation, par analogie avec la mission du curator, le commissaire d’exposition chargé de sélectionner des œuvres d’art et de les mettre en valeur pour une exposition ; en remontant encore plus loin dans l’étymologie, les mots curator et curation prennent leur racine dans le latin curare, soigner. En effet, la curation de contenu est une pratique qui consiste à « prendre soin » des informations présentes sur le Web. Le but est de sélectionner les contenus les plus pertinents pour un sujet donné, les éditer et les partager, en leur donnant ainsi une meilleure visibilité et lisibilité. Elle serait donc le seul remède efficace contre la surabondance d’information que connaît le Web depuis les années 2000.

La découverte de l’eau chaude ?
La curation repose sur trois axes fondamentaux : la sélection des contenus ; l'éditorialisation, qui inclut l’organisation, la structuration et la mise en forme des ces contenus (grâce à des plateformes de curation et à des outils de publication automatique) ;  et le partage sur le Web. Mais quelle est donc la différence entre la curation et les activités qui constituent depuis toujours le cœur du métier des documentalistes, des veilleurs et d’autres gestionnaires de la connaissance ? S’il existe des nombreuses tâches en commun, les statuts, les objectifs et les périmètres d’actions des ces figures sont différents. Ainsi, on peut observer que le curateur 1) n’est pas un professionnel, mais un amateur 2) ne répond pas à des questions précises et ne pratique pas une diffusion sélective de l’information mais cherche plutôt dans ses centres d’intérêts avec le but de médiatiser le plus possible 3) transmet une information émergente et non consolidée 4) travaille sur une information instantanée 5) n’est pas un point de passage obligé, parce que tout le monde peut trier sans passer par lui.

Avenir du Web ou pratique nuisible ?
La pratique de la curation peut apporter une valeur ajoutée dans des domaines très variés, tels que la documentation, le journalisme, l’éducation, la recherche scientifique mais aussi les organisations et les entreprises. Les enjeux sont nombreux et vont de la valorisation de l’humain dans le processus d’accès à l’information à la capitalisation et l’enrichissement de cette information : la curation deviendrait une agrégation des pratiques existantes, une sorte de point de convergence entre les pratiques de recherche, tagging, veille, gestion des connaissances etc. Cependant, le débat est très vif sur les bénéfices réels d’une telle pratique : on dénonce notamment un pillage des contenus du Web et des droits d'auteurs bafoués. On craint aussi une dérive techniciste (curation automatisée), une amplification de la redondance – alors que la curation devrait justement servir à la combattre ! – et une valorisation des médiateurs au détriment des créateurs de l’information, avec un problème redoublé d’évaluation de la crédibilité de l’information.

Des enjeux pour les professionnels de l’info-doc
De plus, la profusion d’outils de curation et leur facilité de prise en main permettent à tout internaute de devenir curateur, d’une part en exploitant la recherche sociale, de l’autre en s’appropriant de l’édition du contenu qui était jusqu’alors détenue par les professionnels. Ces derniers doivent réussir à se positionner en tant que pilotes de ces nouvelles pratiques, par exemple en animant des communautés de curateurs.

Le design interactif concerne-t-il les professionnels de l'information ?

Mon attention a été récemment attirée par le calendrier des prochains évènements dans le domaine des TIC. Du 29 au 31 mai aura lieu à Limoges le Festival international du design interactif (ou WIF en anglais, pour Webdesign International Festival).

Professionnelle de l'information en devenir, je me suis interrogée : qu'est-ce que le design interactif ? Dans quelle mesure cela concerne-t-il les documentalistes et professionnels de l'information ? Le design interactif est-il simplement une discipline alliant esthétisme et stylisme dans le domaine des technologies ? 

 
Pas du tout ! Le site du WIF héberge le diaporama suivant répondant à cette question : "Qu'est-ce que le design interactif" ?
http://www.slideshare.net/wif_festival/questce-que-le-design-interactif

"Le design interactif est l'activité créatrice dédiée à la conception des produits et des services numériques et interactifs.
Sa démarche consiste à définir la façon dont les personnes, les produits et les services dialoguent par la médiation d'une interface, d'un objet ou d'un environnement numérique. Ce dialogue est mis en scène dans des scénarios d'usage". 
"C'est une approche globale, qui va bien au-delà des considérations esthétiques, incluant la fonction, l'ergonomie, la facilité d'usage, l'accessibilité, la sécurité du produit, la durabilité, le coût et des éléments intangibles comme la marque et la culture".
"Une démarche de design interactif donne lieu à des collaborations entre design, ergonomie, anthropologie, marketing, ingénierie ..."


"Le point central, ce n'est pas l'interface graphique mais la façon dont on imagine les scénarios pour matérialiser le dialogue entre les personnes et les systèmes" !

Ah voilà ! Je commence à obtenir des réponses à mes interrogations : "Scénarios d'usage", "facilité d'usage", "fonction". C'est bien le point de départ du travail des professionnels de l'information : la connaissance de l'usager, de l'utilisateur et de ses besoins. Ainsi, les architectes de l'information, les professionnels de l'ingénierie documentaire ont bien une place dans la chaîne des métiers intervenants dans le design interactif !

Pour vous en convaincre, vous pouvez consulter : 

- le site de Benoît Drouillat, directeur artistique du WIF
Présentation sur l'architecture de l'information : http://www.slideshare.net/bdrouillat/larchitecture-de-linformation
- le Blog Jean-Michel Salaün 
Echanges sur les métiers intervenant dans la création des sites web : les informaticiens, les professionnels de l'info-doc et les designers. Les frontières sont parfois assez floues ...
http://blogues.ebsi.umontreal.ca/jms/index.php/post/2011/11/08/Vers-des-architectes-de-l-information 


Et pour les convaincus voulant exercer professionnellement dans ce secteur : 
- L' association professionnelle du design interactif, également portail d'offres d'emplois : http://emploi.designersinteractifs.org/

Enfin surtout, rendez-vous la semaine prochaine au Festival à Limoges ! http://webdesign-festival.com/2012/








jeudi 17 mai 2012

Mieux chercher grâce à Google Search Education

Google se veut aussi éducatif. Son nouveau site Google Search Education propose un ensemble de tutoriels clés en main pour plus d'efficacité dans les recherches. Une aubaine pour les documentalistes, et pour tous ceux qui veulent optimiser la recherche d'information.

Destiné expressément aux enseignants et aux étudiants, Google Search Education cible avant tout le milieu éducatif. Son message est clair : "Aidez vos élèves à être de meilleurs chercheurs !" Pour ce faire, le géant américain propose un véritable centre de ressources consacré à ce qu’il connaît le mieux : son propre moteur de recherche. D'après lui, la maitrise de la recherche sur le web et dans les ressources académiques favorisera l'autodidactisme et la pensée critique. Les enseignants, quant à eux, trouvent dans Google Search Education un support précieux de formation à la recherche, ainsi qu'un ensemble de matériaux didactiques variés.

De nombreux tutoriels et séminaires sont ainsi accessibles en ligne. Grâce à leur format court et modulaire, ils s'adaptent facilement aux besoins d'une classe, permettant d'expliquer aussi bien les concepts basiques de la recherche Google que les requêtes les plus avancées.

Ces séminaires s'organisent en trois modules d'apprentissage :
- Comprendre les moteurs de recherche (Understanding Search Engines)
- Les stratégies et techniques de la recherche web (Web Search Technique and Strategies)
- Les caractéristiques de la recherche web Google (Google Web Search Features)

L'interface et les contenus ne sont pour l'instant proposés qu'en anglais, mais les versions traduites ne devraient pas tarder à suivre.

Voilà en tout cas un bon moyen de réviser ses fondamentaux de la recherche sur Google.



Sources :
http://www.echosdoc.net/2012/05/ouverture-de-google-search-education/
http://www.google.com/insidesearch/searcheducation/index.html
http://www.google.com/educators/p_websearch.html
http://outilsveille.com/2012/05/google-search-education-cours-et-methodes-de-recherche-pour-les-etudiants/

Un soutien de taille pour l’Open Acess : l’UNESCO


L’UNESCO, en tant qu’organisme international garant de l’éducation et de la culture, est au coeur des problématiques liées à l’accès au savoir. Il travaille sur différents fronts comme les ressources éducatives libres  ou des questions de conservation du patrimoine électronique. Cette action est centrée principalement sur les pays d’Afrique qui ne disposent pas d’un accès aux ressources documentaires, comme les bibliothèques, de manière comparable aux pays du Nord. Toutefois elle concerne également le reste du monde.

La promotion du libre accès à l’information scientifique se situe dans cette politique. L’UNESCO s’engage dans cette action. Il met en œuvre une grande campagne de sensibilisation via des colloques et des conférences. Fin 2011, le lancement du portail Global Open Access Portal (GOAP) a permit de faire un état des lieux du libre accès à l’information scientifique à travers le monde. Celui-ci se présente comme une vitrine permettant aux états de présenter les projets qui ont bien aboutis ou d’identifier les différents acteurs.

Aujourd’hui l’UNESCO annonce la publication d’un ouvrage intitulé « Principes directeurs pour le développement et la promotion de l’accès libre ». Celui-ci est en priorité à destination des gouvernements, des institutions et des organismes financeurs. Il a pour objectif de présenter l’accès libre, ses avantages et ses différentes possibilités de mises en œuvres pour aider les États membres à prendre des décisions éclairées lors de l’adoption de politiques de libre accès et à consolider les systèmes nationaux de recherche. Il ne s’agit pas de prescription mais d’expliquer les principes de la notion d’accès libre. Cet ouvrage peut également être lu par des particuliers désirant avoir une vision globale sur le libre accès, il s’adresse autant aux néophytes aux experts du domaine.

SOURCES
http://www.unesco.org/new/fr/communication-and-information/resources/news-and-in-focus-articles/all-news/news/open_access_to_scientific_information_policy_guidelines_for_open_access_released/
http://www.unesco.org/new/fr/communication-and-information/access-to-knowledge/open-access-to-scientific-information/
http://www.unesco.org/new/fr/communication-and-information/access-to-knowledge/preservation-of-documentary-heritage/
http://www.unesco.org/new/fr/communication-and-information/resources/news-and-in-focus-articles/all-news/news/global_open_access_portal_launched/

mercredi 16 mai 2012

"Il faut imprimer peu et le moins et ce sera mieux"(1)


Les 25 et 26 mai prochains, la Veille à rendez-vous à Ajaccio, pour la troisième  édition du VSST (Veille stratégique scientifique et technologique). Deux journées dédiées à la présentation, auprès d'un public initié mais non nécessairement « savant » des travaux de recherche et de développement industriel dans les systèmes de veille.


Le thème phare de ce colloque scientifique et technologique a de quoi susciter l'intérêt. Il s'agit en l'occurrence d'exposer les avancées les plus notables touchant aux « méthodes et applications qui garantissent une exploitation efficace des grandes masses de documents et [ …] porteuses d'une réelle plus-value informationnelle : collecte et extraction d'informations pertinentes, exploration, analyse et synthèse, interactivité dans les systèmes de découverte ». En bref, de présenter les nouveaux digesteurs de l'infobésité. Car c'est un fait, que jusque et y compris dans le monde de la recherche et de l'innovation, où la rareté informationnelle serait pourtant par nature censée dominer, nous nous trouvons aux prises avec la problématique de la gestion de la masse.

A la recherche des lois du silence

Quoi qu'il en soit, responsables et décideurs des secteurs privé et public, acteurs de la stratégie scientifique, de la R&D, personnes en charge de l'évaluation, de l'innovation, de la planification et des transferts de technologies, acteurs du traitement de l'information,  chercheurs, ingénieurs, développeurs –  public appelé à ces deux jours de séminaire – ont toutes les bonnes raisons de se rendre sur l'île de Beauté pour ce VSST2012.

Pendant ces deux journées, il sera en effet question, autour des problématiques de filtrage et de veille, de : tagging, réseaux, systèmes d'intelligence économique, gestion des risques. Mais aussi de : développement du territoire, de développement durable ou encore et parmi d'autres sujets abordés des apports des TIC dans l'innovation et les performances des PME. Autant de domaines « stars »pour lesquels l'information endiguée, maîtrisée, valorisée peut espérer produire de la valeur… La plus précieuse restant celle de la maîtrise du temps : temps de recherche, temps d'exploitation, temps de diffusion dans un monde où la prise de décision doit être, aussi, de plus en plus rapide. En l'occurrence, on peut se poser la question de savoir si, aujourd'hui, le gain de temps, ne serait pas indissociable de la recherche de nouvelles lois du silence, celles qui seraient à même de détecter, tout ce qui ne fait pas "bruit".

Pré-topologie stochastique des systèmes complexes

Présidé par Michel Lamure, mathématicien spécialisé dans l'aide à la prise de décision, l'atelier n°3 s'intéressera plus particulièrement aux pré-topologies. «  théorie mathématique pour l’analyse, la modélisation et la construction, elle [ la pré-topologie ] trouve des applications dans les sciences humaines et sociales, application en théorie des jeux, extension de la notion de graphe, modèles de réseaux complexes, agrégation des préférences » (Wikipédia). La discipline peut sembler ardue au non initié, mais il semblerait qu'elle constitue cependant le cœur du réacteur de la recherche en information. Les spécialistes du domaine, dont ceux de la "pré topologie stochastique des systèmes complexes" travaillent aujourd'hui à l'identification de nouvelles suites algorithmiques qui assistent l'utilisateur dans le tri, la classification et le référencement et la restitution de données. Sujet passionnant qui, explorant les champs du silence que sillonne l'aléatoire, remet « l'improbable » au cœur de l'information, donnant ainsi des points de vues innovants à  la prise de décision.

VSST 2012. Jeudi 24 et vendredi 25 mai 2012, Palais des Congrès d’Ajaccio (Corse du Sud,
France). Organisé, conjointement par  l’IRIT (Institut de Recherche en Informatique de Toulouse),
 l’INIST (Institut de l’Information Scientifique et Technique), l’UPC (Université Polytechnique de Catalogne), la SFBA (Société Française de Bibliométrie Appliquée).
http://atlas.irit.fr


(1). Un célèbre corse...

World Wide Web Conference - Journées professionnelles du Web Sémantique

En 2012, un évènement majeur pour l'ensemble de la communauté française du Web s'est déroulé en France.
En effet, entre le 16 et le 20 avril 2012, Lyon a accueilli la "World Wide Web Conference" qui est organisée chaque année dans un pays différent. Cette manifestation réunit des chercheurs, développeurs, utilisateurs, internautes, entreprises commerciales et passionnés autour de discussions et de débats portant sur les évolutions du Web, la standardisation des technologies associées au Web et leurs impacts sur la société. Au programme : des tables rondes sur le Web et ses grandes thématiques : économie, éducation, accessibilité, digital humanities, design et arts ; des conférences sur des sujets scientifiques tels que la recherche sur le Web, le Web Mining, l'extraction d'informations et le traitement du langage naturel, l'analyse comportementale, les réseaux sociaux, la gestion des données et du contenu, le web sémantique, la sécurité, etc. ; des ateliers permettant des échanges d'idées entre experts, commerciaux et utilisateurs. Cette conférence est un lieu d'échanges et de partage pour la communauté du Web (professionnels et non-professionnels) avec pour objectif une véritable démarche prospective issue d'une réflexion commune sur les développements du Web. Pour tous ceux qui n'ont pas pu y assister, sachez que les supports des interventions ont été mis en ligne sur le site (onglet "documents") !

Une information intéressante de dernière minute : les journées professionnelles du Web Sémantique ont eu lieu à Paris les 2 et 3 mai derniers. Ces 2 journées permettent aux professionnels du Web Sémantique français (membres de la communauté scientifique et industriels) de se rencontrer. Quelques-uns des participants (références françaises dans le domaine) : Emmanuelle Bermès, Alexandre Monnin, Gautier Poupaud, Nicolas Chavat. Vous pourrez retrouver certains supports de présentation sur le site de la Semaine Web Pro (cf. lien ci-dessous). Quelques thèmes abordés : Linked data, Open Data, le langage RDFa, le standard SPARQL.

Sources :

Site de la conférence "World Wide Web" :
http://www2012.wwwconference.org/
 Site du World Wide Web Consortium :
http://www.w3.org/
Intervention de Bernard Stiegler au "World Wide Web Conference" :
http://arsindustrialis.org/bernard-stiegler-%C3%A0-www2012
 Site de la semaine Web Pro :
http://www.semweb.pro/

A consulter :

Blog d'Emmanuelle Bermès :
http://www.figoblog.org/
Twitter d'Alexandre Monnin :
http://twitter.com/#!/aamonnz
Blog de Gautier Poupaud :
http://www.lespetitescases.net/
Twitter de Nicolas Chauvat :
http://twitter.com/#!/nchauvat
Blog de Stéphane Pouyllau :
http://blog.stephanepouyllau.org/


jeudi 10 mai 2012

Une exception pédagogique au droit d’auteur toujours difficile à mettre en oeuvre



Si la question du plagiat en milieu scolaire et universitaire est de plus en plus médiatisée, le droit d’auteur a bien d’autres impacts sur la sphère éducative. Enseigner et étudier implique en effet souvent de reproduire et diffuser des documents (textes, images, vidéos, musique), que ce soit pour les professeurs ou pour les élèves lors de leurs exposés.
Un rapport parlementaire, intitulé « Apprendre autrement à l’ère numérique : se former, collaborer, innover. Un nouveau modèle éducatif pour une égalité des chances » a été remis au mois de février. Ses analyses et conclusions mettent en évidence les crispations et blocages du système français en matière de droit d’auteur dans l’enseignement. S’il rappelle l’importance du respect du droit d’auteur sur Internet et de la sensibilisation des élèves à ces questions, le rapport souligne cependant que les rigidités actuelles de la propriété intellectuelle constituent des freins au développement des nouvelles technologies dans l’école. Pour lever cet obstacle, il fait la proposition de créer un « Educ-Pass numérique, soit une exception pédagogique au droit d’auteur pour la ressource numérique ».

Or cette exception exige déjà, en théorie. La loi DADVSI a en effet créé de nouvelles exceptions au droit d’auteur, dont « l'exception pédagogique et à des fins de recherche et d'enseignement ». Légalement, il est donc possible de numériser et d’utiliser des extraits d’oeuvres dans un contexte pédagogique, que ce soit pour les projeter en cours, dans le cadre de conférences et de colloques, ou pour les incorporer à des supports éducatifs.
Cependant, cette exception doit être compensée par le biais d’une rémunération négociée sur une base forfaitaire. Or les titulaires de droits ont obtenu que ces questions soient réglées par le biais d’accords sectoriels, négociés périodiquement, secteur par secteur, entre les Ministères concernés (Enseignement supérieur et Education nationale) et des sociétés de gestion collective. On ne peut en conséquence pour l'instant parler d’une réelle exception pédagogique, la logique restant celle de la négociation contractuelle encadrée légalement.
Les négociations sectorielles s’étalant parfois dans le temps, faute de trouver un accord, l’exception pédagogique a déjà été dans les faits neutralisée pendant des mois, laissant les enseignants, élèves, professeurs, chercheurs et étudiants face à un vide juridique. Les accords sectoriels sont par ailleurs d’une complexité qui rend l’exception difficilement applicable  par les professionnels de l’enseignement, et encore plus par les élèves.
En attendant qu’un système de gestion collective obligatoire soit instauré en France pour les usages pédagogiques, ou que le droit d’auteur soit assoupli sur le modèle du fair use (usage équitable) du droit américain, la France risque de rester en retard en matière de pratiques numériques dans la sphère éducative.

Sources :

mardi 8 mai 2012

Le marché français du livre numérique à la peine

Inspirés par les bons chiffres du marché américain, les industriels du livre français ont mis tous leurs moyens et leur énergie dans la promotion du livre numérique en France.
Au dernier trimestre 2011, les consommateurs français ont vu arriver sur le marché de nombreuses liseuses et tablettes (Kindle, Kobo, Cybook, Nook, Sony Reader...) et avec elles le développement de plateformes de distribution de livres numériques. Chaque acteur entretenant l'espoir d'accaparer une solide part du marché.

Cependant, note Hubert Guillaud dans un billet publié le 30 mars dernier, le marché peine à décoller. En 2011 en France, la vente de livres numériques a représenté 12,5 millions d'euros, soit seulement 0,5 % des ventes totales de livres. Autrement dit un relatif échec en regard de ce que sont les marchés américain, sud-corréen ou encore britannique.

Comment expliquer cet échec ?

La raison la plus fréquemment invoquée pour expliquer ce retard est le prix du livre numérique (15 € en moyenne), qui en France est encadré par la loi sur le prix unique du livre numérique adoptée en mai dernier.
Mais cette explication fait long feu lorsqu'on le compare au prix britannique (13 € en moyenne) ou encore au prix allemand (11 € en moyenne) où le marché connaît lui aussi quelques difficultés.

En revanche, pour expliquer le succès du livre numérique aux Etats-Unis, les spécialistes évoquent plutôt la conjonction d'un réseau de libraires en mauvais état et un effondrement du marché du livre papier, créant ainsi un effet du substitution qui agit comme un booster sur le livre numérique.

"Ebooks Explosion"

Aux États-Unis, en 2011, le marché du livre numérique représentait 2 milliards d'euros, soit une croissance de 117% par rapport à 2010. Un marché dominé par Amazon (70% de part de marché) qui désormais y vend plus d'exemplaires numériques que papier.
70 millions d'utilisateurs déclarent acheter plus de 10 livres par an, papier ou numérique.

Par ailleurs, près de 40% des adultes possèdent une liseuse ou une tablette, ce dans des proportions égales. Un taux d'équipement qui grimpe jusqu'à 61% chez les diplômés de l'enseignement secondaire.

Justement, le marché du livre numérique ne se limite pas à la seule édition dite "de littérature générale". L'EPUR (édition professionnelle, universitaire et de recherche) comme l'a baptisé le Groupement Français de l’Industrie de l’Information (GFII) présente ses propres spécificités qu'elle cherche à faire valoir auprès de ses publics, des industriels et des décideurs.
En mars dernier, le GFII a profité du Salon du livre pour présenter un livre blanc consacré au livre numérique scientifique et professionnel.

Pour en savoir plus :


Dossier : Le marché français des lieuses - http://actualitesdulivrenumerique.over-blog.com/article-dossier-le-marche-francais-des-liseuses-91150268.htmlhttp://actualitesdulivrenumerique.over-blog.com/article-dossier-le-marche-francais-des-liseuses-91150268.html

Marché de l'ebook en France : Explosion imminente - http://www.actualitte.com/actualite/lecture-numerique/acteurs-numeriques/marche-de-l-ebook-en-france-explosion-imminente-31940.htm

Le marché du livre électronique est-il en panne ? - http://lafeuille.blog.lemonde.fr/2012/03/30/le-marche-du-livre-electronique-est-il-en-panne/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+lafeuillerss+%28lafeuille%29&utm_content=Netvibes#xtor=RSS-32280322

Estimation et projections sur le marché du livre numérique en France - http://www.actualitte.com/actualite/lecture-numerique/usages/estimations-et-projections-sur-le-marche-du-livre-numerique-32817.htm

Le marché du ebook en 2011 en une seule image - http://comprendrelelivrenumerique.com/2012/01/08/le-marche-du-ebook-en-2011-en-une-seule-image/

Aperçu de l’état du marché de l’ebook en France et dans le monde - http://www.lettresnumeriques.be/2012/02/10/apercu-de-l%E2%80%99etat-du-marche-de-l%E2%80%99ebook-en-france-et-dans-le-monde/

Le boom du marché des ebooks aux États-Unis - http://frenchweb.fr/infographie-le-boom-du-marche-des-ebooks-aux-etats-unis-61301/

Le livre numérique dans l’édition professionnelle, universitaire et de recherche : retours d'expériences - http://www.gfii.fr/fr/evenement/le-livre-numerique-dans-l-edition-professionnelle-universitaire-et-de-recherche-retours-d-experiences - http://gfii.fr/epur/

samedi 5 mai 2012

Google Chrome accélère !


Google lance sa nouvelle version de Chrome, le navigateur devenu le plus populaire et le plus utilisé aux Etats-Unis. Google Chrome 19, actuellement en béta, a un meilleur algorithme qui permet de décider plus finement les fonctions qu'il doit optimiser.


Comment cet algorithme fonctionne-t-il ? 


Le JavaScript est exécuté en deux étapes successives. Dans un premier temps, le code machine est compilé. Durant cette première étape, la vitesse ne diffère pas de celle de Chrome 18. C'est lors de la seconde étape que le nouvel algorithme fait ses preuves coté vitesse. En effet, l'ancien algorithme faisait que le moteur V8 s'arrêtait toutes les millisecondes pour analyser chaque fonction en cours d'exécution, afin de décider de celles qui devaient être à optimiser. A présent, le moteur JavaScript va garder en mémoire le nombre de fois où les fonctions JavaScript vont être appelées par le programme et concentrer l'optimisation directement sur ces fonctions. Ainsi, le nouvel algorithme va mettre fin aux arrêts toutes les millisecondes, puisque les fonctions seront déjà enregistrées. 


Quels sont les intérêts de cette nouvelle version de Chrome pour les utilisateurs ? 


Dans un premier temps, la vitesse du V8 devrait être, selon le benchmark SunSpider, jusque 25% plus rapide que le précédent. 
Ensuite, la gestion des favoris pourra se faire par simple glisser-déposer, ce qui va simplifier les recherches et la gestion des favoris de bons nombres d'internautes. 
Dans un troisième temps, la synchronisation entre différents appareils a nettement progressé. Le moteur de recherche Google et une partie de la suite Google sont utilisés sur les téléphones portables (Android et Iphone) et les tablettes. Google a également créé, il y a quelques mois, un téléphone "by Google" (le Galaxy Nexus de Samsung), mais également Google Drive (qui permet d'avoir accès à ses documents Google Docs, à 5 Go de mémoire gratuite... je vous renvois ici à l'article de mon collègue, RAMBOASALAMA Alain). Ces outils étant utilisés sur différents supports, Chrome 19 permet d'ouvrir, depuis la page d'accueil du moteur de recherche, des onglets affichés sur d'autres machines (téléphones portables, tablettes, ordinateurs fixes ou potables...). 


Quels sont les limites du nouvel algorithme ? 


D'après les premiers tests, il semblerait que l'augmentation de la vitesse de Chrome 19 (comparé à son prédécesseur) soit visible surtout pour les petits programmes JavaScript. 


A vous de jouer ! 


Vous pourrez vous-même tester cet algorithme sur le site Chrome Experiments de Google : http://www.chromeexperiments.com/



Sources :

BELFIORE Guillaume, "Google optimise le moteur JavaScript de Chrome", 04 mai 2012, http://www.clubic.com/navigateur-internet/google-chrome/actualite-489888-google-optimise-moteur-javascript-chrome.html 

CROCHET-DAMAIS Antoine, "Google booste le moteur JavaScript de Chrome", 04 mai 2012, http://www.journaldunet.com/developpeur/client-web/google-optimisation-de-v8-dans-chrome-0512.shtml 

FEUGEY David, "Google stabilise et sécurise son navigateur web Chrome", 11 avril 2012, http://www.silicon.fr/google-stabilise-et-securise-son-navigateur-web-chrome-73622.html 

G. Jérôme, "Google Chrome : nouvelle technologie pour le moteur V8", 04 mai 2012, http://www.generation-nt.com/google-chrome-v8-javascript-vitesse-optimisation-actualite-1575851.html 

MOUSSIE Stéphane, "Le moteur JavaScript de Chrome toujours plus rapide", 04 mai 2012, http://www.macgeneration.com/news/voir/243632/le-moteur-javascript-de-chrome-toujours-plus-rapide 

RAMBOASALAMA Alain, "Google Drive, sur un nuage !", 04 mai 2012, http://bloguniversdoc.blogspot.fr/2012/05/google-drive-sur-un-nuage.html 

vendredi 4 mai 2012

Google Drive, sur un nuage !

Un nouveau service de stockage et de partage en ligne fait son apparition, Google se lance dans l'aventure. 6 années de gestation auront été nécessaires pour la Silicon Valley Google. 
Ses principaux concurrents, Dropbox et Skydrive Microsoft n'ont qu'à bien se tenir. Mais est-ce une réalité ou plus un effet d'annonce ? 
Direction Google Drive pour en savoir et en juger par nous même :

Google Drive c'est : 
1 compte gmail, 5 Go gratuit, 25Go pour 2,49 $/mois, à 100 Go pour 4,99 $/mois et à 1 To pour 49,99 $/mois. Accéder à vos documents où que vous soyez et possibilité de les rechercher facilement par mots-clés. Google Drive est compatible avec trente types de documents depuis votre navigateur, sans même disposer du logiciel adéquat. Et, parmi les formats compatibles, Google cite deux logiciels d'Adobe : Photoshop et Illustrator. Alléchant, non ?
Google Drive a pour lui son prix, jusqu'à 4 fois moins cher que ses concurrents.
Mais mais mais !!!
Google Drive ne rivalise pas avec la simplicité de Dropbox et sa compatibilité à de nombreuses plateformes mobiles (iOS, Android, Blackberry) ou avec la dernière fonctionnalité de SkyDrive qui permet de se connecter à son PC à distance.

Autre aspect de discussion sur les stockages en ligne, les cloud : la confidentialité des données.
Le site américain CNET s’est penché sur les conditions d’utilisation des principaux services de stockage en ligne: Dropbox, Sky Drive et le tout nouveau Google Drive.
 Si dans tous les cas nous pouvons être d'accord sur cette condition d’utilisation typique de Google annoncé clairement :
«Certains de nos Services vous permettent de soumettre des contenus. Vous conservez tous vos droits de propriété intellectuelle sur ces contenus. Ce qui est à vous reste à vous.»
La suite laisse la porte grande ouverte à débat : «En soumettant des contenus à nos Services, par importation ou par tout autre moyen, vous accordez à Google (et à toute personne travaillant avec Google) une licence, dans le monde entier, d’utilisation, d’hébergement, de stockage, de reproduction, de modification, de création d’œuvres dérivées (des traductions, des adaptations ou d’autres modifications destinées à améliorer le fonctionnement de vos contenus par le biais de nos Services), de communication, de publication, de représentation publique, d’affichage ou de distribution public desdits contenus.»
En clair, Google n’exclut pas d’exploiter à sa guise les données qu’on le charge de stocker.  N'allons pas jusqu'à évoquer une recherche et exploitation de nos photos personnelles, Google se blinde juridiquement en usant de formules floues et contradictoires.

En tout cas, faites votre choix de service, découvrez cet énième service de la maison Google et surtout restez vigilant !

Sources :

Semaine européenne de l'Open Data


 Du 21 au 26 mai 2012 se déroulera à Nantes la "Semaine Européenne de l'Open Data".

L'Open Data est une démarche qui permet de rendre des données numériques accessibles et utilisables par tous.
La mise à disposition des données publiques revêt un caractère obligatoire et, pour les collectivités et les organismes publics, l'ouverture des données consiste à publier sur une plate-forme ouverte des informations statistiques, cartographiques,des horaires, des données économiques et financières sur les territoires.
Certaines associations ou entreprises commencent également à ouvrir leurs données, par exemple Openaid ou Enel.
Attention, toutes les données ne sont pas ouvrables : définies par un cadre juridique, il s'agit des données relatives à la vie privée, les données nominatives, les données relevant de la sécurité nationale, les données sur lesquelles des tiers détiennent des droits de propriété intellectuelle.
L’enjeu consiste aujourd’hui à constituer  une source d'informations fiable pour les journalistes, les chercheurs et les citoyens.

 Au programme de cette semaine de manifestations, quatre temps forts sont proposés :
- ateliers participatifs,
- conférence nationale,
- conférence internationale,
- conférence scientifique

Chercheurs, journalistes, entrepreneurs, associatifs, innovateurs, et  tous les citoyens intéressés pourront ainsi de se familiariser avec les données, appréhender les compétences nécessaires à leur traitement, en analyser, en visualiser, en co-produire, découvrir des projets économiques et sociaux innovant, faire un état des lieux des recherches scientifiques, profiter de retours d’expériences de pays étrangers, et approfondir toutes les questions qu'ils pourront se poser.

Pour en savoir plus:
http://www.opendataweek.org/

jeudi 3 mai 2012

Ergonomie web : des principes de base non respectés pour la majorité des sites !



Impossibilité de trouver l’information recherchée, manque d’organisation des pages web, présence de liens sans objets, manque d’aide à la navigation, téléchargement interminables.... Le web serait-il encore immature et instable ? Le cabinet Forrester a publié ce mois-ci un rapport édifiant “Lessons Learned From 1,500 Website User Experience Reviews” reposant sur 25 critères. Sur 1.500 sites testés, seuls 3% respecteraient les principes ergonomiques de base. Sur le web, trop de sites ne tiendraient donc pas leurs promesses…
Qu'est-ce que l'ergonomie ?
L'ergonomie des sites web, c’est-à-dire des interactions entre les utilisateurs et un site web, ne concerne pas seulement les aspects de surface ou les aspects graphiques directement visibles, elle concerne à la fois :
- l'utilité, c'est-à-dire la capacité du site de répondre aux besoins " rééls " des utilisateurs (sur le web : rechercher des informations, acheter des articles en ligne, jouer, communiquer…);
- l'utilisabilité, ou facilité d’utilisation – caractéristiques des interfaces pour tout ce qui concerne la présentation.
L'ergonomie dépend donc de l’adéquation entre ce que propose le site (le contenu, les services, etc.) et les besoins des utilisateurs potentiels, mais aussi de la facilité d’utisation du site tant au niveau de sa présentation que du " dialogue ". Il apparaît qu'un visiteur place la facilité d'utilisation au deuxième rang, après la qualité du contenu. 


Une enquête avait déjà été réalisée par le Pôle Conseil En Ergonomie de BenchMark Group en janvier 2009. 
Des chiffres intéressants :
81 % n’aiment pas les sites où il y a trop d’animations qui gênent la lecture
1 internaute sur 2 décide de quitter un site en moins d’1 minute si ce dernier ne leur convient pas
75 % des internautes rencontrent des difficultés pour trouver ce qu’ils cherchent
58 % sont confrontés à des problèmes de navigation
66 % trouvent les contenus des sites souvent mal présentés
47 % trouvent l’allure des pages d’accueil peu engageante

L'ergonomie cognitive
L'ergonomie cognitive est l'étude des interactions avec un dispositif ou un produit (essentiellement informationnel) qui nécessite l'utilisation des grandes fonctions mentales de l'homme (perception, mémoire, traitement).
Pour agir, il semble ainsi nécessaire que l'utilisateur ait une bonne compréhension de ce qu'attend ou va faire le dispositif. L'interface Homme/Machine du système doit être pensée en conséquence en termes de présentation de l'information et des interactions.
L’évidence apparaît : la connaissance approfondie du système perceptivo-cognitif est semble t-il indispensable pour construire des interfaces efficaces, des règles ne suffisent pas...


Sources :

  • L'ergonomie cognitive, un compromis nécessaire entre des approches centrées sur la machine et des approches centrées sur l'homme, Jean-Michel Hoc, CNRS, UVHC, LAMIH, PERCOTEC.