lundi 30 novembre 2009

"Renard de feu " sera présent au CNAM le 15 décembre !

Internet pour tous, un meilleur accès au Web, le navigateur Web le plus sur, l'intérêt public, open source......c'est Firefox bien sur !

Ce navigateur que nous utilisons tous les jours et  plusieurs fois par jour est un navigateur libre.


Le manifeste de Mozilla pour faire d'Internet un lieu "encore meilleur pour tout le monde" rappelle que....
- "la réalité d'Internet en tant que ressource publique dépend de l'interopérabilité, de l'innovation et d'une participation décentralisée mondiale,
- les logiciels libres et open source favorisent le développement d'Internet comme ressource publique,
- des processus transparents et communautaires favorisent la participation, la responsabilité et la confiance"...


Le Cnam accueillera le 15 décembre dans le cadre des "Mardi de l'innovation" Tristan Nitot, PDG de Mozilla Europe.

Fans de "Renard de feu", ne boudons pas notre plaisir d'aller participer à ce mardi prochain !
C'est tellement rare une utopie en action.

"Anticiper les usages numériques de demain" - Colloque du Numérique à Lyon

"Le développement des Technologies de l'Information et de la Communication  a changé les modes de fonctionnement dans et hors de l'entreprise favorisant les échanges, les relations et gommant ainsi les distances et les frontières". C'est dans ce contexte que se tient les 1er et 2 décembre 2009 à Eurexpo à Lyon, la sixième édition du Colloque du Numérique. Créée en 2004, cette manifestation annuelle est organisée par l'Espace Numérique Entreprises, centre de ressources dédié aux TIC et à l'amélioration des performances des entreprises. Parmi les partenaires de l'événement, notons ARDI Numérique (Agence Régionale du Développement et de l'Innovation) et ADIRA (Association pour le Développement de l'Information en Région Rhône-Alpes).

Les objectifs du Colloque du Numérique sont nombreux : apporter un regard prospectif sur l'usage du numérique dans les entreprises, faire comprendre les évolutions engendrées par la société de l'information, donner des éléments permettant aux entreprises d'anticiper et montrer des exemples de technologies émergentes. Ces deux journées sont réservées aux dirigeants et aux cadres qui s'intéressent à l'impact des technologies numériques sur la performance des entreprises et souhaitent actualiser leurs connaissances en ce domaine.

Le colloque est organisé autour de 4 grandes activités : la conférence plénière pour découvrir les nouveautés des TIC et les changements d'organisation des entreprises ; les ateliers thématiques qui approfondissent certaines questions (e-mobilité, réseaux sociaux, information durable, etc.) ; des stands tenus par des chercheurs qui présentent les innovations de leurs laboratoires ; et la nouveauté de cette année, les "clubs techno" ou groupes de travail dans lesquels chaque participant peut discuter d'un projet. Pour plus d'informations sur le programme complet de l'édition 2009.

Informations pratiques :
Le Colloque du Numérique est réservé aux professionnels des entreprises.
La pré-inscription est clôturée depuis le 27 novembre. Vous pouvez néanmoins vous présenter à l'accueil général du salon pour y accéder (sous réserve de places disponibles dans les salles).
Horaires :1er décembre : 9h30 - 17h / 2 décembre : 10h - 16h.


jeudi 26 novembre 2009

La culture de l'information en reformation : une thèse pour faire le point

Olivier Le Deuff vient de déposer sur la plateforme HAL la version de soutenance de sa thèse consacrée à la culture informationnelle et soutenue à l'Université de Rennes 2. Cet important et volumineux travail de recherche, simplement intitulé la culture de l'information en reformation, revient sur ce concept devenu central dans les métiers de la documentation.


De l'information literacy à la culture de l'information
Cette expression anglaise, dont découle directement la fameuse notion de culture informationnelle, désigne la faculté de comprendre et d'exploiter l'information. Elle s'est traduite dans les faits par la mise en place de nombreux services d'accompagnement du public scolaire et étudiant dans les bibliothèques universitaires américaines, permettant à la fois une formation à des concepts bibliothéconomiques de base et une sensibilisation aux grands enjeux de la maîtrise de l'information.
En France, l'expression "culture de l'information" reste mal comprise, et c'est tout l'objet de la thèse d'Olivier Le Deuff que d'en proposer une définition plus claire, au croisement de la "formation des usagers", de la "maîtrise de l'information", de la "computer science" et de nombreuses autres notions émergentes.
Après d'être replongé dans la généalogie et l'archéologie de la culture de l’information, Le Deuff s'intéresse aux différents acteurs et aux différentes position quant à la formation à l'information et aux médias ainsi qu'aux enjeux présents et futurs de la culture de l'information.

Fracture numérique, fracture culturelle
Comme l'explique l'auteur dans son introduction (p.5), "à côté de la fracture numérique souvent perçue comme essentiellement matérielle, il existe une fracture culturelle entre ceux qui savent tirer la quintessence des nouveaux moyens technologiques et ceux qui n‘y trouveront guère de moyens d‘y parfaire leur connaissance". Les enjeux de l'éducation à l'information sont donc aujourd'hui multiples : apprentissage de savoir-faire mais aussi de savoir-être, maîtrise des nouvelles technologies mais également de leurs implications théoriques et sociales, assimilation et construction des connaissances sont autant de champs abordés dans la thèse d'Olivier Le Deuff.


LE DEUFF Olivier. La culture de l'information en reformation. Thèse de Doctorat en Sciences de l‘information et de la communication. Sous la direction de Yves Chevalier. Rennes : Université de Rennes 2, 2009, 532 p.
Disponible sur <http://halshs.archives-ouvertes.fr/tel-00421928/en/ >

"L'entreprise compétitive" - 4ème Journée nationale d'intelligence économique 2009

La 4ème Journée nationale d’Intelligence Economique d’Entreprise (JIEE’09) est organisée, conjointement, par le pôle universitaire Léonard de Vinci et l'Académie de l'Intelligence Economique. Elle se tiendra, le 10 décembre 2009, dans les locaux du pôle et sous le Haut patronage de Mme Christine Lagarde, Ministre de l’Economie, de l’Industrie et de l’Emploi.

Depuis la 1ère JIEE organisée en 2004, la compétitivité des entreprises est le thème central de cette journée. Pour les économies matures, telle que la notre, se pose aujourd'hui la question de la sortie de crise. Plus que jamais, les groupes français et européens devront faire preuve de réactivité. L'intelligence économique est un des outil pouvant leur permettre de relever ces nouveaux défis, leur donner un nouvel élan et les rendre toujours plus performantes.

Le Comité de programme, présidé par Alain Juillet, Haut responsable chargé de l’intelligence économique, propose 4 ateliers et 1 table ronde tout au long de la journée. Chefs d'entreprises et experts pourront débattre sur des questions telles que : "Comment mon entreprise peut-elle sortir plus jeune, plus agile, plus innovante, plus compétitive, d’une crise qui aura probablement modifié son environnement ?"; Quels sont les nouveaux outils de l'intelligence économique (IE) ? "Comment monter une stratégie d’influence?"...

Programme

  • Atelier 1 : « Approche et pratique de l’intelligence économique
    au niveau international »
  • Atelier 2 :« Les nouvelles clés d’un management gagnant »
  • Atelier 3 :« Les nouveaux outils de l’intelligence économique : les réseaux sociaux »
  • Atelier 4 :« De la communication à l’influence »
  • Table ronde« L’intelligence économique : un moyen pour une sortie de crise « par le haut »

Pour en savoir plus
Inscription (obligatoire)
Tarifs : 300 € pour la journée incluant le déjeuner
200€ la demie-journée

mercredi 25 novembre 2009

Les jeunes et la lecture

Avec l'engouement des jeunes face aux nouvelles technologies ( internet, jeux vidéo....) on peut se demander la place qu'occupe aujourd'hui le plaisir de lire chez les jeunes.
S'il est clair que l'environnement social favorise les possibilités d'accès à la lecture, le plaisir de lire peut venir d'ailleurs

L'adaptation aux ciné avec ( succès) de certains best seller ou des bandes dessinées apparait comme un moyen de permettre à une catégorie de population jusqu'alors réticente à la lecture de redécouvrir des univers qui les poussent à la lecture : pour exemple le succès de Twillight aurait permis de remettre au gout du jour un nouveau genre vers lequel les jeunes sont attirés celui de la "fantasy urbaine".

Des mesures récemment prises, pour permettre aux jeunes de 18 à 24 ans de s'abonner gratuitement à la presse sont aussi peut être un moyen de susciter le désir de lire...

Murdoch VS Google

Nouvel épisode dans le conflit qui oppose Google et les éditeurs de contenus… Le magnat australien Rupert Murdoch, à la tête d’un empire qui compte notamment The Wall Street Journal, The Times et The Sun, souhaite en effet que les informations diffusées par son groupe News Corporation ne soient plus indexées sur Google News.

Le problème n’est pas nouveau : on se souvient en effet de l'accueil houleux réservé l'an passé à Josh Cohen, le big boss de Google, lors de son passage à Paris aux Etats généraux de la presse française. Au coeur de la polémique : le partage des recettes publicitaires entre Google et les éditeurs. Car si Google News offre une visibilité incomparable aux articles qu'il reproduit, la répartition des revenus générés par la publicité sur le site ne profite qu'à la firme américaine, selon les éditeurs de presse.

Les propos de Murdoch ne semblent pas avoir impressionné outre mesure les responsables de Google, qui se sont empressés d'indiquer que les éditeurs restaient libres de faire apparaître ou non leurs contenus dans les moteurs de recherche. Mais le milliardaire ne s'arrête pas là: c'est plus généralement la gratuité sur internet qui semble le déranger (lire à ce sujet le portrait de l'homme d'affaires sur le site des Inrockuptibles). Dénonçant le pillage dont il se dit victime, notamment de la part de Google, Murdoch a décidé de rendre payantes les éditions internet de ses journaux à partir de 2010.

Difficile de dire si Rupert Murdoch va mettre ses menaces à exécution : peut-on en effet imaginer se passer aujourd'hui du référencement offert par Google, alors que la presse traverse une crise sans précédent? Affaire à suivre...

mardi 24 novembre 2009

Parution d'une nouvelle étude sur les métiers de l'infodoc

En tant qu'étudiant en info-doc ou même parfois en tant que professionnel confirmé dans le domaine, nous nous posons des questions sur notre positionnement dans le métier. En effet, nous sommes amenés à porter différentes casquettes : documentaliste, veilleur, archiviste. De plus, du fait de l'évolution des outils, le métier est lui-même en perpétuelle évolution.

Pour tenter de répondre à ces questions et pour avoir une bonne vision de notre domaine, il semble très intéressant de consulter l'étude publiée par serdaLab le mois dernier. Ce laboratoire de veille, d'analyse et de prospective a effectivement produit une étude de 400 pages intitulée "Les horizons de l'infodoc". L’objectif de cette étude est de procurer des clés de repositionnement, des axes d’évolution, d’apporter des arguments chiffrés à avancer à une direction pour démontrer son utilité et ses compétences. Il est malheureux d'avoir à dire qu'il faille justifier de notre existence, mais c'est encore parfois le cas.

Il est d'abord fait dans cette étude un état de la profession et de son évolution sur les trois dernières années. Mais ce que je trouve surtout utile dans la perspective de trouver un emploi, c'est que ce document nous apporte des clés en terme de nouveaux métiers, de secteurs qui recrutent, d'attentes des décideurs et d'orientation stratégique de notre futur service.

Bien entendu, une étude si riche a un prix. Pour en savoir plus :

http://serda.com/fr/serda-information-connaissance-archives-electronique-records-management-veille/serdalab/les-etudes-serdalab/les-etudes-sociologiques/les-nouveaux-horizons-2009.html

Savez-vous bien rédiger pour le web ?

Graphisme et prouesses techniques peuvent rendre un site beau et agréable à consulter. Mais c'est avant tout pour lire et trouver l'information recherchée qu'un internaute se connecte. Bien écrit et bien construit, un site gagne en visibilité pour être référencé par les moteurs de recherches et les annuaires web. Pour rédiger des contenus efficaces pour vos visiteurs comme pour les moteurs de recherche, reportez-vous au livre "Bien rédiger pour le Web" d'Isabelle Canivet, consultante et formatrice en rédaction web, référencement éditorial et gestion de projet web.

Premier livre en français permettant d'améliorer son référencement naturel grâce à une bonne rédaction pour le web, ce guide s’adresse aux webmestres, rédacteurs et chargés de contenu web, chefs de projet, architectes de l'information, référenceurs... et tout acteur d'un projet web. Le livre aborde les enjeux d'une écriture centrée utilisateur, passe en revue les bonnes pratiques éditoriales et insiste sur les bénéfices d'une écriture adaptée en terme de référencement. Il vous permettra de :
- comprendre ce que votre internaute vient chercher et vous approprier les principes d'ergonomie et d'accessibilité
- apprendre les bases et les techniques du référencement
- soigner l'architecture de l'information pour faciliter la navigation
- favoriser la lisibilité en ligne et utiliser à bon escient l'image et le multimédia
- exploiter les zones chaudes (lues en premier) pour capter l'attention et placer vos mots-clés
- optimiser chaque type de contenu (page d'accueil, newsletter, blog, FAQ, communiqué de presse, slogan, signature...)
- auditer le positionnement et l'accessibilité aux robots de votre site et mesurer votre audience
- garantir le sérieux et la cohérence de votre image en suivant une ligne éditoriale

Si vous n'avez pas trouvé la réponse à toutes vos questions dans le livre, ou tout simplement pour aller plus loin, vous pouvez consulter le site de la société d'Isabelle Carnivet Action-redaction.com, une référence en matière d'optimisation du contenu de sites web.


"Bien Rédiger pour le Web. Les Clés du Referencement Naturel", Isabelle Canivet, Eyrolles, juin 2009, 418 pages. Côte CRD INTD : 10712-VII D1

jeudi 19 novembre 2009

Web 2.O, journées d'étude "Plonger dans le Web 2.O" par l'ADDNB

L'Association pour le développement des documents numériques en bibliothèques (ADDNB) organise le lundi 23 et le mardi 24 novembre 2009 des journées d'étude sur le thème "Plonger dans le Web 2.0". Ces journées se tiendront à Paris dans les locaux de l'Ircam le 23 puis de la BPI le 24.

Précédées par l'Assemblée générale de l'association qui aura lieu le lundi matin, ces journées ont  pour objectifs de proposer aux participants des clés et des idées pour monter des projets Web 2.0 en bibliothèques, pour se former, s’auto-former et partager avec des collègues... des pistes de découvertes, d’expérimentation avec des ateliers concrets. 
Il s'agit également d’apporter aux bibliothécaires un accompagnement à leur démarche Projet, une pratique des outils du Web 2.0 et des tutoriels réutilisables dans leurs établissements.

Ouvertes sur inscription, en priorité aux adhérents de l'association, les journées sont aussi accessibles - en fonction des places disponibles - à tous les professionnels des bibliothèques.


Pour en savoir + :



Formulaire d'inscription

Enquête sur l'adoption et la perception de l'Open Source

Les logiciels Open Source, qui se caractérisent par la liberté d'accès à leur code source à la différence des logiciels commerciaux, sont de plus en plus utilisés par les particuliers et les entreprises. On parle également de logiciel libre.
En quelques années, les projets Open Source se sont multipliés : il existe maintenant un équivalent pour un très grand nombre de logiciels commerciaux. De plus, depuis les années 2000, de nombreux géants de l'informatique comme Novell, IBM ou HP soutiennent des projets Open Source ou en créent.

Une enquête consacrée à l’adoption et à la perception de l’Open Source est proposée chaque année par la société Actuate Corporation (leader des applications de Business Intelligence, de gestion de la performance et de reporting).

Elle est menée en Amérique du Nord, en Grande-Bretagne, en Allemagne, en France et, pour la première fois cette année, en Chine. Cette quatrième édition regroupe près de 1.500 participants sur plusieurs secteurs, ce qui en fait une des enquêtes les plus complètes.
Elle propose un aperçu des comportements et des tendances liés à la croissance et à l’adoption des logiciels libres dans un des cinq pays (cette année la France), ainsi qu’ un résumé de la situation des quatre autres pays.
Cliquez ici pour y accéder.

mardi 17 novembre 2009

E-réputation : une stratégie nouvelle en pleine croissance

Un concept grandissant
L'e-réputation, la gestion de la réputation en ligne, la cyber notoriété... plusieurs dénominations pour un concept qui monte, résumable en une question : être ou ne pas être sur le web aujourd'hui? Et surtout de quelle manière? L'e-réputation est devenue en quelques temps un concept inhérent aux stratégies marketing et de communication des organisations. D'un point de vue de l'individu aussi, cette approche consistant à prendre conscience de sa présence numérique est devenue indispensable.
Le début de l'année 2009 a vu un pic des recherches sur ce sujet, annonçant ainsi le début de ce nouveau "phénomène". Cette augmentation soudaine de l'intérêt pour l'e-réputation se traduit aussi dans la volumétrie des articles publiés sur le sujet.

Ses enjeux
Pratique émergente de l'influence des marques et des individus sur internet, l'e-réputation est une nouvelle approche qui ne se résume pas à quelques outils techniques. En effet elle s'intègre dans une stratégie de communication nécessaire à la stratégie des organisations, en veille d'opinion par exemple, et n'est qu'une évolution logique des bouleversements sociologiques liés au web. Elle permet de gérer de manière offensive l'image de l'entreprise sur la toile. L'offre de prestations en gestion et surveillance de l'e-réputation a d'ailleurs explosé, proposant des plateformes "clés en mains", qui nécessitent néanmoins une qualification des sources et une analyse correcte des résultats.

Les outils
Il existe désormais un marché de l'e-réputation, avec de nombreuses agences et sociétés proposant des prestations en gestion de la réputation sur le web, veille de notoriété, etc., dont la grande majorité se trouve à Paris IDF, mais aussi dans des villes "pôles e-réputation" comme Mulhouse (3 agences) ou Bordeaux (3 agences). De nombreux outils, gratuits pour la plupart, permettent un retour qualitatif car il est possible d'évaluer les opinions et avis des internautes (positif, négatif, neutre) et un retour quantitatif (buzz, jeu-concours, etc.). A voir : tableau comparatif des outils de veille en e-réputation

Débat sur sa pertinence
Jusqu'à présent le seul scoring universel est celui de Google, le Page Rank, mais qui souffre de nombreuses lacunes pour être exploitable à des fins de social marketing : le manque de précision de l'échelle (de 1 à 10), le manque de transparence (sur les mises à jour), et sa propriété privée (même s'il est public, Google peut l'utiliser à sa guise). Le Page Rank n'est pas la solution. Pour le reste, il existe pour les acteurs du marché le risque de donner de manière absolue la confiance à l'outil. D'autres avancent que "connaître l'opinion des internautes concernant votre entreprise ou votre produit a peu d'intérêt si vous n'avez pas déterminé à l'avance quelle image vous souhaitez  avoir" et que "veiller à l'aveugle a peu d'intérêt".

En bref : l'e-réputation n'a pas fini de faire parler d'elle!

à lire & à suivre :


"Mah tailur is rich"

On n'arrête pas de le répéter : une bonne pratique de l'anglais est aujourd'hui indispensable pour le professionnel de l'info-doc. Cependant, selon une étude publiée en 2008, les français seraient au 69e rang dans le classement des bons connaisseurs de l'anglais. L'aspect que craignent le plus les Français : l'oral. Et avec une multitude d'accents régionaux, la compréhension à l'oral de l'anglais authentique peut représenter une véritable épreuve.

Avec Sounds Familiar, une ressource web interactive créée par le British Library, l'internaute n'a plus besoin de se déplacer au fin fond des Shetlands pour se familiariser avec l'accent et les sonorités propres à cette région. Réalisée à partir du fonds audiovisuel du British Library Sound Archive, et plus particulièrement du Survey of English Dialects, du Survey of Anglo-Welsh Dialects et du Millennium Memory Bank, Sounds Familiar permet de naviguer parmi 600 extraits sonores et 76 enregistrements en passant par des cartes interactives et des rubriques thématiques.

On apprend qu'en Yorkshire, dire "Curka Curla" est considéré comme plus sophistiqué que de dire "Cooka Coola". On découvre également quelques-uns des nombreux mots d'origine étrangère qui ont enrichi l'anglais courant tels que bhangra (un mélange de la musique traditionnelle Punjabi, le reggae et le hip-hop) ou  le terme argotique innit collé en fin de phrase (comme "tu vois"). Une analyse lexique, phonologique, grammaticale et étymologique est proposée pour chaque phrase étudiée.

Pourquoi parler anglais comme une vache espagnole quand on peut parler comme une vache de Glasgow ?

La collaboration en ligne promet de devenir plus intuitive

Aujourd'hui de nombreux collaborateurs travaillent ensemble au moyen des technologies de l'information et de la communication. Ce mode de travail nommé communément le "travail collaboratif" réunit une diversité d'outils d'aide au travail en équipe.
Mais souvent ces outils au lieu de simplifier et accélérer l'échange peuvent le freiner (des outils de partage d'information trop complexes ou trop généralistes donc moins riches en fonctionnalités, l'obligation de l'utilisation d'un logiciel collaboratif au sein du groupe de travail).
Pour pallier ces difficultés, l'Union Européenne a financé le projet Ecospace visant la standardisation des outils de travail collaboratif. Cela permettra aux utilisateurs de se libérer des contraintes et des règles de fonctionnement liées à chaque logiciel de travail collaboratif disponible sur le marché.

lundi 16 novembre 2009

Sociologie, journée d'étude sur la stratification sociale au travail

Lundi 18 janvier 2010 aura lieu une journée d'étude organisée par l'équipe Cultures et société urbaines du Centre de recherches sociologiques et politiques de Paris (Paris 8). Cette rencontre a pour objectif d'aborder la stratification sociale au travail, plus particulièrement dans le monde du commerce. 

En effet, le commerce, à la fois en tant que type d'activité, mais aussi en tant que lieu, est animé d'une dynamique qui repose sur les échanges, qu'il s'agisse d'échanges de biens, ou d'échanges interpersonnels. Partant du constat que ce secteur regroupe une grande diversité de professions (commerciaux, distributeurs, commerçants, vendeurs, manutentionnaires, etc.), les intervenants  de ce débat se proposent d'établir une typologie de ses différents agents,  afin d'étudier les relations professionnelles qui se créent parmi eux. Il s'agit d'étudier dans quelles mesures les relations commerciales induisent des relations hiérarchiques entre les différents acteurs du circuit de distribution. JE_CSU_18-01-2010.pdf

dimanche 15 novembre 2009

Zotero : un outil de gestion bibliographique open source

Qu'est-ce-que Zotero ?
Zotero (prononcé Zoh-TAIR-oh) est un outil de gestion bibliographique gratuit et open source pour le navigateur FireFox. Il permet de collecter sur le web des données bibliographiques, de les gérer, de les classer, d'y attacher des fichiers et de les exporter.
Il permet ainsi de créer une bibliographie lors de la rédaction d'un article scientifique ou d'un rapport.
Profil des utilisateurs
Cet outil est destiné aux étudiants de troisième cycle et aux chercheurs pour les aider dans la gestion de leurs bibliographies.
Guide d'utilisation
Un manuel, version 2.0 d'utilisation et d'installation, mis à jour en janvier 2009 par la documentation centrale des Hospices Civils de Lyon présente une vue d'ensemble du logiciel et de ses différentes fonctionnalités. Ce manuel, est utilisé comme support de formation pour le personnel de l'établissement.
La version 1.0 de Zotero présentée dans ce billet offre des fonctionnalités appartenant à différentes applications :
- Capturer des pages web et/ou conserver le lien vers le site d'origine
- Annoter des pages web capturées (insertion de notes, marqueur...)
- Importer et exporter des références provenant de bases de données
- Rechercher des mots-clés dans les bases de données ou dans le texte intégral
- Sauvegarder des recherches sous forme de dossiers
- Insérer des citations
- Générer une bibliographie
Zotero 1.0 permet ainsi de référencer facilement des documents au format électronique (billets de blogs, sites web...) contrairement à beaucoup d'autres logiciels.
La version 1.0 de Zotero est téléchargeable sur le site zotero.org.
Vers un outil collaboratif (Web.2.0) ?
La nouvelle version béta 2.0 disponible également sur le site de Zotero donne la possibilité de créer un groupe privé ou public ou de s'abonner à un groupe selon son centre d'intérêt. On peut chercher des personnes par discipline, inviter des membres à joindre son propre groupe et consulter les bibliothèques des autres membres de Zotero. Un tutoriel en vidéo permet de comprendre ce logiciel et de mieux cerner ses subtilités.
Yvonne Bertrand



samedi 14 novembre 2009

Rapport sur le livre numérique

Dans le cadre de ses travaux sur le livre numérique, l'observatoire du livre et de l’écrit en Ile-de-France (MOTif) a mis en ligne le 26 octobre 2009 un rapport sur l’histoire et les enjeux du numérique élaboré, à sa demande, par Constance Krebs.

Constance Krebs est éditrice en ligne et pionnière du livre numérique avec la maison d’édition 00h00.com, aujourd'hui disparue.

Ce rapport retrace l’histoire du numérique, défini les enjeux actuels et expose l’opinion d’une cinquantaine de personnalités du monde du livre et de la bouquinosphère.

Ce document est ainsi un élément supplémentaire de réflexion permettant d'alimenter les discussions actuelles sur le sujet.


Télécharger le rapport :

mardi 10 novembre 2009

Livre numérique et téléchargement illégal

Alors que le ministre de la Culture lançait le 26 octobre 2009, les travaux de sa commission pour la numérisation du patrimoine des bibliothèques, Le Motif, observatoire du livre et de l'écrit de la région Ile de France, publiait les résultats de son étude « eBookz » sur l'offre numérique illégale de livres français sur Internet en 2009.
Ce dernier est allé scruter sur Internet les livres francophones d'éditeurs français soumis au droit d'auteur non libres de droits qui étaient téléchargeables illégalement.
Il apparait que le nombre de livres publiés par des éditeurs français, disponibles en téléchargement illégal est estimé, à l’été 2009, entre 4 000 et 6 000 ouvrages,
principalement de la bande dessinée. Soit moins de 1 % des titres disponibles légalement au format papier.
Les auteurs les plus téléchargés sont Gilles Deleuze, Bernard Werber et Amélie Nothomb.
Les livres les plus souvent indexés et partagés dans les différents réseaux illégaux sont "Le Sexe pour les nuls", la série Harry Potter de J.K. Rowling, "Le Grand Livre de cuisine" d’Alain Ducasse et la série Twilight de Stephenie Meyer.Les trois éditeurs ayant le plus de titres piratés sont Gallimard, Dunod et Hachette.
En ce qui concerne la BD, on retrouve Delcourt, Dargaud et Dupuis.
Le Motif souligne qu'il y a peu de best-sellers ou de livres qui font la rentrée littéraire.
La situation est donc loin d'être aussi critique que pour les secteurs de la musique, du cinéma et de l'édition vidéo
Cette étude est le point de départ de plusieurs recommandations adressées aux éditeurs afin qu'ils anticipent les problèmes de piratage : développement de leur catalogue numérique, mise au point d'alertes pour surveiller la circulation de leurs titres sur le net, concertation avec les autres acteurs de la chaîne du livre, meilleur respect des droits des auteurs et mise en œuvre de formation professionnelles destinées à l'édition indépendante.
Le Motif compte renouveler cette étude pour la transformer en un observatoire annuel du piratage afin de l'inscrire dans une réflexion plus large sur la valeur d'usage des livres et sur les droits des auteurs.

Vers un partenariat entre acteurs privés américains et institutions publiques françaises dans la numérisation des fonds des bibliothèques ?

Lors de la 61ème édition de la Foire du livre de Francfort, le moteur de recherche américain Google a annoncé le lancement en 2010 en Europe de sa librairie numérique pour concurrencer Amazon dans la vente des livres électroniques: Google edition exploitera une partie des ressources accumulées dans Google book, immense base d'ouvrages issus de la numérisation du fonds des bibliothèques et des universités. La majorité de ce catalogue est pourtant encore protégée par les droits d'auteur... Sous couvert de nouvelle Babel, l'entreprise de Montain View projette de mettre à disposition des internautes une plateforme numérique payante d’environ un demi million d’œuvres numérisées. Or, depuis 2005, et grâce au soutien financier des pouvoirs publics français, la BNF mène aussi une politique de numérisation de masse : la bibliothèque numérique Gallica est ainsi devenue un outil majeur de diffusion des collections libres de droits ou dont les droits ont été négociés avec les ayants-droits. Les "rumeurs" récentes d'accords entre l’intervenant privé américain -dont la capacité d'investissement semble illimitée- et l’établissement public pour un co-financement de la numérisation de masse, suscitent un tollé parmi les acteurs du livre français: La Martinière/ Le Seuil sont actuellement en procès avec Google. Pour anticiper l’hypothèse d’un « basculement brutal » de la France dans l’univers numérique, le ministre de la culture vient de mettre en place une commission sur la numérisation des fonds patrimoniaux des bibliothèques qui rendra ses réflexions dans les prochaines semaines. Au-delà des enjeux du rayonnement culturel de la France et de l’accès des internautes aux fonds patrimoniaux, la complexe question des droits de propriété intellectuelle est le nœud gordien tant les intérêts des détenteurs de droits (auteurs et éditeurs) semblent inconciliables avec la stratégie commerciale du rouleau compresseur Google. La nouvelle version de l'accord devant la justice américaine entre Google, les éditeurs et les auteurs lésés devrait être rendue publique ce vendredi : cela devrait déjà donner un aperçu des conditions financières de la numérisation qui pourraient s'appliquer en France.

lundi 9 novembre 2009

Archives-ouvertes et démocratisation de la connaissance

Avec le Web, Internet est devenu, au yeux de beaucoup, un moyen surpuissant de véhiculer de l'information. Quand celle-ci sert au progrès de la connaissance, les personnes concernées par cette quête infinie, peuvent trouver dans ce jeune média un outil de choix.

Dans les années 90, alors que le Web allait prendre son essor, des scientifiques ont décidé de mettre en place des dépôts d'archives ouvertes. Ceux-ci, tel "arXiv" - le premier historiquement et encore pérenne - proposent la mise à disposition gratuite en accès libre des résultats de la recherche scientifique. Depuis, le mouvement pour les archives ouvertes, s'est renforcé notamment par la signature le 14 février 2002 de la Déclaration de Budapest pour le Libre Accès ( http://www.soros.org/openaccess/fr/read.shtml ), suivie en 2003, par celles de Bethesda puis celle de Berlin, à quelques mois d'intervalle .

A ce jour, un répertoire qui recense les dépôts d'archives ouvertes sur le Net, est entretenu par une université britannique. Y sont avancés des critères de sélection en vue des candidats désireux de référencer leur site en tant qu'archives ouvertes sur ce répertoire (voir le paragraphe "criteria of selection" à l'adresse : http://www.opendoar.org/about.html )

Le consortium français Couperin sur son site Web, s'efforce de simplifier la démarche des chercheurs désireux de déposer leurs articles en libre accès : http://www.couperin.org/archivesouvertes/ . Y sont aussi expliqués les moyens pour accéder aux résultats de ces travaux, non seulement à l'attention de la communauté scientifique mais finalement à l'ensemble des personnes disposant d'un accès à Internet.

Ainsi, le mouvement pour les archives ouvertes peut-il être vu comme un jalon sur le chemin difficile qui mène à la connaissance, le même, espérons, que celui qui conduit à la démocratisation de celle-ci?

Antoine Cathelineau

Les listes, nouvelle fonctionnalité proposée par Twitter

Le site de microblogging Twitter propose depuis peu une fonction permettant de créer des listes, publiques ou privées, afin de regrouper des utilisateurs dans des catégories définies au préalable. Actuellement en version bêta, elle devrait bientôt être accessible à tous les inscrits.

Simple d’utilisation, cette fonctionnalité offre non seulement un suivi plus efficace des tweets (messages), mais elle permet également de s'abonner aux listes créées par d'autres twitterers (utilisateurs) et de suivre toute l’actualité de ces listes depuis sa propre page. Il suffit pour cela de cliquer sur l’icône Follow this list située en haut de la page de la liste choisie.

Pour chaque twitterer, un espace dédié (http://twitter.com/nomd’utilisateur/lists) détaille les différentes listes suivies par l’utilisateur et celles dont il fait partie. Il indique également le nombre d'utilisateurs inclus dans une liste (following), ou qui la suivent (followers). Si la popularité d’une personne sur Twitter était jusqu’à présent mesurée au nombre de ses followers, elle risque fort de devenir proportionnelle au nombre de listes auxquelles cette personne appartient.

Cette nouvelle option constitue un outil de veille plus efficace, notamment pour la recherche d’emploi. Reste à savoir si les utilisateurs de Netvibes ou d’applications comme TweetDeck, qui permettent déjà d'organiser ce type de suivi, opteront pour cette fonction.

jeudi 5 novembre 2009

La Bibliothèque Virtuelle, AFNOR BiVi. : un nouvel outil pour les métiers de la fonction documentaire

Produite par AFNOR Editions, cette nouvelle plateforme a pour ambition de devenir un « outil de référence » des professionnels de l’information-documentation en centralisant sur un seul site les outils utiles à l’exercice de leur métier. Outre une rubrique « actualités » et une sélection d’articles permettant de suivre les enjeux et débats qui animent le secteur, le site propose en effet une série de services tout à fait intéressants tels qu’un accès aux normes et textes réglementaires qui régissent la profession ou encore des outils à télécharger et personnalisables (enquête de satisfaction, inventaire de périodiques, fiche de lecture…). Mettant à profit les technologies du web 2.0, le site est agrémenté par de nombreuses fonctionnalités tournées vers le partage d’information et la contribution aux contenus. La Bibliothèque Virtuelle de l’AFNOR semble ainsi dotée d’arguments qui pourraient en effet en faire un outil très utile pour les métiers de l’info-doc. Seul bémol : un accès limité par abonnement.

Facebook et Twitter indexés par les moteurs de recherche

Depuis leur création, les moteurs de recherche se sont battus sur le même terrain : celui de l’exhaustivité, cherchant à indexer tout le contenu d’Internet, à la fois celui publié avant même leur existence et celui publié pendant qu’ils se développaient.
Aujourd’hui, leur approche a changé. En effet, Google et Bling ont annoncé le mois dernier un accord pour intégrer l’intégralité du flot des tweets (messages postés sur Twitter) dans leurs index respectifs. Bling a en plus annoncé l’indexation du flot des éléments publics d’information générés par les 300 millions d’utilisateurs de Facebook.
Le but : être au plus près du buzz !
Alors que la plupart des sociétés dépensent des milliards pour leur SEO (Search Engine Optimization) afin de se faire bien indexer par les moteurs, Twitter arrive même à se faire payer.
La structure même de Twitter est à l’origine de ce retournement de situation :
o détecter les urls contenues dans un tweet de 140 caractères est très facile: le moteur sait facilement où diriger les "robots-visiteurs" pour maximiser la pertinence.
o l’analyse sémantique est elle aussi facilitée par ce format réduit, qui impose la concision et un choix pertinent des mots utilisés.
o avec les retweets (republier un tweet pour ses propres followers), il est très facile de suivre l'émergence d'un sujet et son intérêt croissant.
Le potentiel risque pour Twitter : perdre sa propre fonction de recherche et son service des "sujets chauds".

mercredi 4 novembre 2009

Extension de l'alphabet d'Internet : une démocratisation de l'utilisation d'Internet ?

L'Icann, (Internet Corporation for Assigned Names and Numbers) situé aux Etats-Unis et qui régule les extensions génériques des sites mondiaux dans un alphabet latin (par exemple : lepoint.fr, google.com), et en vertu d'un accord passé avec le Président des Etats-Unis, Barack Obama, a décidé qu'il serait désormais possible à partir du 16 novembre 2009 de déposer des adresses dans d'autres caractères (par exemple chinois, russe, arabe,...).

Au-delà de l'énorme mise en oeuvre technique et progrès technologique que cela nous montre (traduction des requêtes dans des langues qui au départ n'étaient pas prévues dans l'économie web) et sans lesquels cette décision n'aurait pu aboutir, ceci peut apparaître comme une tentative de "mondialisation" voire une "démocratisation" de l'utilisation d'internet.

Il est vrai, par exemple, qu'en termes de pourcentage (voir carte du Monde du 4 novembre 2009 (Lepoint.fr) et de croissance dans l'utilisation du réseau internet, l'Asie apparaît en tête (plus de 1,019% de progression des consultations en langue chinoise par exemple entre 2000 et 2009) contre 237% de consultation en anglais. Or, ces chiffres ne sont pas significatifs quant aux consultations nationales. En effet, 18,5% des asiatiques sont aujourd'hui connectés à Internet contre 73,9% des américains. Il existe donc bel et bien une "fracture numérique" lorsque les considère aux échelles nationales (l'on peut penser que les 18.5% d'asiatiques utilisant internet sont bilingues anglais) mais qui n'apparaît pas dans le calcul du taux de croissance de consultations internet à l'échelle mondiale.

Ces traductions des environnements d'internet dans les langues endogènes vont-elles donc participer à un effort d'une "dé-fracturation numérique"ou bien laisser persister ces inégalités d'aujourd'hui devant le monde d'internet. La question est plus que technologique, elle devient sociale....



Les entreprises contre les blogs : la communication vs les liens hypertextes

Au royaume de l'Internet, une tendance lourde se dégage : les entreprises (et certaines institutions) exigent que les blogueurs leur demandent une autorisation préalable avant de créer un lien hypertexte les pointant. Une liste de toutes ces entreprises pratiquant le pdsla (pas de lien sans autorisation) circule sur le site de l'April. Certaines, à l'instar de M6, n'hésitant pas à menacer...Au moment où l'on célèbre les 40 ans d'internet, cette pratique peut surprendre. En effet, le lien hypertexte est un des fondements du web. Mais, au-delà de ce problème éthique, se posent deux questions. Tout d'abord, nous sommes confrontés à un casse-tête juridique. Un lien pointant une entreprise n'engage en rien celle-ci. Si le contenu du site est légal, alors le lien l'est tout autant. Du côté du blogueur, le risque est celui de la diffamation. Si sur mon blogue, j'écris "les pollueurs de l'impossible" et crée un lien hypertexte vers Total, je peux être poursuivi. Le problème n'est donc pas le lien, mais ce qu'il véhicule. Le deuxième problème relève plus de l'hypocrisie. Google ne demandera jamais d'autorisation aux entreprises pour indexer selon la fréquence des liens hypertextes. Et ces dernières ont tout intérêt à être le plus pointé possible, afin d'apparaître le plus haut possible.
Ainsi, on peut constater que les institutions, au sens large, ont toujours cette même gêne vis-à-vis d'un média aussi incontrôlable, voire libertaire qu'Internet. Dans ce 21ème siècle, où l'image pèse parfois plus que le contenu, où la forme l'emporte bien souvent sur le fond; la problématique du contrôle du web et de ses usagers reste fondamentale. De la loi Hadopi, en passant par l'éducation informatique souhaitée par Nadine Morano , à la surveillance des liens hypertextes provenant des blogueurs, Internet, malgré ses 40 ans, reste pour certains un adolescent à canaliser.


Voir l'article de Numérama sur le sujet

mardi 3 novembre 2009

Le millésime 2009 du Blog UniVersDoc

Les futurs chefs de projet en ingénierie documentaire formés à l'INTD vont se relayer à partir du mercredi 4 novembre 2009 pour vous offrir leur vision de l'actualité en Information-Documentation. Etudiants, Professionnels de l'information, Enseignants en Info-Doc n'hésitez pas à nous faire part de vos commentaires !
A très bientôt.