jeudi 17 décembre 2009

Le Text Mining : pour une meilleure visibilité et une gestion intelligente de l’information en métadonnées

Pour de nombreuses entreprises, institutions et particuliers du milieu de l’information, le traitement de grands corpus pose souvent un problème de gestion du point de vue du traitement des données. Outre, les nombreux outils mis à dispositions des utilisateurs pour pallier les besoins de la gestion des flux informationnels réguliers, le Text Mining fait partie des outils simples du Knowledge Management pour un traitement de l’information sémantique pertinent.

Le Text Mining™ ou Text Data Mining ou KTD (Knowledge Discovery in texts), outil largement utilisé en ligne ou en intranet, comprend l’ensemble des techniques issues du traitement automatique de données en langage naturel.

Il permet le traitement de données textuelles en données codées, tout en facilitant la recherche d’information et l’extraction de l’information ainsi que son traitement, qu’elle soit structurée ou non. Il est capable d’identifier la ponctuation, le formatage, ainsi que les variations de syntaxe, de langue, le plagiat et la lemmatisation. Le dispositif procède à une analyse lexicographique et multilingue, en recensant le nombre de mots et leur fréquence d’utilisation. A la fois moteur de recherche, il est également utilisé pour faire de la veille, de l’archivage et contribue à enrichir un index.


Les unités de langue tels que les textes ou les phrases découpés sont traduites en segments de manière à rendre visible l’information avant son traitement. Voici un exemple de découpage par ponctuation : sauf aujourd’hui/ U.-S.-A/ 3/14159/ post-chirurgicale/, ce que l’on qualifie de « tokenisation ».


Les outils de Text Mining sont des logiciels simples d’utilisation, accessibles en ligne selon des modalités variables. Calliope, logiciel payant de l’INPI, élargit le travail « de fouille de textes », selon sa dénomination anglaise, aux cartes thématiques, avec une classification en trois domaines : termes émergents, stables ou déclinants. Text Mining Tool (version 1.1.42 téléchargeable gratuitement sur la plateforme 01.net : Text Mining Tool) permet d’effectuer un travail préparatoire, utile pour des documents importants – sachant que tous les formats sont autorisés - en amont, sur l’extraction des différentes thématiques, mots clés ou descripteurs qui pourraient être utilisés pour une éventuelle indexation.

Autre programme : le portail Arisem, créée par la Thales Company. Une gamme de composants est proposée à l’utilisateur, en fonction des processeurs, de ce que l’on souhaite faire de l’information : la mettre en évidence, la catégoriser, l’explorer ou l’extraire. Autre modèle de fonctionnement, le système UIMA (Unstructured Information Management Architecture) d’IBM, accessible en open source. Il procède de la manière suivante :



http://www.christian-faure.net/2007/05/30/introduction-au-text-mining/

Outil sémantique multifonctionnel, le dispositif Text Mining permet un traitement simple des données en méta‑information, sans modification de contenu. Derrière ce travail d’analyse, le séquencement s’établit intelligemment à partir des différentes parties d’un document. Il procède à une extraction de mots clés, procurant plus de visibilité au texte, comme un relais virtuel de formulaires descriptifs.

La sémantique fait partie des nouvelles technologies, avec tout un panorama d’outils de plus en plus perfectionnés qui facilitent le traitement de l’information en amont à son analyse. L’utilisateur est assisté au travail préparatoire et identifie aisément les points essentiels de l’information.

Droit au non numérique et Facebook : la sécurité des informations

Le 12 novembre dernier s’est tenu à l’Institut de Sciences politiques à Paris un atelier portant sur le droit au non numérique animé par la secrétaire d’état N.KOSCIUSKO-MORIZET. Le droit au non-numérique n’est pas une nouvelle idéologique réactionnaire refusant toute innovation technologique mais un projet de sécurisation des informations personnelles des utilisateurs. Il s’appuie sur la loi de 1978 sur les données informatiques. Dorénavant, une limitation de la durée des informations sur le web devra être instaurée et tout internaute pourra exiger qu’elles soient supprimées. Par ailleurs, les employeurs ne pourront plus enquêter sur la vie personnelle des candidats comme cela se fait fréquemment de nos jours ! Qui plus est, grâce aux cookies et autres spywares, nous sommes constamment surveillés sur Internet, il n’y a pas d’anonymat et les sociétés en profitent pour matraquer les surfeurs du web de publicité. Il devient même franchement pénible de lire un site web tant les pop up polluent l’écran. Le projet du droit au non-numérique prévoir également de légiférer à ce niveau.

Avec 350 millions d’utilisateurs de par le monde, Facebook est un des réseaux sociaux les plus populaires. Il y a environ une semaine, Le fondateur, Marck ZUCKERBERG a récemment entrepris de modifier les paramètres de confidentialité de son site mais les multiples effets ont provoqué la foudre des Facebookers. En effet, au lieu de sécuriser certaines données, le nouveau Facebook rend publiques beaucoup plus d’informations qu’auparavant. Les internautes peuvent avoir accès à des renseignements sur les utilisateurs sans qu’ils aient besoin d’être inscrits sur le site ! Les paramètres de sécurité de l’info ont été modifiés et les membres doivent gérer eux-mêmes l’accès de leurs informations à la sphère publique ou privée. Une belle manière de la part des fondateurs de se déresponsabiliser !!!

Force est de constater qu’il est plus facile de légiférer que d’appliquer les lois. Il appartient donc à chacun d’être vigilant et d’avoir conscience de sa pratique de l’Internet.

mardi 15 décembre 2009

Chasse aux trésors

Un sésame pour ceux qui souhaitent effectuer des recherches universitaires ou à titre personnel sur des documents Parisiens anciens vient de s'ouvrir.

Dès aujourd'hui 15 décembre 2009, les archives de Paris permettent un accès en ligne à un immense fonds de documents, désormais disponible, tant iconographique (+ de 5 millions de références concernant les seules images) que textuel.

Il s'agit en fait de documents ayant subi une numérisation depuis 9 ans maintenant qui comprennent : l'état civil parisien jusqu'en 1902, les dénombrements de population (1926-1946), les tables des états signalétiques et des services militaires militaires (1875-1930), les répertoires d'admission des enfants assistés (1742-1917), les ordonnances de restitution des biens spoliés pendant la seconde guerre mondiale (1945-1976), enfin les plans parcellaires parisiens du XIXe siècle ainsi que des collections photographiques (1860-1940).

Comment rechercher ? La thématique Etat civil, par exemple, est organisée en deux périodes (avant 1860 et après 1860 - reconstituée partiellement à cause des destructions lors de La Commune) et intègre un moteur de recherche par tables décennales, registres d'actes, ou encore fichier alphabétique ou par noms.

Des fonctions de zoom par zone de texte, de déplacement au sein des registres, de feuilletage en ligne, de commande d'actes à distance et d'impression sont disponibles. L'accès se fait en texte intégral ou par listes.

Pour en savoir plus:

http://canadp-archivesenligne.paris.fr

Intelligence territoriale, un nouvel eldorado pour les professionnels de l'Info-Doc ?

Depuis plusieurs années, la plupart des acteurs territoriaux entreprennent des démarches d'intelligence territoriale où les méthodes d'acquisition et de diffusion de l'information ont un rôle essentiel.

L'intelligence territoriale peut être considérée comme l'application des principes de l'intelligence économique au service du développement économique d'un territoire. Les collectivités territoriales développent des stratégies d’intelligence économique prometteuses et se dotent d'outils d'analyse très performant. Dans cette même dynamique, les pôles de compétitivité s'adressent aux professionnels de la veille pour collecter l’information, la capitaliser et mutualiser les connaissances. On comprend aisément que les enjeux et les intérêts territoriaux sont liés à l'utilisation d'outils adaptés et à la capacité à se coordonner pour maîtriser de l’information stratégique.

Devenue incontournable, l'intelligence territoriale implique donc de nouveaux usages sociaux et fait émerger de nouvelles fonctions liées à l'ingénierie documentaire. Les professionnels de l'info-doc peuvent se positionner au sein de ces dispositifs de veille stratégique et faire valoir leurs compétences et savoir-faire.

Dans ce cadre l'INTD et le CNFPT ont organisé le 10 novembre 2009 un séminaire s'adressant aux documentalistes et bibliothécaires territoriaux. De nombreux intervenants tels que Christian Bourret, Maître de Conférences en Sciences de l'Information et de la Communication, et Jean-Jacques Duffourc, directeur de l'ENACT de Nancy, sont intervenus sur ces questions de développement de la fonction information-documentation dans les collectivités territoriales.

jeudi 10 décembre 2009

Green IT

Lorsqu’on évoque le terme "informatique verte" on se confronte à plusieurs types d’enjeux, repartis sur tout le cycle de vie d’un produit informatique.

Tout d’abord, il faut prendre en compte l’impact écologique de conception et de production. Ce dernier est particulièrement important, à cause des substances toxiques employées dans le processus de fabrication. Selon le rapport "Comment se diriger vers une informatique durable" réalisé par Greenpeace en 2007, le secteur informatique consommerait à lui seul un quart de la consommation mondiale de mercure.


Il faut penser, ensuite, à la consommation énergétique et à la pollution engendrée par l’utilisation quotidienne des infrastructures informatiques. On parle d’un milliard d’ordinateurs en 2008 et on en prévoit 2 milliards en 2015. Lorsque le produit arrive en fin de vie, il se pose enfin le problème du recyclage, ou d’une éventuelle réutilisation ou « seconde vie ». Ce problème devient de plus en plus d’actualité, si on considère que la durée de vie moyenne d’un ordinateur est passée, depuis 1997, de 6 ans à 2 ans.
 
Au-delà de la prise de conscience au niveau législatif ou international (voir Climate Change Conference, Copenhague), il y a plusieurs axes de progrès possibles, notamment en terme d’éco-conception et de labellisation. Si aujourd’hui le label principal est le très critiqué EnergyStar (Agence américaine pour la protection de l’environnement) on envisage la création d’un label alternatif, au niveau européen, qui prendrait davantage en compte la nature des matériaux utilisés, ainsi que leur facilité de recyclage.

 
En tout cas, l'informatique verte est désormais considérée comme un enjeu majeur pour les années à venir, dans toute entreprise ou organisation et elle représente un sujet important de réflexion, lors de la mise en place ou  le renouvellement d’une infrastructure informatique.



OpenStreetMap, une alternative à Google Maps

L'objectif d'OpenStreetMap, projet de cartographie libre, est de mettre en partage gratuit les données géographiques de la planète.

Selon ses concepteurs, les informations cartographiques relèvent de la propriété publique et non de celle des agences qui les ont relevées pour les exploiter commercialement comme l'Institut Géographique National. Ainsi l'idée maîtresse est de se positionner aux antipodes de la démarche appliquée par Google Maps se situant dans une stratégie mercantile qui conduit ce service à protéger des contenus dont la reproduction est strictement interdite.

La contribution et la gratuité sont donc les principales valeurs avancées par OpenStreetMap.

L'exploitation d'un tel outil est vaste, elle touche une multiplicité de domaines d'application. OpenStreetMap a généré une base de données utilisée par des sites Internet qui en font un usage étendu. La cartographie est désormais découpée par thèmes spécifiques, des pistes cyclables au balisage maritime.

Projet ambitieux, OpenStreetMap utilise des méthodes élémentaires telles que le déplacement de petites équipes mobiles munies de GPS. Après l'enregistrement du parcours, les coordonnées sont transférées sur un ordinateur, le résultat est converti en itinéraire routier en agrégeant les informations nominatives relatives aux lieux.

Dans cette optique, le projet invite les internautes à publier leurs propres tracés sous licence CC by-sa.

Passer de 100 000 contributeurs à un million : telle est l’ambition du projet OpenStreetMap proposé lors de la 3ème édition du State of the Map qui s’est déroulée à Amsterdam du 10 au 12 Juillet 2009.

Forces de frappe d'OpenStreetMap, les contributions des participants connaissent une croissance régulière et les créateurs envisagent un rapide développement sur la toile.

mardi 8 décembre 2009

Zakta, le moteur 2.0

"Find exactly what you are searching for". Telle est l'accroche prometteuse affichée par le dernier né des moteurs de recherche, Zakta.

Une promesse tenant en quatre points : trouver, personnaliser, partager, découvrir.

Trouver. L'affichage des résultats de recherches se fait par catégories (cent au total, parmi lesquelles: Reference, Web Sites, Books & Articles, Educational, Professional organizations and activities...) ce qui permet un accès plus rapide à un type particulier de ressource. Ainsi, les articles issus de wikipédia se trouveront sous "Reference", alors que les suggestions d'ouvrages (liant vers Amazon.com) seront accessibles sous "Books & Articles". Avec le "Zakta Best Bet", le moteur de recherche affiche en tête des résultats le site web lui paraissant le plus pertinent (fonction similaire à "J'ai de la chance" sur Google). Les suggestions de termes sémantiquement proches sont également au menu de ce moteur qui apporte à un secteur déjà bien encombré une couche Web 2.0 à la recherche sur internet.

Personnaliser. Supprimer des résultats, en modifier l'ordre (par un simple "glisser-déposer"), les annoter et les sauvegarder dans un espace personnel, sont autant de fonctions permettant au visiteur de se créer sa propre page de résultats, selon ses propres critères de pertinence.

Partager. Une fonction intéressante de Zakta réside dans la possibilité offerte à un internaute de créer ses "Zakta Guides", faisant ainsi profiter l'ensemble des visiteurs de ses résultats de recherches sur des thèmes précis. A titre d'exemple, un internaute propose un guide au sujet de la ville de Berlin, permettant de retrouver des liens organisés par rubriques vers des sites traitant de la géographie de la ville, de son économie ou bien encore de son actualité politique. Les internautes peuvent être invités à commenter les liens proposés dans ces guides et à en proposer de nouveaux.


Découvrir. Les possibilités de connexion se multiplient à mesure que s'agrandit la communauté des "Zaktanautes" : les membres se retrouvent autour de leurs centres d'intérêts, découvrent de nouveaux sites web et les font partager à leurs "suiveurs" (les "followers" dans le langage Twitter). Pour un site internet, cette mécanique peut être bénéfique car s'il est mis en avant par un internaute reconnu comme étant un expert dans son domaine, il gagnera alors en crédibilité.

Enfin, Zakta est un moteur qui apprend des recherches de ses visiteurs. Des sites mis en avant dans les "Zakta Guides" ou fréquemment partagés entre membres s'afficheront plus facilement en tête de liste de résultats.
Néanmoins, comme tout site "social", le succès et la pertinence de Zakta sont conditionnés par l'élargissement de sa communauté de membres et l'atteinte d'une masse critique de contributeurs.

Raz de marée

Poursuivant sans relâche son effort d'expansion, Google se dote d'un nouvel outil baptisé Google Wave dont l'ambition est de centraliser toutes les communications électroniques des internautes. Le principal atout de ce nouvel outil repose sur la faculté d'échange en temps réel des informations. Ainsi, à la manière Etherpad, l'utilisateur voit sur son écran s'afficher progressivement les contributions de ses partenaires et peut intervenir directement dessus. Il existe également une fonction historique présentée sous la forme d'une timeline. Avec cette barre temporelle, semblable à celles que l'on retrouve pour le visionnage d'un film ou d'un fichier audio, l'utilisateur peut retourner à un état antérieur d'une discussion, ou de composition d'un document.
Dans cet espace, l'utilisateur peut donc non seulement travailler avec des collaborateurs, et stocker ses documents, mais encore chatter, comme sur Gmail, ou partager des photos et des vidéos avec ses contacts. De nombreuses fonctions permettent également d'étendre ses moyens de communication au moyen de robots de traduction de langues, ou en intégrant un service de sms.
L'utilité de Google Wave, au regard de son interface riche et colorée se veut donc à la fois ludique et professionnelle. Elle mise sur l'intuitivité avec, notamment, les fonctions de glisser/déposer. Voici un apercu de son interface:

Dévoilée le 28 mai dernier, Google Wave est testée depuis le 30 septembre dernier par une poignée d'internautes qui a reçu des invitations. Il est possible de s'en procurer, à condition d'être patient, en suivant ce lien :
https://services.google.com/fb/forms/wavesignup/

Ou de visionner la video réalisée lors du lancement officiel :
http://www.youtube.com/watch?v=v_UyVmITiYQ&feature=player_embedded

Le raz-de-marée Google a donc encore de beaux jours devant lui...




lundi 7 décembre 2009

Numérisation des œuvres orphelines: les solutions préconisées par l'IABD

Les œuvres orphelines sont un obstacle majeur au développement de la numérisation. Pour l'Interassociation archives-bibliothèques-documentation (IABD), "le défi consiste à trouver, en concertation avec tous les acteurs concernés, le système juridique adéquat qui permettra de numériser rapidement ces fonds, en conciliant le respect du droit d’auteur avec l’exigence d’accès à la culture et au savoir"(1).

Pour numériser et communiquer les œuvres orphelines en toute légalité, y compris sur Internet, les quatorze associations signataires préconisent :
  • des accords-cadre définissant le seuil minimum de recherche avérée et sérieuse et les grilles tarifaires des redevances à acquitter ;
  • une société de gestion collective agréée faisant office de guichet unique ;
  • une licence en échange d’une compensation financière raisonnable, laquelle servira notamment à indemniser les ayants droit qui se manifesteraient.
Cette déclaration s'appuie sur une synthèse juridique rédigée par Michèle Battisti, mise à disposition sur son nouveau blog, Paralipomènes, "Les oeuvres orphelines, le défi lancé par Google".

(1) Déclaration du 2 décembre 2009: http://www.iabd.fr/spip.php?article91


Un comité des sages européen face à Google

Les grands projets de bibliothèques numériques telles qu'Europeana ont pour ambition d'offrir aux chercheurs et aux consommateurs de toute l'Europe de nouveaux moyens d’accéder aux connaissances. Une politique volontaire de numérisation du patrimoine culturel est engagée tant dans l'Union européenne qu'en France. La BNF et la bibliothèque de Lyon ont notamment lancé des projets de numérisation de grande envergure.
Google a bien évidemment répondu présent et est tout a fait en capacité de relever les défis de la numérisation des fonds patrimoniaux français. La mairie de Lyon a signé un contrat de numérisation avec Google qui vient d'être rendu public sur la demande de LivreHebdo qui , pour cela, a dû saisir la CADA (Commission d'Accès aux Documents Administratifs). La BNF étudie également la possibilité de contracter avec Google, parallèlement aux projets qu'elle mène dans le cadre européen. Les fonds sont tellement conséquents que le partenariat avec Google parait inévitable pour que le projet se réalise à court ou moyen terme.
Ce qui inquiète, c'est qu'il semble être actuellement le seul à avoir les moyens de le faire comme le montre Dominique Lahary sur son Dlog : Google va t-il tout dévorer ?. Une partie importante du contenu du patrimoine français ou européen pourrait alors se retrouver entre les mains du géant américain.
Google, en position de force, cherche actuellement à négocier des accords avec les éditeurs anglo-saxons. Or, pour encadrer la numérisation de son patrimoine, ni la France, ni l'Europe n'entendent se laisser dicter la loi par Google. C'est pourquoi, les ministres de la Culture de l'Union européenne ont décidé, le 27 novembre, de créer un comité des sages chargé d'encadrer les partenariats public-privé, l'objectif poursuivi étant notamment de trouver un consensus européen face à Google.
La mission de ce comité sera de "développer une doctrine commune et lisible sur les conditions du partenariat public-privé" pour 2010.
Le ministre français de la Culture, Frédéric Mitterand, est à l'origine de cette proposition qui a reçu le soutien de plusieurs états membres. En France, la commission sur la numérisation des fonds patrimoniaux des Bibliothèques sous tutelle du ministère de la Culture et de la Communication, présidée par Marc Tessier, est chargée d’étudier l’opportunité et les modalités d’un éventuel accord avec un opérateur privé, pour numériser ou mettre en ligne les fonds des bibliothèques. Elle doit rendre ses conclusions à la mi-décembre.

jeudi 3 décembre 2009

Tag et thésaurus

À l'heure où folksonomie et autres indexations soulèvent intérêt ou inquiétude, Antonin Benoît Diouf propose sur son blog aux documentalistes et aux professionnels de l'information de se détacher de "de l’amateurisme qui se manifeste généralement dans la liberté de description de contenu permise par les médias sociaux".

Il présente ainsi une liste de dix thésaurus consultables en ligne, couvrant des domaines aussi variés que le développement économique et social, les institutions européennes, l'agriculture, la santé, l'eau ou encore la culture et l'éducation. Une sélection utile de thésaurus de qualité.

On signalera par ailleurs l'arbre (encore en pleine croissance) de Tard-Bourrichon, annuaire de thésaurus francophones et gratuits en ligne.

Créer, nommer ; penser, classer. Ces opérations, certes hautement symboliques, sont aussi une part intégrante de notre métier. Si l'ampleur et la prolifération des connaissances rendent aujourd'hui caduque l'ambition initiale des classifications universelles, le savoir-faire des documentalistes reste une valeur qu'il ne faudrait pas sous-exploiter.

Un OVNI dans les moteurs de recherche

Quelques jours avant Halloween un bien curieux moteur de recherche a fait son apparition sur la toile : "Mystery Google" (www.mysteryggogle.com).
D'apparence, ce site ressemble à celui de Google mais son apparence esthétique plutôt moyenne (une pleine Lune sur fond noir) le rend lugubre et un rien... mystérieux. Pourtant on peut vite se rendre compte que ce moteur n'est pas dénué d'humour. Tentez une requête et ce "Google mystère" vous envoie vers des réponses totalement insolites.
En fait, ce moteur a la particularité de ne pas répondre à la question que vous lui posez. Il vous oriente vers les réponses d'un utilisateur précédent ! Cela peut donner des situations très cocasses. Ainsi, en tapant "Barak Obama" vous pouvez vous retrouver au Syndicat d'Initiative de La Rochelle, "Nicolas Sarkozy" peut vous envoyer sur une pizzeria à Montpellier, la "BNF" vers un restaurant chinois à Sydney...

Si vous êtes amateur du surréalisme cet outil est pour vous ! Vous êtes sûr de ne pas trouver de réponse à vos questions.

Plus drôle, quelques mots provoquent des comportements surprenants.
Ainsi, si vous tapez "Hello" il vous répond "Hi !" ("salut !), le mot "test" donnera le message : "It works !" ("ça marche !"), la requête "Google" vous donnera "No, mystery Google" et "Mystery Google" donnera "that is the site you are on" ("c'est le site ou vous êtes").
Par contre, si vous tapez "Facebook" vous arriverez sur la page d'accueil de... Facebook. C'est à ne rien y comprendre !
Il doit exister une dizaine de mots clés capables de le faire réagir. Les trouver par jeu est bien le seul intérêt de ce produit.
Reste une question à aborder. Qui se cache derrière cet interface ? Google ? Mauvaise pioche ! Il y a quelques jours ce moteur à changé de nom. Il se nomme dorénavant "Mystery Seeker" et la surprenante référence "Google is a trademark of Google.Inc" a laissé la place à "copyright mystery seeker 2009". On peut légitimement supposer que Google a moyennement apprécié la plaisanterie. Il semblerait qu'un mystérieux site "Topinternets.com" se cache derrière tout cela.

A voir... En fait, "Mystery google" pardon "Mystery Seeker" ne serait rien d'autre que du "marketing teasing". Vous voulez savoir ce que c'est ? A vous de trouver le bon moteur de recherche...

mardi 1 décembre 2009

Intelligence ambiante

Voilà une expression qui ne va pas de soi, si on regarde ce qui nous entoure... Qu’est-ce que l’intelligence ambiante ? Cela désigne une tendance actuelle de l’informatique dont on nous prédit le complet développement en 2010 donc très prochainement. Le concept recouvre l’introduction d’internet et de l’informatique dans tous les objets de la vie quotidienne (on parle aussi d’ « internet des objets ») grâce aux avancées des nanotechnologies. Ainsi le web devient omniprésent : tout le monde accède au réseau de n’importe où, par n’importe quel moyen et à tout moment. Par ailleurs, les objets communiquent entre eux de manière autonome sans passer par l’intermédiaire d’un utilisateur : l’exemple fréquemment cité est celui d’un réfrigérateur qui proposerait un menu à partir des ingrédients qu'il contient, signalerait la date de péremption des aliments et commanderait directement ceux en rupture de stock…

La conception classique de l'informatique centrée sur le couple utilisateur/ordinateur est remise en question : l’informatique serait alors diluée dans l’environnement des individus.




Pervasion=la pénétration de l'électronique dans des produits non électroniques
(Source: Wikipedia, "Intelligence ambiante")


Pour résumer, l’intelligence ambiante repose sur trois domaines :
- L’Ubiquitous Computing : on intègre des microprocesseurs dans les objets de la vie quotidienne.
- L’Ubiquitous Communication : les objets communiquent entre eux et avec l'utilisateur.
- L’ Intelligent User Interface : les usagers contrôlent et interagissent avec ces objets de manière intuitive.

Déjà très ancrée dans les programmes de Recherche et Développement des entreprises concernées et aussi dans ceux de l'Union Européenne, ce domaine représente un secteur clé des nouvelles technologies d’un point de vue économique car les applications sont extrêmement larges: équipement de la maison, télécommunication, équipement des entreprises, etc. (voir la maison du futur - en passant c'est toujours la mère qui range la vaisselle... - présenté par le projet européen Amigo - Ambient Intelligence for the networked home environment auxquel ont participé 16 sociétés européennes, instituts de recherche scientifique et universités). Quant aux conséquences dans le domaine éthique, les questions sont nombreuses et notamment celle des possibilités de traçage des utilisateurs.

jn.marie

lundi 30 novembre 2009

"Renard de feu " sera présent au CNAM le 15 décembre !

Internet pour tous, un meilleur accès au Web, le navigateur Web le plus sur, l'intérêt public, open source......c'est Firefox bien sur !

Ce navigateur que nous utilisons tous les jours et  plusieurs fois par jour est un navigateur libre.


Le manifeste de Mozilla pour faire d'Internet un lieu "encore meilleur pour tout le monde" rappelle que....
- "la réalité d'Internet en tant que ressource publique dépend de l'interopérabilité, de l'innovation et d'une participation décentralisée mondiale,
- les logiciels libres et open source favorisent le développement d'Internet comme ressource publique,
- des processus transparents et communautaires favorisent la participation, la responsabilité et la confiance"...


Le Cnam accueillera le 15 décembre dans le cadre des "Mardi de l'innovation" Tristan Nitot, PDG de Mozilla Europe.

Fans de "Renard de feu", ne boudons pas notre plaisir d'aller participer à ce mardi prochain !
C'est tellement rare une utopie en action.

"Anticiper les usages numériques de demain" - Colloque du Numérique à Lyon

"Le développement des Technologies de l'Information et de la Communication  a changé les modes de fonctionnement dans et hors de l'entreprise favorisant les échanges, les relations et gommant ainsi les distances et les frontières". C'est dans ce contexte que se tient les 1er et 2 décembre 2009 à Eurexpo à Lyon, la sixième édition du Colloque du Numérique. Créée en 2004, cette manifestation annuelle est organisée par l'Espace Numérique Entreprises, centre de ressources dédié aux TIC et à l'amélioration des performances des entreprises. Parmi les partenaires de l'événement, notons ARDI Numérique (Agence Régionale du Développement et de l'Innovation) et ADIRA (Association pour le Développement de l'Information en Région Rhône-Alpes).

Les objectifs du Colloque du Numérique sont nombreux : apporter un regard prospectif sur l'usage du numérique dans les entreprises, faire comprendre les évolutions engendrées par la société de l'information, donner des éléments permettant aux entreprises d'anticiper et montrer des exemples de technologies émergentes. Ces deux journées sont réservées aux dirigeants et aux cadres qui s'intéressent à l'impact des technologies numériques sur la performance des entreprises et souhaitent actualiser leurs connaissances en ce domaine.

Le colloque est organisé autour de 4 grandes activités : la conférence plénière pour découvrir les nouveautés des TIC et les changements d'organisation des entreprises ; les ateliers thématiques qui approfondissent certaines questions (e-mobilité, réseaux sociaux, information durable, etc.) ; des stands tenus par des chercheurs qui présentent les innovations de leurs laboratoires ; et la nouveauté de cette année, les "clubs techno" ou groupes de travail dans lesquels chaque participant peut discuter d'un projet. Pour plus d'informations sur le programme complet de l'édition 2009.

Informations pratiques :
Le Colloque du Numérique est réservé aux professionnels des entreprises.
La pré-inscription est clôturée depuis le 27 novembre. Vous pouvez néanmoins vous présenter à l'accueil général du salon pour y accéder (sous réserve de places disponibles dans les salles).
Horaires :1er décembre : 9h30 - 17h / 2 décembre : 10h - 16h.


jeudi 26 novembre 2009

La culture de l'information en reformation : une thèse pour faire le point

Olivier Le Deuff vient de déposer sur la plateforme HAL la version de soutenance de sa thèse consacrée à la culture informationnelle et soutenue à l'Université de Rennes 2. Cet important et volumineux travail de recherche, simplement intitulé la culture de l'information en reformation, revient sur ce concept devenu central dans les métiers de la documentation.


De l'information literacy à la culture de l'information
Cette expression anglaise, dont découle directement la fameuse notion de culture informationnelle, désigne la faculté de comprendre et d'exploiter l'information. Elle s'est traduite dans les faits par la mise en place de nombreux services d'accompagnement du public scolaire et étudiant dans les bibliothèques universitaires américaines, permettant à la fois une formation à des concepts bibliothéconomiques de base et une sensibilisation aux grands enjeux de la maîtrise de l'information.
En France, l'expression "culture de l'information" reste mal comprise, et c'est tout l'objet de la thèse d'Olivier Le Deuff que d'en proposer une définition plus claire, au croisement de la "formation des usagers", de la "maîtrise de l'information", de la "computer science" et de nombreuses autres notions émergentes.
Après d'être replongé dans la généalogie et l'archéologie de la culture de l’information, Le Deuff s'intéresse aux différents acteurs et aux différentes position quant à la formation à l'information et aux médias ainsi qu'aux enjeux présents et futurs de la culture de l'information.

Fracture numérique, fracture culturelle
Comme l'explique l'auteur dans son introduction (p.5), "à côté de la fracture numérique souvent perçue comme essentiellement matérielle, il existe une fracture culturelle entre ceux qui savent tirer la quintessence des nouveaux moyens technologiques et ceux qui n‘y trouveront guère de moyens d‘y parfaire leur connaissance". Les enjeux de l'éducation à l'information sont donc aujourd'hui multiples : apprentissage de savoir-faire mais aussi de savoir-être, maîtrise des nouvelles technologies mais également de leurs implications théoriques et sociales, assimilation et construction des connaissances sont autant de champs abordés dans la thèse d'Olivier Le Deuff.


LE DEUFF Olivier. La culture de l'information en reformation. Thèse de Doctorat en Sciences de l‘information et de la communication. Sous la direction de Yves Chevalier. Rennes : Université de Rennes 2, 2009, 532 p.
Disponible sur <http://halshs.archives-ouvertes.fr/tel-00421928/en/ >

"L'entreprise compétitive" - 4ème Journée nationale d'intelligence économique 2009

La 4ème Journée nationale d’Intelligence Economique d’Entreprise (JIEE’09) est organisée, conjointement, par le pôle universitaire Léonard de Vinci et l'Académie de l'Intelligence Economique. Elle se tiendra, le 10 décembre 2009, dans les locaux du pôle et sous le Haut patronage de Mme Christine Lagarde, Ministre de l’Economie, de l’Industrie et de l’Emploi.

Depuis la 1ère JIEE organisée en 2004, la compétitivité des entreprises est le thème central de cette journée. Pour les économies matures, telle que la notre, se pose aujourd'hui la question de la sortie de crise. Plus que jamais, les groupes français et européens devront faire preuve de réactivité. L'intelligence économique est un des outil pouvant leur permettre de relever ces nouveaux défis, leur donner un nouvel élan et les rendre toujours plus performantes.

Le Comité de programme, présidé par Alain Juillet, Haut responsable chargé de l’intelligence économique, propose 4 ateliers et 1 table ronde tout au long de la journée. Chefs d'entreprises et experts pourront débattre sur des questions telles que : "Comment mon entreprise peut-elle sortir plus jeune, plus agile, plus innovante, plus compétitive, d’une crise qui aura probablement modifié son environnement ?"; Quels sont les nouveaux outils de l'intelligence économique (IE) ? "Comment monter une stratégie d’influence?"...

Programme

  • Atelier 1 : « Approche et pratique de l’intelligence économique
    au niveau international »
  • Atelier 2 :« Les nouvelles clés d’un management gagnant »
  • Atelier 3 :« Les nouveaux outils de l’intelligence économique : les réseaux sociaux »
  • Atelier 4 :« De la communication à l’influence »
  • Table ronde« L’intelligence économique : un moyen pour une sortie de crise « par le haut »

Pour en savoir plus
Inscription (obligatoire)
Tarifs : 300 € pour la journée incluant le déjeuner
200€ la demie-journée

mercredi 25 novembre 2009

Les jeunes et la lecture

Avec l'engouement des jeunes face aux nouvelles technologies ( internet, jeux vidéo....) on peut se demander la place qu'occupe aujourd'hui le plaisir de lire chez les jeunes.
S'il est clair que l'environnement social favorise les possibilités d'accès à la lecture, le plaisir de lire peut venir d'ailleurs

L'adaptation aux ciné avec ( succès) de certains best seller ou des bandes dessinées apparait comme un moyen de permettre à une catégorie de population jusqu'alors réticente à la lecture de redécouvrir des univers qui les poussent à la lecture : pour exemple le succès de Twillight aurait permis de remettre au gout du jour un nouveau genre vers lequel les jeunes sont attirés celui de la "fantasy urbaine".

Des mesures récemment prises, pour permettre aux jeunes de 18 à 24 ans de s'abonner gratuitement à la presse sont aussi peut être un moyen de susciter le désir de lire...

Murdoch VS Google

Nouvel épisode dans le conflit qui oppose Google et les éditeurs de contenus… Le magnat australien Rupert Murdoch, à la tête d’un empire qui compte notamment The Wall Street Journal, The Times et The Sun, souhaite en effet que les informations diffusées par son groupe News Corporation ne soient plus indexées sur Google News.

Le problème n’est pas nouveau : on se souvient en effet de l'accueil houleux réservé l'an passé à Josh Cohen, le big boss de Google, lors de son passage à Paris aux Etats généraux de la presse française. Au coeur de la polémique : le partage des recettes publicitaires entre Google et les éditeurs. Car si Google News offre une visibilité incomparable aux articles qu'il reproduit, la répartition des revenus générés par la publicité sur le site ne profite qu'à la firme américaine, selon les éditeurs de presse.

Les propos de Murdoch ne semblent pas avoir impressionné outre mesure les responsables de Google, qui se sont empressés d'indiquer que les éditeurs restaient libres de faire apparaître ou non leurs contenus dans les moteurs de recherche. Mais le milliardaire ne s'arrête pas là: c'est plus généralement la gratuité sur internet qui semble le déranger (lire à ce sujet le portrait de l'homme d'affaires sur le site des Inrockuptibles). Dénonçant le pillage dont il se dit victime, notamment de la part de Google, Murdoch a décidé de rendre payantes les éditions internet de ses journaux à partir de 2010.

Difficile de dire si Rupert Murdoch va mettre ses menaces à exécution : peut-on en effet imaginer se passer aujourd'hui du référencement offert par Google, alors que la presse traverse une crise sans précédent? Affaire à suivre...

mardi 24 novembre 2009

Parution d'une nouvelle étude sur les métiers de l'infodoc

En tant qu'étudiant en info-doc ou même parfois en tant que professionnel confirmé dans le domaine, nous nous posons des questions sur notre positionnement dans le métier. En effet, nous sommes amenés à porter différentes casquettes : documentaliste, veilleur, archiviste. De plus, du fait de l'évolution des outils, le métier est lui-même en perpétuelle évolution.

Pour tenter de répondre à ces questions et pour avoir une bonne vision de notre domaine, il semble très intéressant de consulter l'étude publiée par serdaLab le mois dernier. Ce laboratoire de veille, d'analyse et de prospective a effectivement produit une étude de 400 pages intitulée "Les horizons de l'infodoc". L’objectif de cette étude est de procurer des clés de repositionnement, des axes d’évolution, d’apporter des arguments chiffrés à avancer à une direction pour démontrer son utilité et ses compétences. Il est malheureux d'avoir à dire qu'il faille justifier de notre existence, mais c'est encore parfois le cas.

Il est d'abord fait dans cette étude un état de la profession et de son évolution sur les trois dernières années. Mais ce que je trouve surtout utile dans la perspective de trouver un emploi, c'est que ce document nous apporte des clés en terme de nouveaux métiers, de secteurs qui recrutent, d'attentes des décideurs et d'orientation stratégique de notre futur service.

Bien entendu, une étude si riche a un prix. Pour en savoir plus :

http://serda.com/fr/serda-information-connaissance-archives-electronique-records-management-veille/serdalab/les-etudes-serdalab/les-etudes-sociologiques/les-nouveaux-horizons-2009.html

Savez-vous bien rédiger pour le web ?

Graphisme et prouesses techniques peuvent rendre un site beau et agréable à consulter. Mais c'est avant tout pour lire et trouver l'information recherchée qu'un internaute se connecte. Bien écrit et bien construit, un site gagne en visibilité pour être référencé par les moteurs de recherches et les annuaires web. Pour rédiger des contenus efficaces pour vos visiteurs comme pour les moteurs de recherche, reportez-vous au livre "Bien rédiger pour le Web" d'Isabelle Canivet, consultante et formatrice en rédaction web, référencement éditorial et gestion de projet web.

Premier livre en français permettant d'améliorer son référencement naturel grâce à une bonne rédaction pour le web, ce guide s’adresse aux webmestres, rédacteurs et chargés de contenu web, chefs de projet, architectes de l'information, référenceurs... et tout acteur d'un projet web. Le livre aborde les enjeux d'une écriture centrée utilisateur, passe en revue les bonnes pratiques éditoriales et insiste sur les bénéfices d'une écriture adaptée en terme de référencement. Il vous permettra de :
- comprendre ce que votre internaute vient chercher et vous approprier les principes d'ergonomie et d'accessibilité
- apprendre les bases et les techniques du référencement
- soigner l'architecture de l'information pour faciliter la navigation
- favoriser la lisibilité en ligne et utiliser à bon escient l'image et le multimédia
- exploiter les zones chaudes (lues en premier) pour capter l'attention et placer vos mots-clés
- optimiser chaque type de contenu (page d'accueil, newsletter, blog, FAQ, communiqué de presse, slogan, signature...)
- auditer le positionnement et l'accessibilité aux robots de votre site et mesurer votre audience
- garantir le sérieux et la cohérence de votre image en suivant une ligne éditoriale

Si vous n'avez pas trouvé la réponse à toutes vos questions dans le livre, ou tout simplement pour aller plus loin, vous pouvez consulter le site de la société d'Isabelle Carnivet Action-redaction.com, une référence en matière d'optimisation du contenu de sites web.


"Bien Rédiger pour le Web. Les Clés du Referencement Naturel", Isabelle Canivet, Eyrolles, juin 2009, 418 pages. Côte CRD INTD : 10712-VII D1

jeudi 19 novembre 2009

Web 2.O, journées d'étude "Plonger dans le Web 2.O" par l'ADDNB

L'Association pour le développement des documents numériques en bibliothèques (ADDNB) organise le lundi 23 et le mardi 24 novembre 2009 des journées d'étude sur le thème "Plonger dans le Web 2.0". Ces journées se tiendront à Paris dans les locaux de l'Ircam le 23 puis de la BPI le 24.

Précédées par l'Assemblée générale de l'association qui aura lieu le lundi matin, ces journées ont  pour objectifs de proposer aux participants des clés et des idées pour monter des projets Web 2.0 en bibliothèques, pour se former, s’auto-former et partager avec des collègues... des pistes de découvertes, d’expérimentation avec des ateliers concrets. 
Il s'agit également d’apporter aux bibliothécaires un accompagnement à leur démarche Projet, une pratique des outils du Web 2.0 et des tutoriels réutilisables dans leurs établissements.

Ouvertes sur inscription, en priorité aux adhérents de l'association, les journées sont aussi accessibles - en fonction des places disponibles - à tous les professionnels des bibliothèques.


Pour en savoir + :



Formulaire d'inscription

Enquête sur l'adoption et la perception de l'Open Source

Les logiciels Open Source, qui se caractérisent par la liberté d'accès à leur code source à la différence des logiciels commerciaux, sont de plus en plus utilisés par les particuliers et les entreprises. On parle également de logiciel libre.
En quelques années, les projets Open Source se sont multipliés : il existe maintenant un équivalent pour un très grand nombre de logiciels commerciaux. De plus, depuis les années 2000, de nombreux géants de l'informatique comme Novell, IBM ou HP soutiennent des projets Open Source ou en créent.

Une enquête consacrée à l’adoption et à la perception de l’Open Source est proposée chaque année par la société Actuate Corporation (leader des applications de Business Intelligence, de gestion de la performance et de reporting).

Elle est menée en Amérique du Nord, en Grande-Bretagne, en Allemagne, en France et, pour la première fois cette année, en Chine. Cette quatrième édition regroupe près de 1.500 participants sur plusieurs secteurs, ce qui en fait une des enquêtes les plus complètes.
Elle propose un aperçu des comportements et des tendances liés à la croissance et à l’adoption des logiciels libres dans un des cinq pays (cette année la France), ainsi qu’ un résumé de la situation des quatre autres pays.
Cliquez ici pour y accéder.

mardi 17 novembre 2009

E-réputation : une stratégie nouvelle en pleine croissance

Un concept grandissant
L'e-réputation, la gestion de la réputation en ligne, la cyber notoriété... plusieurs dénominations pour un concept qui monte, résumable en une question : être ou ne pas être sur le web aujourd'hui? Et surtout de quelle manière? L'e-réputation est devenue en quelques temps un concept inhérent aux stratégies marketing et de communication des organisations. D'un point de vue de l'individu aussi, cette approche consistant à prendre conscience de sa présence numérique est devenue indispensable.
Le début de l'année 2009 a vu un pic des recherches sur ce sujet, annonçant ainsi le début de ce nouveau "phénomène". Cette augmentation soudaine de l'intérêt pour l'e-réputation se traduit aussi dans la volumétrie des articles publiés sur le sujet.

Ses enjeux
Pratique émergente de l'influence des marques et des individus sur internet, l'e-réputation est une nouvelle approche qui ne se résume pas à quelques outils techniques. En effet elle s'intègre dans une stratégie de communication nécessaire à la stratégie des organisations, en veille d'opinion par exemple, et n'est qu'une évolution logique des bouleversements sociologiques liés au web. Elle permet de gérer de manière offensive l'image de l'entreprise sur la toile. L'offre de prestations en gestion et surveillance de l'e-réputation a d'ailleurs explosé, proposant des plateformes "clés en mains", qui nécessitent néanmoins une qualification des sources et une analyse correcte des résultats.

Les outils
Il existe désormais un marché de l'e-réputation, avec de nombreuses agences et sociétés proposant des prestations en gestion de la réputation sur le web, veille de notoriété, etc., dont la grande majorité se trouve à Paris IDF, mais aussi dans des villes "pôles e-réputation" comme Mulhouse (3 agences) ou Bordeaux (3 agences). De nombreux outils, gratuits pour la plupart, permettent un retour qualitatif car il est possible d'évaluer les opinions et avis des internautes (positif, négatif, neutre) et un retour quantitatif (buzz, jeu-concours, etc.). A voir : tableau comparatif des outils de veille en e-réputation

Débat sur sa pertinence
Jusqu'à présent le seul scoring universel est celui de Google, le Page Rank, mais qui souffre de nombreuses lacunes pour être exploitable à des fins de social marketing : le manque de précision de l'échelle (de 1 à 10), le manque de transparence (sur les mises à jour), et sa propriété privée (même s'il est public, Google peut l'utiliser à sa guise). Le Page Rank n'est pas la solution. Pour le reste, il existe pour les acteurs du marché le risque de donner de manière absolue la confiance à l'outil. D'autres avancent que "connaître l'opinion des internautes concernant votre entreprise ou votre produit a peu d'intérêt si vous n'avez pas déterminé à l'avance quelle image vous souhaitez  avoir" et que "veiller à l'aveugle a peu d'intérêt".

En bref : l'e-réputation n'a pas fini de faire parler d'elle!

à lire & à suivre :


"Mah tailur is rich"

On n'arrête pas de le répéter : une bonne pratique de l'anglais est aujourd'hui indispensable pour le professionnel de l'info-doc. Cependant, selon une étude publiée en 2008, les français seraient au 69e rang dans le classement des bons connaisseurs de l'anglais. L'aspect que craignent le plus les Français : l'oral. Et avec une multitude d'accents régionaux, la compréhension à l'oral de l'anglais authentique peut représenter une véritable épreuve.

Avec Sounds Familiar, une ressource web interactive créée par le British Library, l'internaute n'a plus besoin de se déplacer au fin fond des Shetlands pour se familiariser avec l'accent et les sonorités propres à cette région. Réalisée à partir du fonds audiovisuel du British Library Sound Archive, et plus particulièrement du Survey of English Dialects, du Survey of Anglo-Welsh Dialects et du Millennium Memory Bank, Sounds Familiar permet de naviguer parmi 600 extraits sonores et 76 enregistrements en passant par des cartes interactives et des rubriques thématiques.

On apprend qu'en Yorkshire, dire "Curka Curla" est considéré comme plus sophistiqué que de dire "Cooka Coola". On découvre également quelques-uns des nombreux mots d'origine étrangère qui ont enrichi l'anglais courant tels que bhangra (un mélange de la musique traditionnelle Punjabi, le reggae et le hip-hop) ou  le terme argotique innit collé en fin de phrase (comme "tu vois"). Une analyse lexique, phonologique, grammaticale et étymologique est proposée pour chaque phrase étudiée.

Pourquoi parler anglais comme une vache espagnole quand on peut parler comme une vache de Glasgow ?

La collaboration en ligne promet de devenir plus intuitive

Aujourd'hui de nombreux collaborateurs travaillent ensemble au moyen des technologies de l'information et de la communication. Ce mode de travail nommé communément le "travail collaboratif" réunit une diversité d'outils d'aide au travail en équipe.
Mais souvent ces outils au lieu de simplifier et accélérer l'échange peuvent le freiner (des outils de partage d'information trop complexes ou trop généralistes donc moins riches en fonctionnalités, l'obligation de l'utilisation d'un logiciel collaboratif au sein du groupe de travail).
Pour pallier ces difficultés, l'Union Européenne a financé le projet Ecospace visant la standardisation des outils de travail collaboratif. Cela permettra aux utilisateurs de se libérer des contraintes et des règles de fonctionnement liées à chaque logiciel de travail collaboratif disponible sur le marché.

lundi 16 novembre 2009

Sociologie, journée d'étude sur la stratification sociale au travail

Lundi 18 janvier 2010 aura lieu une journée d'étude organisée par l'équipe Cultures et société urbaines du Centre de recherches sociologiques et politiques de Paris (Paris 8). Cette rencontre a pour objectif d'aborder la stratification sociale au travail, plus particulièrement dans le monde du commerce. 

En effet, le commerce, à la fois en tant que type d'activité, mais aussi en tant que lieu, est animé d'une dynamique qui repose sur les échanges, qu'il s'agisse d'échanges de biens, ou d'échanges interpersonnels. Partant du constat que ce secteur regroupe une grande diversité de professions (commerciaux, distributeurs, commerçants, vendeurs, manutentionnaires, etc.), les intervenants  de ce débat se proposent d'établir une typologie de ses différents agents,  afin d'étudier les relations professionnelles qui se créent parmi eux. Il s'agit d'étudier dans quelles mesures les relations commerciales induisent des relations hiérarchiques entre les différents acteurs du circuit de distribution. JE_CSU_18-01-2010.pdf

dimanche 15 novembre 2009

Zotero : un outil de gestion bibliographique open source

Qu'est-ce-que Zotero ?
Zotero (prononcé Zoh-TAIR-oh) est un outil de gestion bibliographique gratuit et open source pour le navigateur FireFox. Il permet de collecter sur le web des données bibliographiques, de les gérer, de les classer, d'y attacher des fichiers et de les exporter.
Il permet ainsi de créer une bibliographie lors de la rédaction d'un article scientifique ou d'un rapport.
Profil des utilisateurs
Cet outil est destiné aux étudiants de troisième cycle et aux chercheurs pour les aider dans la gestion de leurs bibliographies.
Guide d'utilisation
Un manuel, version 2.0 d'utilisation et d'installation, mis à jour en janvier 2009 par la documentation centrale des Hospices Civils de Lyon présente une vue d'ensemble du logiciel et de ses différentes fonctionnalités. Ce manuel, est utilisé comme support de formation pour le personnel de l'établissement.
La version 1.0 de Zotero présentée dans ce billet offre des fonctionnalités appartenant à différentes applications :
- Capturer des pages web et/ou conserver le lien vers le site d'origine
- Annoter des pages web capturées (insertion de notes, marqueur...)
- Importer et exporter des références provenant de bases de données
- Rechercher des mots-clés dans les bases de données ou dans le texte intégral
- Sauvegarder des recherches sous forme de dossiers
- Insérer des citations
- Générer une bibliographie
Zotero 1.0 permet ainsi de référencer facilement des documents au format électronique (billets de blogs, sites web...) contrairement à beaucoup d'autres logiciels.
La version 1.0 de Zotero est téléchargeable sur le site zotero.org.
Vers un outil collaboratif (Web.2.0) ?
La nouvelle version béta 2.0 disponible également sur le site de Zotero donne la possibilité de créer un groupe privé ou public ou de s'abonner à un groupe selon son centre d'intérêt. On peut chercher des personnes par discipline, inviter des membres à joindre son propre groupe et consulter les bibliothèques des autres membres de Zotero. Un tutoriel en vidéo permet de comprendre ce logiciel et de mieux cerner ses subtilités.
Yvonne Bertrand



samedi 14 novembre 2009

Rapport sur le livre numérique

Dans le cadre de ses travaux sur le livre numérique, l'observatoire du livre et de l’écrit en Ile-de-France (MOTif) a mis en ligne le 26 octobre 2009 un rapport sur l’histoire et les enjeux du numérique élaboré, à sa demande, par Constance Krebs.

Constance Krebs est éditrice en ligne et pionnière du livre numérique avec la maison d’édition 00h00.com, aujourd'hui disparue.

Ce rapport retrace l’histoire du numérique, défini les enjeux actuels et expose l’opinion d’une cinquantaine de personnalités du monde du livre et de la bouquinosphère.

Ce document est ainsi un élément supplémentaire de réflexion permettant d'alimenter les discussions actuelles sur le sujet.


Télécharger le rapport :

mardi 10 novembre 2009

Livre numérique et téléchargement illégal

Alors que le ministre de la Culture lançait le 26 octobre 2009, les travaux de sa commission pour la numérisation du patrimoine des bibliothèques, Le Motif, observatoire du livre et de l'écrit de la région Ile de France, publiait les résultats de son étude « eBookz » sur l'offre numérique illégale de livres français sur Internet en 2009.
Ce dernier est allé scruter sur Internet les livres francophones d'éditeurs français soumis au droit d'auteur non libres de droits qui étaient téléchargeables illégalement.
Il apparait que le nombre de livres publiés par des éditeurs français, disponibles en téléchargement illégal est estimé, à l’été 2009, entre 4 000 et 6 000 ouvrages,
principalement de la bande dessinée. Soit moins de 1 % des titres disponibles légalement au format papier.
Les auteurs les plus téléchargés sont Gilles Deleuze, Bernard Werber et Amélie Nothomb.
Les livres les plus souvent indexés et partagés dans les différents réseaux illégaux sont "Le Sexe pour les nuls", la série Harry Potter de J.K. Rowling, "Le Grand Livre de cuisine" d’Alain Ducasse et la série Twilight de Stephenie Meyer.Les trois éditeurs ayant le plus de titres piratés sont Gallimard, Dunod et Hachette.
En ce qui concerne la BD, on retrouve Delcourt, Dargaud et Dupuis.
Le Motif souligne qu'il y a peu de best-sellers ou de livres qui font la rentrée littéraire.
La situation est donc loin d'être aussi critique que pour les secteurs de la musique, du cinéma et de l'édition vidéo
Cette étude est le point de départ de plusieurs recommandations adressées aux éditeurs afin qu'ils anticipent les problèmes de piratage : développement de leur catalogue numérique, mise au point d'alertes pour surveiller la circulation de leurs titres sur le net, concertation avec les autres acteurs de la chaîne du livre, meilleur respect des droits des auteurs et mise en œuvre de formation professionnelles destinées à l'édition indépendante.
Le Motif compte renouveler cette étude pour la transformer en un observatoire annuel du piratage afin de l'inscrire dans une réflexion plus large sur la valeur d'usage des livres et sur les droits des auteurs.

Vers un partenariat entre acteurs privés américains et institutions publiques françaises dans la numérisation des fonds des bibliothèques ?

Lors de la 61ème édition de la Foire du livre de Francfort, le moteur de recherche américain Google a annoncé le lancement en 2010 en Europe de sa librairie numérique pour concurrencer Amazon dans la vente des livres électroniques: Google edition exploitera une partie des ressources accumulées dans Google book, immense base d'ouvrages issus de la numérisation du fonds des bibliothèques et des universités. La majorité de ce catalogue est pourtant encore protégée par les droits d'auteur... Sous couvert de nouvelle Babel, l'entreprise de Montain View projette de mettre à disposition des internautes une plateforme numérique payante d’environ un demi million d’œuvres numérisées. Or, depuis 2005, et grâce au soutien financier des pouvoirs publics français, la BNF mène aussi une politique de numérisation de masse : la bibliothèque numérique Gallica est ainsi devenue un outil majeur de diffusion des collections libres de droits ou dont les droits ont été négociés avec les ayants-droits. Les "rumeurs" récentes d'accords entre l’intervenant privé américain -dont la capacité d'investissement semble illimitée- et l’établissement public pour un co-financement de la numérisation de masse, suscitent un tollé parmi les acteurs du livre français: La Martinière/ Le Seuil sont actuellement en procès avec Google. Pour anticiper l’hypothèse d’un « basculement brutal » de la France dans l’univers numérique, le ministre de la culture vient de mettre en place une commission sur la numérisation des fonds patrimoniaux des bibliothèques qui rendra ses réflexions dans les prochaines semaines. Au-delà des enjeux du rayonnement culturel de la France et de l’accès des internautes aux fonds patrimoniaux, la complexe question des droits de propriété intellectuelle est le nœud gordien tant les intérêts des détenteurs de droits (auteurs et éditeurs) semblent inconciliables avec la stratégie commerciale du rouleau compresseur Google. La nouvelle version de l'accord devant la justice américaine entre Google, les éditeurs et les auteurs lésés devrait être rendue publique ce vendredi : cela devrait déjà donner un aperçu des conditions financières de la numérisation qui pourraient s'appliquer en France.

lundi 9 novembre 2009

Archives-ouvertes et démocratisation de la connaissance

Avec le Web, Internet est devenu, au yeux de beaucoup, un moyen surpuissant de véhiculer de l'information. Quand celle-ci sert au progrès de la connaissance, les personnes concernées par cette quête infinie, peuvent trouver dans ce jeune média un outil de choix.

Dans les années 90, alors que le Web allait prendre son essor, des scientifiques ont décidé de mettre en place des dépôts d'archives ouvertes. Ceux-ci, tel "arXiv" - le premier historiquement et encore pérenne - proposent la mise à disposition gratuite en accès libre des résultats de la recherche scientifique. Depuis, le mouvement pour les archives ouvertes, s'est renforcé notamment par la signature le 14 février 2002 de la Déclaration de Budapest pour le Libre Accès ( http://www.soros.org/openaccess/fr/read.shtml ), suivie en 2003, par celles de Bethesda puis celle de Berlin, à quelques mois d'intervalle .

A ce jour, un répertoire qui recense les dépôts d'archives ouvertes sur le Net, est entretenu par une université britannique. Y sont avancés des critères de sélection en vue des candidats désireux de référencer leur site en tant qu'archives ouvertes sur ce répertoire (voir le paragraphe "criteria of selection" à l'adresse : http://www.opendoar.org/about.html )

Le consortium français Couperin sur son site Web, s'efforce de simplifier la démarche des chercheurs désireux de déposer leurs articles en libre accès : http://www.couperin.org/archivesouvertes/ . Y sont aussi expliqués les moyens pour accéder aux résultats de ces travaux, non seulement à l'attention de la communauté scientifique mais finalement à l'ensemble des personnes disposant d'un accès à Internet.

Ainsi, le mouvement pour les archives ouvertes peut-il être vu comme un jalon sur le chemin difficile qui mène à la connaissance, le même, espérons, que celui qui conduit à la démocratisation de celle-ci?

Antoine Cathelineau

Les listes, nouvelle fonctionnalité proposée par Twitter

Le site de microblogging Twitter propose depuis peu une fonction permettant de créer des listes, publiques ou privées, afin de regrouper des utilisateurs dans des catégories définies au préalable. Actuellement en version bêta, elle devrait bientôt être accessible à tous les inscrits.

Simple d’utilisation, cette fonctionnalité offre non seulement un suivi plus efficace des tweets (messages), mais elle permet également de s'abonner aux listes créées par d'autres twitterers (utilisateurs) et de suivre toute l’actualité de ces listes depuis sa propre page. Il suffit pour cela de cliquer sur l’icône Follow this list située en haut de la page de la liste choisie.

Pour chaque twitterer, un espace dédié (http://twitter.com/nomd’utilisateur/lists) détaille les différentes listes suivies par l’utilisateur et celles dont il fait partie. Il indique également le nombre d'utilisateurs inclus dans une liste (following), ou qui la suivent (followers). Si la popularité d’une personne sur Twitter était jusqu’à présent mesurée au nombre de ses followers, elle risque fort de devenir proportionnelle au nombre de listes auxquelles cette personne appartient.

Cette nouvelle option constitue un outil de veille plus efficace, notamment pour la recherche d’emploi. Reste à savoir si les utilisateurs de Netvibes ou d’applications comme TweetDeck, qui permettent déjà d'organiser ce type de suivi, opteront pour cette fonction.

jeudi 5 novembre 2009

La Bibliothèque Virtuelle, AFNOR BiVi. : un nouvel outil pour les métiers de la fonction documentaire

Produite par AFNOR Editions, cette nouvelle plateforme a pour ambition de devenir un « outil de référence » des professionnels de l’information-documentation en centralisant sur un seul site les outils utiles à l’exercice de leur métier. Outre une rubrique « actualités » et une sélection d’articles permettant de suivre les enjeux et débats qui animent le secteur, le site propose en effet une série de services tout à fait intéressants tels qu’un accès aux normes et textes réglementaires qui régissent la profession ou encore des outils à télécharger et personnalisables (enquête de satisfaction, inventaire de périodiques, fiche de lecture…). Mettant à profit les technologies du web 2.0, le site est agrémenté par de nombreuses fonctionnalités tournées vers le partage d’information et la contribution aux contenus. La Bibliothèque Virtuelle de l’AFNOR semble ainsi dotée d’arguments qui pourraient en effet en faire un outil très utile pour les métiers de l’info-doc. Seul bémol : un accès limité par abonnement.

Facebook et Twitter indexés par les moteurs de recherche

Depuis leur création, les moteurs de recherche se sont battus sur le même terrain : celui de l’exhaustivité, cherchant à indexer tout le contenu d’Internet, à la fois celui publié avant même leur existence et celui publié pendant qu’ils se développaient.
Aujourd’hui, leur approche a changé. En effet, Google et Bling ont annoncé le mois dernier un accord pour intégrer l’intégralité du flot des tweets (messages postés sur Twitter) dans leurs index respectifs. Bling a en plus annoncé l’indexation du flot des éléments publics d’information générés par les 300 millions d’utilisateurs de Facebook.
Le but : être au plus près du buzz !
Alors que la plupart des sociétés dépensent des milliards pour leur SEO (Search Engine Optimization) afin de se faire bien indexer par les moteurs, Twitter arrive même à se faire payer.
La structure même de Twitter est à l’origine de ce retournement de situation :
o détecter les urls contenues dans un tweet de 140 caractères est très facile: le moteur sait facilement où diriger les "robots-visiteurs" pour maximiser la pertinence.
o l’analyse sémantique est elle aussi facilitée par ce format réduit, qui impose la concision et un choix pertinent des mots utilisés.
o avec les retweets (republier un tweet pour ses propres followers), il est très facile de suivre l'émergence d'un sujet et son intérêt croissant.
Le potentiel risque pour Twitter : perdre sa propre fonction de recherche et son service des "sujets chauds".

mercredi 4 novembre 2009

Extension de l'alphabet d'Internet : une démocratisation de l'utilisation d'Internet ?

L'Icann, (Internet Corporation for Assigned Names and Numbers) situé aux Etats-Unis et qui régule les extensions génériques des sites mondiaux dans un alphabet latin (par exemple : lepoint.fr, google.com), et en vertu d'un accord passé avec le Président des Etats-Unis, Barack Obama, a décidé qu'il serait désormais possible à partir du 16 novembre 2009 de déposer des adresses dans d'autres caractères (par exemple chinois, russe, arabe,...).

Au-delà de l'énorme mise en oeuvre technique et progrès technologique que cela nous montre (traduction des requêtes dans des langues qui au départ n'étaient pas prévues dans l'économie web) et sans lesquels cette décision n'aurait pu aboutir, ceci peut apparaître comme une tentative de "mondialisation" voire une "démocratisation" de l'utilisation d'internet.

Il est vrai, par exemple, qu'en termes de pourcentage (voir carte du Monde du 4 novembre 2009 (Lepoint.fr) et de croissance dans l'utilisation du réseau internet, l'Asie apparaît en tête (plus de 1,019% de progression des consultations en langue chinoise par exemple entre 2000 et 2009) contre 237% de consultation en anglais. Or, ces chiffres ne sont pas significatifs quant aux consultations nationales. En effet, 18,5% des asiatiques sont aujourd'hui connectés à Internet contre 73,9% des américains. Il existe donc bel et bien une "fracture numérique" lorsque les considère aux échelles nationales (l'on peut penser que les 18.5% d'asiatiques utilisant internet sont bilingues anglais) mais qui n'apparaît pas dans le calcul du taux de croissance de consultations internet à l'échelle mondiale.

Ces traductions des environnements d'internet dans les langues endogènes vont-elles donc participer à un effort d'une "dé-fracturation numérique"ou bien laisser persister ces inégalités d'aujourd'hui devant le monde d'internet. La question est plus que technologique, elle devient sociale....



Les entreprises contre les blogs : la communication vs les liens hypertextes

Au royaume de l'Internet, une tendance lourde se dégage : les entreprises (et certaines institutions) exigent que les blogueurs leur demandent une autorisation préalable avant de créer un lien hypertexte les pointant. Une liste de toutes ces entreprises pratiquant le pdsla (pas de lien sans autorisation) circule sur le site de l'April. Certaines, à l'instar de M6, n'hésitant pas à menacer...Au moment où l'on célèbre les 40 ans d'internet, cette pratique peut surprendre. En effet, le lien hypertexte est un des fondements du web. Mais, au-delà de ce problème éthique, se posent deux questions. Tout d'abord, nous sommes confrontés à un casse-tête juridique. Un lien pointant une entreprise n'engage en rien celle-ci. Si le contenu du site est légal, alors le lien l'est tout autant. Du côté du blogueur, le risque est celui de la diffamation. Si sur mon blogue, j'écris "les pollueurs de l'impossible" et crée un lien hypertexte vers Total, je peux être poursuivi. Le problème n'est donc pas le lien, mais ce qu'il véhicule. Le deuxième problème relève plus de l'hypocrisie. Google ne demandera jamais d'autorisation aux entreprises pour indexer selon la fréquence des liens hypertextes. Et ces dernières ont tout intérêt à être le plus pointé possible, afin d'apparaître le plus haut possible.
Ainsi, on peut constater que les institutions, au sens large, ont toujours cette même gêne vis-à-vis d'un média aussi incontrôlable, voire libertaire qu'Internet. Dans ce 21ème siècle, où l'image pèse parfois plus que le contenu, où la forme l'emporte bien souvent sur le fond; la problématique du contrôle du web et de ses usagers reste fondamentale. De la loi Hadopi, en passant par l'éducation informatique souhaitée par Nadine Morano , à la surveillance des liens hypertextes provenant des blogueurs, Internet, malgré ses 40 ans, reste pour certains un adolescent à canaliser.


Voir l'article de Numérama sur le sujet

mardi 3 novembre 2009

Le millésime 2009 du Blog UniVersDoc

Les futurs chefs de projet en ingénierie documentaire formés à l'INTD vont se relayer à partir du mercredi 4 novembre 2009 pour vous offrir leur vision de l'actualité en Information-Documentation. Etudiants, Professionnels de l'information, Enseignants en Info-Doc n'hésitez pas à nous faire part de vos commentaires !
A très bientôt.

vendredi 24 juillet 2009

La promotion 2009-2010 du titre 1 de l'INTD vous donne rendez-vous en novembre 2009

Le Blog UniVersDoc veille pour vous depuis mars 2009. Que la promotion 2008-2009 du Titre 1 de l'INTD soit remerciée pour le travail accompli. Les auteurs du Blog sont en stage depuis quelques semaines déjà et il est temps pour nous de prendre quelques congés. UniVersDoc sera en sommeil jusqu'au mois de novembre prochain. Une nouvelle promotion prendra alors le relais pour continuer à vous offrir une vision de l'actualité professionnelle et de la recherche en information-documentation.

jeudi 23 juillet 2009

Une communauté Twitter poil à gratter de Microsoft

L'affaire est simple : tous les 3 ans environ, Microsoft renouvelle sa suite Office (parmi laquelle on trouve Word, Excel, PowerPoint, Access et Outlook), ce qui coïncide la plupart du temps avec un changement de système d'exploitation PC.

En 2007, Microsoft avait déjà tenté le pari mais avait finalement reculé devant les protestations des utilisateurs. La firme de Redmond souhaitait appliquer aux mails Outlook le moteur de rendu Word. Pour la version 2010, il semblerait qu'elle soit revenue à la charge et maintiendrait le cap malgré les nouvelles contestations. Cela signifie que 2 personnes qui utilisent Outlook peuvent faire une croix sur les feuilles de style CSS, images de fond et mises en forme élaborées lorsqu'ils visualiseront et échangeront des mails via le client de messagerie. Ce principe d'intégration et d'interopérabilité plus poussé est louable mais semble quelque peu maladroit sachant qu'Outlook est très répandu, notamment en entreprise.

 
Ci-dessous, vous pouvez visualiser une comparaison entre un mail encodé en HTLM et un autre présenté au format Word (cliquer sur l'image pour la visualiser en taille réelle).


La conséquence est que des utilisateurs du site de micro-blogging Twitter ont lancé une campagne de messages afin d'exprimer leurs objections. Outlook's broken, let's fix it (Outlook est cassé, réparons-le), actualisé en temps réel et qui présente sous forme de mosaïque les avatars des internautes posteurs a déjà réuni plus de 25 000 participants, ce qui a poussé Microsoft à justifier son choix.

La pertinence des nouveaux moyens de communication apparaît clairement ici : le développement du Web et de la blogosphère qui l'accompagne démontrent le poids grandissant qu'occupent désormais l'outil et l'information en réseau dans notre vie de tous les jours. Les journalistes sont parfois dépassés par ces mouvements qui offrent dans certains cas, avec l'aide d'un simple téléphone portable, une instantanéité d'un évènement sur la planète (cf. les manifestations en Iran). Ces informations, parfois qualifiées de journalisme citoyen, apparaissent dorénavant comme un contrepoids aux médias usuels.