mercredi 17 décembre 2014

Google ferme son service d'actualités en Espagne

Google ferme son service d'actualités en Espagne

Depuis le 16 décembre 2014, le site "Google Noticias en España" n'affiche plus sur l'écran, en lieu et place des articles habituellement diffusés, qu'un message laconique de la firme de Mountain View affirmant sa "tristesse" d'avoir dû, consécutivement à un changement de la législation espagnole (1), retirer du site les éditeurs de presse ibériques et le fermer.

Un texte de loi...

Madrid a en effet adopté, fin octobre 2014, une nouvelle législation sur la propriété intellectuelle qui, à compter du 1er janvier 2015, conduira Google (mais également d’autres agrégateurs de contenus comme Yahoo/News, ou des réseaux sociaux comme Twitter et Facebook) à devoir verser des droits aux éditeurs de contenus (2).

La réaction a été tranchante, et, le 10 décembre, Richard Gingras, le responsable de Google News a fait savoir que le service serait clos le 16 en expliquant : «comme Google News lui-même ne gagne pas d'argent (nous ne montrons pas de publicité sur le site), cette nouvelle approche n'est simplement pas soutenable (2) »

...dont les effets pourraient être battus en brêche par d’impérieuses nécessités économiques...

Quelques jours après cette annonce, les éditeurs de presse espagnols se sont manifestés, parmi lesquels l’Association des éditeurs de journaux espagnols (AEDE). Cette dernière admet que la situation “pourrait avoir un impact négatif sur les citoyens” (3) et, réclame l’intervention des autorités nationales et communautaires en charge de la concurrence afin de “protéger efficacement le droit des citoyens de s’informer” (3).

Ces professionnels ont fait savoir leur disponibilité à négocier pour demander le retour du service, reconnaissant de ce fait le caractère quasi-incontournable de Google en tant que “porte d’accès à Internet”(4).

Ce changement d’attitude pourrait être motivé par la crainte de subir une diminution drastique de leurs revenus ainsi que de leur audience à l’instar de la situation vécue il y a environ un mois par le groupe allemand Springer.

...Comme l’illustre le précédent “Springer”

Celui-ci, sur le fondement d’une loi proche dans son esprit du texte adopté par Madrid, avait voulu se faire rémunérer pour les extraits de ses sites figurant dans Google News. En guise de réponse, Google, a retiré les images et les résumés de ses mêmes sites, ne laissant que les titres dans le moteur de recherche (5).
Quelques semaines plus tard, accusant 40 % de trafic global en baisse (80 % pour le fil Google News) et 100 000 € de perte par jour et par site, Axel Springer a capitulé et demandé au géant américain de revenir à la situation précédente (6).

Dans l’attente d’éventuelles négociations avec les éditeurs espagnols, Google,  sous le coup par ailleurs d’une procédure pour non respect de la réglementation européenne en matière de protection des données personnelles (7) n’en a manifestement pas encore terminé avec Madrid.  

(1) Google News in Spain 

https://support.google.com/news/answer/6140047?hl=es
 

(2) Fermeture de Google News en Espagne

http://www.lemonde.fr/economie/article/2014/12/11/fermeture-de-google-news-en-espagne_4538263_3234.html

(3) Google News España a fermé : un coup dur pour Google et les éditeurs [MàJ]

http://www.01net.com/editorial/637166/un-jour-avant-sa-fermeture-les-media-espagnols-regrettent-deja-google-news/

 (4) Google News s'arrête en Espagne, les éditeurs de presse veulent revenir !

http://www.abondance.com/actualites/20141217-14501-google-news-sarrete-en-espagne-les-editeurs-de-presse-veulent-revenir.html

(5) Axel Springer renonce à son duel avec Google News en Allemagne

http://www.abondance.com/actualites/20141107-14406-axel-springer-renonce-duel-google-news-en-allemagne.html

(6) Espagne: Les médias veulent garder Google News

http://www.20minutes.fr/monde/1501391-20141215-espagne-editeurs-presse-veulent-garder-google-news

(7) Google préfère fermer Google News en Espagne plutôt que de payer les éditeurs

http://www.01net.com/editorial/636642/google-prefere-fermer-google-news-en-espagne-plutot-que-de-payer-les-editeurs/

Ecrira bien qui écrira le dernier

Dans “Le monde en lecture seule. A propos de la disparition de l'écriture manuscrite”[1], Olivier Ertzscheid,maître de conférences en sciences de l'information, réagissait de manière polémique sur un article des Clés de demain du Monde [2], traduisant une première annonce sur le site de la BBC [3] : La  suppression en Finlande de l'apprentissage de l'écriture manuscrite pour la remplacer par l'apprentissage au clavier.

L’auteur développe son argumentation en faveur de l’importance éducative de l’écriture manuscrite, en examinant différentes questions :
La question du remplacement de l'un par l'autre. Les usages actuels ont déjà tranché : quel est notre réel besoin quotidien de l'écriture manuscrite et quel en est la hiérarchie d'usage aujourd’hui ?
La question cognitive : l'apprentissage de l'écriture manuscrite ne se limite pas à l'apprentissage d'un code graphique. C'est aussi acquérir et définir une plasticité neuronale par un exercice de motricité fine, de contrôle postural, comme en témoigne les travaux de Stanislas Dehaene sur l'apprentissage de la lecture et de l'écriture.[4]
La question de la liberté, de l'aliénation, du choix, de la proprioception de l'individu : chacun a son écriture.
La question de la singularité : l'écriture est un marqueur de singularité, comme le sont nos empreintes digitales, notre empreinte rétinienne, ou notre ADN.

Par bien des aspects, le numérique est un gain car il nous offre l'accès à de l'universel. Mais ce n'est pas le numérique qui met en danger l'écriture manuscrite. Ce sont des décisions politiques qui décrètent une forme de lobotomie collective et assumée, à l'échelle de générations entières. Nul ne doit faire l'économie du temps nécessaire à l'analyse des telles conséquences induites.

Une étude de l’Institut de Neurosciences Cognitives de la Méditerranée (CNRS UMR 6193) sur l’écrit face aux nouvelles technologies : “De la plume au clavier :Est-il toujours utile d’enseigner l’écriture manuscrite ?” par Velay, Longcamp et Zerbato-Poudou, voudrait nous garder d’une vision trop lénifiante des évolutions trop radicales sur la question des enseignements :
“S’il devenait systématique pour apprendre à écrire, quelles conséquences aurait l’usage du clavier en changeant la relation entre le mouvement et la trace produite ? Une étude d’imagerie cérébrale chez l’adulte montre qu’une zone corticale pré-motrice, activée pendant l’écriture, est aussi activée pendant la simple observation des lettres. La lecture mettrait automatiquement en jeu une forme d’écriture interne. Dans une étude à l’école maternelle, nous avons comparé l’apprentissage traditionnel de la lecture/écriture et l’apprentissage avec un clavier. Les enfants ayant appris à la main reconnaissaient mieux les lettres que ceux qui avaient appris au clavier. Parce que nous apprenons simultanément à lire et à former les lettres en les traçant, nos aptitudes à la lecture pourraient en partie dépendre de notre manière d’écrire.” [5]

Perdre la possibilité d'un recours permanent, instantané, immédiat à la fonction d'écrire en dehors du numérique, c'est accepter de n'avoir plus accès au monde qu'en lecture seule. Renoncer à apprendre l'écriture manuscrite c'est rendre tout décodage impossible, c'est s'amputer délibérément de la possibilité de maîtriser un code et la possibilité de passer d'un code à un autre. C'est laisser d'indéchiffrables codes régler nos vies.

bandeau-police
http://www.creavapeur.com/2010/polices-font-manuscrite/ - libre de droit

Le monde en lecture seule. A propos de la disparition de l'écriture manuscrite.
21 November 2014 : Finland: Typing takes over as handwriting lessons end
   
Les Clés De Demain / Le Monde : La Finlande va arrêter l'enseignement de l'écriture cursive, 25 novembre 2014    

mardi 16 décembre 2014

Seconde édition du forum du GFII : Les mutations de l'industrie de l'information face à l'économie de la data

Le GFII est une association professionnelle qui regroupe les principaux acteurs publics et privés de l'industrie de l'information numérique. Il permet au sein de groupes de travail de rencontrer, confronter et échanger sur différents sujets tels que l'Open Data, l'Open Access, le Web Sémantique, le Big Data, le Social Data, le Datamining, ...

La seconde édition du forum du 8 et 9 décembre 2014, avait pour thème " Les mutations de l'industrie de l'information face à l'économie de la data " et était soutenu par de nombreux sponsors tel que l'IGN, le Digital Publishing Institute ou la Direction de l'Information Légale Administrative (DILA) par exemple. 
Plusieurs sujets importants ont été abordés durant ces deux jours :
  • La généralisation des modèles d'ouverture de l'information et la réutilisation de ces données
  • L'automatisation et l'économie collaborative de création de contenu. 
  • Le passage d'une économie du contenu à une économie de la data et sa valorisation.
  • Essor des logiques "data-driven" (orientées vers les données) pour la réalisation de la transformation digitale des entreprises et des administrations
  • Développements industriels autour du prédictif grâce à la "data intelligence"
  • Nouveaux modèles économiques autour de la donnée
  • Le digital publishing et le développement du multicanal
  • Omniprésence du multimédia et du transmédia
Cet évènement a permis aux différents professionnels du secteur de se rencontrer et d'échanger autour de ces différentes questions lors de séances plénières ou des ateliers. 

De plus, plusieurs projets ou innovation ont été présentés, notamment par l'Institut National de l'Audiovisuel ou l'Agence France Presse.

L'INA travaille avec l'AFP l'INRIA, Syllabs, ... sur le projet OTMedia (Observation du TransMedia). Ce projet a pour ambition de rendre plus visualisable et explorable les relations entre les différents médias (radio, télévision, presse, Internet) grâce à l'extraction, l'indexation, la fouille et l'analyse automatisés de l'actualité médiatique. A terme, ce projet permettra de déterminer quel est le média qui est le plus souvent à l'origine de l'information et ceux qui n'ont fait que la reprendre.
OTMedia permettra de faire de la fouille de texte mais également dans les images. Il serait possible de faire des recherches sur un objet ou de catégoriser et regrouper des images en fonction de leur contenu. Cet outil parvient à reconnaître différents logos ou bâtiments par exemple.

AFP/Medialab
L'AFP a présenté lors du forum son moteur de recherche AFP4W développé par le MédiaLab de l'AFP.  C'est un moteur de recherche d'évènements qui permet la fabrication automatique d'application multimédia. Ce moteur permet de combiner dans la recherche différents types d'informations : le quoi, qui, quand et où. Il est basé sur les métadonnées produites par l'AFP. On peut donc, par exemple, rechercher un évènement en le couplant avec une entité nommée. La page des résultats peut ensuite être représentée sous différentes formes : vignette, diaporama, frise ou carte. Il est ensuite possible de générer à partir de cette page de résultats un e-book où tout le contenu publié par l'AFP, y compris les vidéos, sera intégré. 

Sources :

Pour plus d'information sur le forum : http://forum.gfii.fr/

Pour avoir accès au programme détaillé du forum :

Pour avoir accès aux tweets publié par les participants : https://storify.com/Le_GFII/le-forum-du-gfii-un-accelerateur-d-echanges-et-d-i  

L'INA : l'info fouillée au corpus, Isabelle Hanne, Libération, 2 janvier 2013. Disponible à l'adresse :  http://ecrans.liberation.fr/ecrans/2013/01/02/ina-l-info-fouillee-au-corpus_948253

AFP 4W, Le festival du numérique, Juin 2013. Disponible à l'adresse : http://www.futur-en-seine.fr/fens2013/projet/afp-4w/  

jeudi 11 décembre 2014

Un forum, un livre blanc : la rencontre du numérique et de la culture.


Il est établi par tous et indiscutable que nous vivons aujourd'hui à l'ère du numérique. Ces nouvelles technologies ont impacté nos façons de vivre et nos usages de communication, de travail, de consommation... et également culturels.

C'est dans cette optique que l’AFDEL (Association Française des Éditeurs de Logiciels et Solutions Internet) et l'association Renaissance Numérique (lieu de réflexion et force de proposition pour l'intérêt commun à l'heure du numérique dans les domaines éducatif, culturel et de société) ont souhaité réunir les acteurs du numérique (startups et plate-formes internet) et ceux de la culture (livre, cinéma, musique, spectacle vivant, radio, télévision, photographie, musées). Cette rencontre a eu lieu le 2 décembre dernier dans la salle Yoyo du Palais de Tokyo à Paris (1).

L'objectif était de permettre l'échange de deux mondes qui traditionnellement tendent à s'ignorer (2), ainsi que la présentation du livre blanc, "Le numérique une chance pour la culture" (3), co-rédigé par les deux organisateurs de la journée.

Lors de deux tables rondes les intervenants sont revenus sur les nouveaux usages et services qu'apportent le numérique dans les institutions culturelles, avant de réfléchir sur leurs valeur ajouté pour répondre aux objectifs traditionnels des institutions culturelles : la démocratisation de la culture, l'exception culturelle, la diversité culturelle face à la consommation de masse (4).

L'art numérique, les contenus générés par les utilisateurs (user-generated content ou UGC), la création multimédia sont de nouveaux contenus culturels issus des technologies numériques. Ces innovations et bien d'autres permettent l'opportunité de nouvelles créations de valeur. Elles sont le reflet de nouveaux modes de consommation plus tourner vers l'usage. Elles entrainent de nouveaux business models comme les financements alternatifs (crowdfunding) et redessinent les partages de valeur entre les acteurs du secteur comme la signature d'accords entre ayants droits et acteurs du numérique. L'avenir apportera une suite...

Si vous êtes souhaitez participer à cette réflexion, voici les 7 questions développées dans la première partie du livre blanc :
  • Le numérique accomplit-il enfin la promesse d’une culture éternelle ?
  • Sans contraintes géographiques, l’art accomplit-il son rêve d’universalité ?
  • La création dans le continuum numérique : la fin du genre artistique ?
  • Être fan aujourd’hui : de la passion à l’action ?
  • Quelle est la place de l’artiste dans un paysage culturel révolutionné par les usages numériques?
  • Quand le partage est loi : opportunité ou danger pour la culture ?
  • Le numérique est-il un atout pour la découverte culturelle ? (5)


Pour aller plus loin :
Livre blanc : Synthèse.
Livre blanc : dans son intégralité.



Sources :

(1) Site du Forum de Tokyo du 2 décembre 2014 au palais de Tokyo à Paris.


http://www.forum-tokyo.fr/

(2) Amours contrariées entre culture et numérique, Alain Beuve-Méry, Le Monde Economie, 03/12/2014

(3) Livre blanc "le numérique une chance pour la culture", Renaissance économique, 02/12/2014
http://www.renaissancenumerique.org/publications/rn/710-2014-12-02-15-06-45

(4) Le numérique, une chance pour la culture, AFDEL, 01/12/2014

http://www.afdel.fr/actualites/categorie/actualite-afdel/article/le-numerique-une-chance-pour-la-culture_1

(5) Livre blanc - "le numérique une chance pour la culture", Fabrice MOLINARO, Les Infostartèges, 08/12/2014

http://www.les-infostrateges.com/actu/14121916/livre-blanc-le-numerique-une-chance-pour-la-culture



Le multilinguisme d'Isidore, un pas de plus vers l'Open Access?

"Intégration de services, interconnexion de données de la recherche et de l’enseignement (1)" ou plus simplement nommée Isidore, la plate forme en ligne, présente à l'heure actuelle 2531 sources de données contenus dans 93 collections, spécialisées dans le domaine des SHS. Intègrant le protocole de partage de métadonnées de l’Open Archives Initiative (OAI) et destiné à faciliter l'échange des archives numériques depuis 2010, Isidore, présente une alternative intéressante à des moteurs de recherches tels que Google scholar (2) dans le cadre d'une politique axée sur l'Open Access.

Une politique de l'Open Access...

Cette base en SHS n'est pas la seule. On peut citer le cas de Jurn dans le même domaine mais aussi d'autres existantes dans les domaines de la biologie, médical, informatique, ingénierie, mathématiques.
Cependant, le passage d'Isidore vers le multilinguisme participe d'une capitalisation des savoirs dans une logique d'accès des connaissances de la manière la plus large possible (3). La réunion d'experts autour de la question du libre accès, tenue à Londres, les 2 et 3 décembre 2014 (4) se tient aussi dans cette optique d'encouragement de cette argumentation.
En effet, comme le stipule le rapport d’étape 2014 sur l’espace européen de la recherche (EER) encourageant vivement dans une optique européenne, projeté vers 2020, il s'agit de "remédier comme il convient aux lacunes qui subsistent en matière d’accès ouvert aux publications scientifiques[...] bénéficiant d’un financement public [...] et d’étudier les conditions dans lesquelles il serait pertinent de donner librement accès aux données de la recherche financée par des fonds publics, en prenant en compte les intérêts légitimes des parties concernée (5)."

Permettant un sauvetage des SHS ?

"Isoler aujourd’hui, les SHS dans un espace spécifique ferait de ce dernier un conservatoire voué à la disparition (6)" selon l'article publié par une communauté de responsables d'universités dans Le Monde, le libre accès offrirait la possibilité de donner une visibilité plus grande à ce domaine qui connait, selon la même source, un cumul des visites sur Cairn, OpenEdition, Erudit et Persée se montant à environ 10 millions de visites mensuelles.
De plus, un accès libre et le partage des connaissances permettent de développer de nouveaux axes de recherches incluant des domaines qui n'étaient pas mis en contact car jusqu'alors plus compartimentés. Les mots de l'historienne de l'art, Marie Jacob, résument bien cette approche : "C'est en adoptant cette démarche pluridisciplinaire, en multipliant les angles de vue et les points de comparaison, qu'il sera possible de cerner les œuvres dans leur complexité (7)."
Cette réflexion se trouve donc au cœur du choix d'Isidore de faire un pas vers le multilinguisme dans une optique de décloisonnement des savoirs.



Sources
   (1) N. Dardenne, "ISIDORE", Huma-Num (en ligne), mis en ligne 28 novembre 2010, http://www.huma-num.fr/service/isidore, (consulté le 11 décembre 2014)

(2) F. Soyez, "Moteur de recherche scientifiques : les alternatives à Google Scholar", Techniques de l'ingénieur (en ligne), 3 décembre 2014, http://www.techniques-ingenieur.fr/actualite/web-thematique_89430/moteurs-de-recherche-scientifiques-les-alternatives-a-google-scholar-article_289389/, (consulté le 11 décembre 2014)

(3) S. Pouyllau, "Isidore : vers le multilinguisme", Huma-Num (en ligne), mis en ligne le 5 décembre 2014, http://humanum.hypotheses.org/798 , (consulté le 11 décembre 2014)

(4) T. Hameau, "cohésion des politiques en faveur du libre accès en Europe", Libre accès à l'information scientifique et technique (en ligne), mis en ligne le 10 décembre 2014, http://openaccess.inist.fr/?Cohesion-des-politiques-en-faveur, (consulté le 11 décembre 2014)

(5) T. Hameau, "Espace européen de la recherche : libre accès aux résultats de la recherche", Libre accès à l'information scientifique et technique (en ligne), mis en ligne le 8 décembre 2014, http://openaccess.inist.fr/?Espace-europeen-de-la-recherche, (consulté le 11 décembre 2014)

(6) Collectif, "Qui a peur de l'Open access", Le Monde (en ligne), mis en ligne le 15 mars 2013, Mis à jour le 20 mars 2013, http://www.lemonde.fr/sciences/article/2013/03/15/qui-a-peur-de-l-open-acces_1848930_1650684.html, (consulté le 11 décembre 2014)

(7) M. Jacob, Dans l'atelier des Colombe (Bourges 1470-1500), le représentation de l’Antiquité en France à la fin du XVème siècle, Rennes, Presses universitaires de Rennes, 2012, p.17





mardi 9 décembre 2014

Google prépare un moteur de recherche pour les moins de 13 ans



Le géant de la technologie américaine va lancer une version enfant de son navigateur Google Chrome et de certaines de ses plateformes les plus populaires telles que  Youtube.

Des plateformes « fun and safe for children ».
D'après Pavni Diwanj, vice-présidente de Google en charge du projet, ces nouvelles plateformes prendraient davantage en compte les désirs et les besoins des enfants. Dans son interview donnée à USA TODAY (1), elle expliquait : «nous voulons changer nos produits pour qu'ils soient à la fois amusants et sûrs à utiliser pour les enfants». Se divertir en sécurité, mais pas seulement car ces futurs outils Google auraient des vertus pédagogiques pour les petits: «Les enfants utilisent déjà les nouvelles technologies à l'école ou à la maison, alors autant les aider à les utiliser le mieux possible». Ils auraient également des qualités éducationnelles :« il s'agit de donner les bons outils pour contrôler l'utilisation des outils par leurs enfants».
Google n’a pas donné de détails quant à la sortie du « Google enfant » : les familles devront patienter.


Un moyen de séparer le grain de l’ivraie ?
A partir des 40,000 requêtes enregistrées par seconde (2), ces nouveaux produits permettraient-ils d’observer « de loin » cette jeune et future mine d’informations ? De distinguer les « clics  enfants » des « clics parents » ?
Pavni Diwanj convient que le sujet donnera  lieu à des « controverses », d'autant qu'aux Etats Unis, la loi de protection des enfants en ligne ( Children’s Online Privacy Protection Act) interdit la collecte d’informations personnelles des jeunes de moins de 13 ans (3).

Quoi qu’il en soit, l’enjeu est de taille si l’on sait que plus de 90% des revenus de Google proviennent de la publicité et si l’on considère l’impact que pourraient avoir ce nouveau Google sur le développement des systèmes de recommandation.


Sources : 

(1) "Google to revamp its products with 12-and-younger focus", USA TODAY, 03/12/14

(2) "Google prépare un moteur de recherche réservé aux enfants", LE FIGARO.FR, 4/12/14  

(3)"Google veut créer un moteur de recherche pour les enfants", Les Echos, 4/12/14
http://www.lesechos.fr/tech-medias/hightech/0203988657306-google-veut-adapter-ses-services-aux-moins-de-13-ans-1071391.php
 



Altmetrics. Pour une mesure de l’impact social des résultats scientifiques

Depuis le milieu du XXe siècle, l’évaluation de l’impact de la recherche scientifique repose sur des techniques de mesure quantitative, fondées sur le nombre de citations de publications. Ces indicateurs bibliométriques, strictement académiques, se voient désormais complétés par des méthodes prenant en compte l’impact social des résultats de la recherche, les altmetrics.

Une mesure complémentaire
L’usage omniprésent d’internet par les chercheurs a généré l’émergence, en 2010, des « altmetrics » ou mesures alternatives d’impact (1). Ceux-ci mesurent le nombre de partages sur les réseaux sociaux (Twitter, Facebook, Linkedin, etc.), de sauvegardes (Mendeley, Delicious, CiteULike, CrossRef) (2), de téléchargements et de conversations mentionnant un article ou un auteur.
Par l’évaluation qu’ils font de la diffusion des résultats scientifiques hors des milieux académiques – ou impact 2.0 de la recherche –, les altmetrics constituent davantage une mesure complémentaire aux indicateurs bibliométriques classiques que leur réelle alternative.

Un outil utilisé par les grands éditeurs scientifiques
A l’image des partenaires de la première conférence internationale sur les altmetrics (3), qui s’est tenue à Londres en septembre dernier, les grands acteurs internationaux de l’édition scientifique (Springer, Elsevier, Wiley, PLoS, Thomson Reuters, BioMed Central, etc.) ont opté pour cette mesure de l’impact social des résultats de la recherche. S’il n’existe pas, à ce jour, de corrélation entre popularité et nombre de citations scientifiques, une plus grande visibilité sociale pourrait néanmoins conduire, à terme, à un plus grand nombre de citations académiques d’un article (4).

Un indicateur de la portée sociale de la recherche ?
Un certain nombre de critiques ont déjà formulées à l’encontre des altmetrics (instabilité des sources ; manipulation ; évaluation de la popularité, positive ou négative ; mesure valable pour les articles récents, etc. (5)). Sans prétendre évaluer la qualité d’un article scientifique – laquelle ne peut, selon les chercheurs, qu’être effectuée par les pairs (6) –, les altmetrics peuvent néanmoins permettre d’identifier les sujets suscitant l’intérêt des décideurs, des médias et du grand public.
C’est peut-être tout l’intérêt de ce nouvel indicateur, y compris pour le chercheur : pointer, à un moment donné, vers les articles les plus pertinents du point de vue de la société.



[1] Altmetrics : a manifesto, publié le 26 octobre 2010 (consulté le 9 décembre 2014)

[2] Définition - Altmetrics, par ETS, Université du Québec (consulté le 9 décembre 2014)

[3] First Altmetrics Conference, 25-26 novembre 2014 (consulté le 9 décembre 2014)

[4] From Attention to Citation : What are Altmetrics and how do they work ?, par Xianwen Wang, publié le 28 octobre 2014 (consulté le 9 décembre 2014)

[5] Les mesures d'impact alternatives: mise en contexte, par l’Association des bibliothèques de recherche du Canada, publié le 9 décembre 2013 (consulté le 9 décembre 2014) et Article Wikipédia « Atlmetrics » (consulté le 9 décembre 2014)


[6] Altmetrics may be able to help in evaluating societal reach, but research significance must be peer reviewed, par Kim Holmberg, publié le 9 juillet 2014 (consulté le 9 décembre 2014)

mercredi 3 décembre 2014

L'ampleur du Big Data et ses enjeux sociétaux


Régulièrement, le mot "Big Data" est affiché dans les médias ou sur les réseaux sociaux, il est mentionné dans plusieurs articles récents.
Une enquête récente réalisée en mars 2014 par Data Publica, une start up spécialisée dans les données entreprises, présente une synthèse de l'utilisation du mot "Big Data" dans les médias en ligne en France (1) qui confirme bien l'ampleur du Big Data dans tous les secteurs.

En effet, 357 publications comportant le mot "Big Data" ont été recensées en mars 2014 dont 87 qui le traitent comme sujet principal avec une majorité d'articles et de brèves. 22 thèmes sont couverts avec deux tendances principales: les infrastructures et les évènements. Suivent ensuite la prospective, les transports, la finance et le marketing.

Qu'est ce que le "Big Data" ?
Les Big Data appelés également "données massives" désignent des ensembles de données qui deviennent tellement volumineux qu'ils ne peuvent être traitées avec des outils classiques de gestion de base de données ou de gestion de l'information (2).

Selon le modèle défini par la société d'analystes américains Gartner, les Big Data sont caractérisés par les  trois V (Volume, Variété, Vélocité) : 

Volume : avec la croissance exponentielle des données numériques
Variété : avec différents types de données numériques: texte, photo, audio, vidéo
Vélocité : avec une augmentation croissante de la vitesse de traitement des données (3).

Le Big Data présente plusieurs enjeux économiques mais aussi sociétaux qu'il ne faut pas négliger comme le souligne Mr François Bourdoncle dans son article "Big Data: les barbares sont aux frontières et nous jouons à la bergère" (3).
En particulier, il met en évidence l'enjeu essentiel de la protection des données personnelles et de la vie privée. 
Dans ce cadre, un travail de réflexion est engagé avec la CNIL pour faire évoluer la mise en œuvre de la loi "informatique et libertés" de manière à prendre en considération le développement rapide des big data dans tous les secteurs d'activités (3).

(1) Data Publica - 1 mois de Big Data dans les médias en ligne en France - Mars 2014
 (2) Wikipédia - Big Data - dernière modification le 27 novembre 2014 -
(3) Le plan du "Big Data" ! (F.Bourdoncle) - cité par le blog pdfbretagne - Août 2014

Les sources ci-dessus ont été consultées le 3 décembre 2014

De la littérature jeunesse au cinéma d’animation…

En cette fin d’année, faisant écho au billet d’Aurore Bouquet sur le livre de jeunesse et sa transition numérique (1), rappelons l’ouverture demain du réjouissant Carrefour du cinéma d’animation au Forum des Images, du 4 au 7 Décembre (2). Des films, des courts-métrages, des avant-premières, des rétrospectives, des rencontres avec les auteurs(es) et réalisateurs(trices)… 

Poursuivre ses découvertes avant Noël, et plus si affinité, car le dessin animé n’interpelle pas que les petits. Ce Carrefour met d’ailleurs l’accent sur le cinéma d’animation politique et érotique (3).

Un secteur créatif

Selon le SPFA (4), la France s’est imposée au niveau mondial en développant des films d’auteurs, et s’est positionnée sur un marché  à destination des adultes et des périscolaires. Ce qui lui a permis de se démarquer de ses concurrents potentiels et d’offrir une palette plus ciblée.
L’animation française est un secteur particulièrement créatif depuis une quinzaine d’années, en proposant chaque année près de dix films aux spectateurs pour un total de 5 millions d’entrées. 
La France est n°3 mondial et n°1 européenne et l’animation représente 13,9% du chiffre d’affaires du cinéma en vidéo. 
Parmi les neuf pôles du programme du Salon du Livre et de la Presse Jeunesse, celui consacré au cinéma met en avant l’univers du film d’animation. En effet la littérature jeunesse et le cinéma d’animation regorgent de correspondances et d’emprunts l’un à l’autre, pour la plus grande richesse graphique et scénaristique. A noter que la littérature jeunesse irrigue depuis une dizaine d’années les productions de dessins animés, de nombreux récits ou bandes dessinées sont adaptées et transposées au cinéma.

Une histoire ancienne

L’histoire de l’animation est ancienne et remonte à plus d’un siècle. Faite d’expérimentations, de "ratures" et d’inventions ! Pour cela, ne pas manquer le très beau livre "Du Praxinoscope au Cellulo : un demi-siècle d’animation en France (1892-1948)"(5).
Courrez voir pour le régal des yeux et des sens, la collection des dessins d’animation de la Cinémathèque française (6). Ce département réunit un ensemble de 12 000 dessins numérisés. Les questions clés de la préservation des documents ayant servi aux dessins animés sont l’acquisition, l’archivage, la conservation, la restauration et la diffusion des films d’animation.
Or à ce jour le catalogage menant à leur numérisation a dû être interrompu dans l’attente d’une solution satisfaisante de conservation des celluloid (7), (8)
A bon entendeur…

Pour ceux qui souhaitent aller plus loin : signalons l’AFCA (9), qui possède un centre de  ressource et de documentation, accessible sur rendez-vous et consacré au cinéma d’animation français en particulier, mais aussi étranger, avec de nombreux documents, des originaux issus de films et une vidéothèque avec 4 500 titres.

Bonne fin d'année.


Sources :

(1) Univers Blog, Aurore Bouquet, article du 26 Novembre 2014, (consulté le 3 Décembre 2014)

(2) Forum des Images, (consulté le 3 Décembre 2014)

(3) Bande annonce du Carrefour de l'animation, Forum des Images, du 4 au 7 Décembre 2014, (consulté le 3 Décembre 2014)
http://www.dailymotion.com/embed/video/x29k0wq_carrefour-du-cinema-d-animation-12e-edition_shortfilms

(4) SPFA, syndicat de Producteurs de films d'Animation : (consulté le 3 Décembre 2014)

(5) CNC, centre national du cinéma et de l'image animée, "Du Praxinoscope au cellulo : un demi-siècle de cinéma d’animation en France (1892-1948)", (consulté le 3 Décembre 2014)


(6) La Cinémathèque française : collection de dessins d'animation, (consulté le 3 Décembre 2014)
(7) Larousse : définition Celluloid, (consulté le 3 Décembre 2014)

(8) Wikipédia : définition Celluloid, (consulté le 3 Décembre 2014)


(9) AFCA, association française du cinéma d'animation, (consulté le 3 Décembre 2014)

mardi 2 décembre 2014

Le plagiat ou les prédateurs de l'Open Access


Régulièrement, des affaires de plagiat reviennent sur le devant de l'actualité. La dernière, datant du 17 novembre dernier, a valu une suspension de ses fonctions à la directrice exécutive de l'école de journalisme d'un célèbre Institut d'études politiques de Paris. (1)

Cet exemple ne serait-il pas révélateur d'une question qui peut prendre des dimensions tout-à-fait vertigineuses ?

On peut se poser la question à la lecture de l'article Le plagiat sans fard. Recette d'une singulière imposture, publié récemment par Michel Charles  sur le site de recherche en littérature Fabula (relayé par le blog Evaluation de la recherche en SHS) (3).

L'auteur nous révèle l'histoire d'un universitaire américain dont il a pu établir "une liste de dix-huit textes qui, sur seize ans, ont fait l'objet de trente-quatre plagiats ou copies (certains originaux ayant donné lieu à deux, trois, voire quatre copies) dans neuf revues différentes" [2, Charles]. En publiant de multiples versions de ses copies, parfois simultanément, l'universitaire a réussi à "pratiquer en même temps le plagiat et l'autoplagiat" [2, Charles]. Après s'être construit une réputation en publiant de faux articles dans de nombreuses revues, il s'est mis en situation de commander des travaux à d'autres personnes dont il a ensuite repris le contenu en se l'appropriant.

Selon Michel Charles, cette affaire met en exergue l'emballement du système actuel : dans la course à la publication, il n'est pas rare que des auteurs payent des éditeurs pour être publiés, dans le souci d'avoir une visibilité maximale sur un classement mondial basé lui-même sur des critères quantitatifs... La masse éditoriale devient tellement énorme qu'il y a risque que certains profitent de la confusion ainsi engendrée.

Pour conclure, rappelons que "pour qu’il y ait plagiat, il faut mentir par omission, c’est-à-dire laisser croire qu’on est l’auteur d’une œuvre qu’on a en fait empruntée à un autre."(4)
Mais cela peut s'avérer plus complexe car en droit français ce terme n'existe pas, on parle plutôt de contrefaçon : on pourra se reporter au site leplagiat.net pour une définition plus précise de cette notion.
...et comme l'auteur de ce billet ne voudrait pas se faire accuser de plagiat, voici les sources :

(1) Une affaire de plagiat agite la direction de l’école de journalisme de Sciences Po par Isabelle Rey-Lefebvre (publié le 17/11/2014) http://www.lemonde.fr/societe/article/2014/11/17/une-affaire-de-plagiat-agite-sciences-po_4524793_3224.html
(consulté le 2 novembre 2014)  

(2) Le plagiat sans fard. Recette d'une singulière imposture  par Michel Charles http://www.fabula.org/atelier.php?Plagiat_sans_fard (mis en ligne en novembre 2014) - (consulté le 2 novembre 2014)  

(3) L'expérience du plagiat perpétuel par Sophie Roux (mis en ligne le  12 novembre 2014) - (consulté le 2 novembre 2014)
 
(4) Droit d’auteur : plagiat et/ou contrefaçon ? par Didier Frochot (mis en ligne le  12 novembre 2013) - (consulté le 2 novembre 2014)

(5) Plagiat et contrefaçon par Hélène Maurel-Indart (non daté) - (consulté le 2 novembre 2014)

Correct : la plateforme participative de la BNF

Depuis le 24 novembre, la Bnf teste en temps réel la correction participative de documents via sa plateforme Correct dans sa version bêta. Les documents numériques de Gallica deviennent non seulement accessibles à tous mais aussi modifiables par tous.

Correct (Correction et Enrichissement Collaboratifs de Textes) est une plateforme expérimentale de crowdsourcing conçue et développée par la BnF dans le cadre du projet de recherche FUI12. Lancée en janvier 2012, elle propose une correction et un enrichissement collaboratifs de texte (1).
Piloté par Orange, le projet s'articule autour de 9 partenaires (Orange, BnF, Jamespot, Urbilog, I2S, ISEP, INSA Lyon, Université Lyon 1, Université Paris 8). La plateforme propose à des utilisateurs des outils intuitifs pour corriger et enrichir des documents numérisés. En proposant à des utilisateurs d'intégrer de petits groupes de correction via un réseau social collaboratif, Correct favorise l'entraide
et facilite la collaboration (2).

Des techniques pour améliorer l'OCR
Techniquement, après avoir importé des documents issus de Gallica, un premier prototype d'éditeur de correction a été testé pour proposer un rendu de texte fidèle à l'orignal car les traitements OCR sont encore imparfaits. Ensuite, le texte nécessite une reconstruction de sa mise en forme et la lecture proposée doit être logique. Enfin, l'indexation, la vocalisation ou encore l'annotation permettent d'enrichir les documents corrigés (1).
Concrètement, un bouton de correction sera prochainement intégré à Gallica : l'utilisateur sera alors directement redirigé dans Correct. L'objectif est d'y intégrer les 3 millions de pages et d'indiquer aux lecteurs le taux de fiabilité de la reconnaissance. Et le nouvel algorithme développé par les Orange Labs, devra améliorer les documents ALTO de la Bnf. Ces fichiers permettent de réaliser des actions spécifiques et appréciées des utilisateurs (copier-coller) dans les documents numérisés. Leur accès sera amélioré dans les moteurs de recherche et pour les chercheurs qui les utilisent comme référence (3).

Un corpus dépendant d'une correction collaborative
 Pour la Bnf, la correction de texte permettra de mieux documenter les collections destinées aux usagers. Plus tard, l'enrichissement des documents corrigés permettra de développer de nouveaux projets comme des livres numériques ou des livres pour les personnes malvoyantes.

Jusqu'en juin 2015, le réseau social est en phase expérimentale en conditions réelles. Toute personne peut corriger des documents issus de Gallica. Les usages de la plateforme seront étudiés. Une évaluation permettra de recueillir les attentes des utilisateurs. Et, une réflexion sera menée pour intégrer l'aspect communautaire et collaboratif du réseau social à la bibliothèque numérique. Pour les aider, la Bnf a mis en ligne un guide pour la correction des césures ou des ligatures.

A ce jour, 57 documents, postérieurs à 1800, issus de Gallica et classés dans des collections créées pour l'expérimentation, sont mis à la disposition des premiers utilisateurs. Les 214 premiers inscrits, répartis en 6 groupes, choisissent les documents qu'ils souhaitent corriger en fonction de leurs centres d'intérêt : roman d'anticipation, contes d'ici et d'ailleurs, cuisine et gastronomie... (3) Les sciences occultes, domaine parmi les plus consultés et téléchargés sur Gallica, sont bien représentées dans cette phase de test.

Tous les documents corrigés seront accessibles et réutilisables de manière libre et gratuite tant que les usages restent à but non commercial. Les outils du partenariat et le réseau de correction participative feront-t-ils le succès du projet Correct ? La bnf en fait le pari.

1. BNF. Plateforme CORRECT : Projet de recherche FUI12 Ozalid, le 25/11/2014
En ligne : http://www.bnf.fr/fr/professionnels/anx_numerisation/a.projet_correct.html
(consultation le 02/12/2014)
2. JOSSE, Isabelle. Expérimentez la correction collaborative grâce à Correct !, le 14/11/2014.
En ligne : http://blog.bnf.fr/gallica/index.php/2014/11/24/experimentez-la-correction-collaborative-grace-a-correct/ (consultation le 02/12/2014)
3. OURY, Antoine.La plateforme Correct de Gallica : tout l'enjeu réside dans la collaboration. le 01/12/2014

Pour aller plus loin :
http://www.reseau-correct.fr. (consultation le 02/12/2014)