mercredi 26 mars 2014

Salons Documation et MIS des 26 et 27 mars 2014

La 20e édition du salon Documation se tiendra mercredi 26 et jeudi 27 mars 2014 au CNIT Paris la Défense sous la haute autorité de Fleur Pellerin, ministre déléguée chargée des PME, de l'innovation et de l'économie numérique.
ministre déléguée chargée des PME, de l'innovation et de l'économie numérique.
En savoir plus sur h
ministre déléguée chargée des PME, de l'innovation et de l'économie numérique.
En savoir plus sur http://www.documation.fr/site/FR/SALON,I5046.htm#bPPDZCpE4FmtjjjS.99
ministre déléguée chargée des PME, de l'innovation et de l'économie numérique.
En savoir plus sur http://www.documation.fr/site/FR/SALON,I5046.htm#bPPDZCpE4FmtjjjS.99

Cet évènement majeur de la gestion des documents et de l'information à lieu conjointement au MIS salon dédié aux professionnels du management de l'information stratégique et en partenariat avec l'Association des Professionnels de l'Information (ADBS).

Documation et MIS avaient réunis pour l'édition 2013 :
160 exposants
130 conférences d'experts
5000 Auditeurs et
6500 visiteurs

Documation ce sont 10 parcours thématiques dont on peut télécharger la plaquette sur le site.
1/ Accès, partage des documents/DATA
2/ Big DATA, métadonnées et données
3/ Dématérialisation et gestion des processus (BPM)
4/ Gestion Electronique des Documents (GED)
5/Gestion des bibliothèques
6/ Gestion de contenus (ECM)
7/ Gestion de contenus multimédia
8/ Record Management et système d'archivage électronique
9/ Information professionelle
10/ Technologies de la connaissance

Cette année, l'accent est mis sur des problématiques actuelles et d'importance stratégiques pour les entreprises comme  la dématéralisation (33 conférences programmées sur les deux jours), la gestion de contenu (23 conférences programmées), la gestion électronique des documents (22 conférences programmées), et la data intelligence (18 conférences programmées). 
Documation ce sont aussi des sujets de fond comme la gouvernance de l'information (18 conférences programmées) ou les problématiques d'archivage (23 conférences programmées) et des sujets à surveiller comme la gestion de contenus enrichis (Rich media) dont 10 conférences sont programmées sur les deux jours.

Pour en savoir plus: 








3/
 DÉMATÉRIALISATION ET GESTION DES PROCESSUS (BPM)
En savoir plus sur http://www.documation.fr/site/FR/SALON/Parcours_thematiques,I5126.htm#xuCmKQDS7TxWSvb4.99



 

lundi 24 mars 2014

Musique : la promesse non tenue d'Internet

Internet va transformer et transforme déjà le système culturel de la musique, en donnant à tous la possibilité de partager l'oeuvre d'artistes peu connus, leur offrant ainsi une visibilité sans précédent.

On y a cru. Longtemps. Mais les chiffres récents de l'étude MIDIA démontrent le contraire. 1% des artistes les plus côtés sur le marché captent 77% de l'ensemble des revenus générés par la musique enregistrée. L'étude suggère que la cause d'un tel déséquilibre serait la "tyrannie du choix" induite par le service digital.

En effet, Internet n'a pas tenu sa promesse alléchante de diversité culturelle. Selon le concept de la "long tail", le Web aurait dû transformer le marché culturel et permettre l'augmentation des ventes d’œuvres plus confidentielles, qui, cumulées, seraient supérieures aux ventes d’œuvres dites "tubes". Au contraire aujourd'hui,  les "tubes" se sont appropriés l'espace d'Internet, on n'entend qu'eux, on ne voit qu'eux, on ne parle que d'eux... On n'achète qu'eux. 

Pourquoi cet échec ? La réponse est simple, selon Thierry Crouzet (cité en source plus bas). Le Net s'est centralisé. Avec le renforcement d'acteurs type Google, les petits sites perdent en visibilité, car seuls les grands producteurs peuvent s'offrir un pareil référencement. Résultat, les sites qui parlaient d'artistes non diffusés par les canaux habituels sont de moins en moins visités, au profit des grandes plateformes centralisées qui proposent des produits musicaux mainstream.

Pourquoi cette centralisation ? Les pouvoirs publics qui sanctionnent le partage de fichier (peer to peer) ont largement contribué à cette situation. Ils ont ainsi laissé le champ libre aux plateformes centralisées sous prétexte de vouloir protéger le droit d'auteur. De là à parler d'un résultat calculé et voulu, il n'y a qu'un pas, que nous ne franchirons pas, aujourd'hui.

Existe-t-il des solutions ? Il n'est jamais trop tard pour renverser la vapeur. On peut par exemple envisager de légaliser et d'encadrer le peer to peer, et certaines autorités publiques commencent à y réfléchir. Cela afin que le maximum d’œuvres bénéficie du maximum d'attention, et que cette attention ne se focalise pas toujours aux mêmes endroits.

De tels chiffres n'encouragent pas l'optimisme. Pourtant il faut savoir qu'il existe, dans ce qu'on aime à appeler les méandres d'Internet, de larges enclaves décentralisées (sites, forum...) qui, elles, favorisent ces échanges sur des œuvres dominées par les collections musicales régnantes. Ainsi, si vous voulez parler de votre groupe préféré et promouvoir son prochain concert, vous le pouvez. Pas sûr par contre que beaucoup de monde vous écoutera.


CROUZIER, T, Le Net rend plus con que la TV. Publié le 7 mars 2014. <http://blog.tcrouzet.com/2014/03/07/le-net-rend-plus-con-que-la-tv/> <en ligne> <consulté le 24/03/2014>

CALIMAQ. Le contrecoup le plus négatif de la guerre au partage et son véritable objectif. Publié le 8 mars 2014.<http://scinfolex.com/2014/03/08/le-contrecoup-le-plus-negatif-de-la-guerre-au-partage-et-son-veritable-objectif/>  <en ligne>  <consulté le 24/03/2014>

FRADIN, Andréa. Internet renforce le phénomène des popstars: 1% des artistes capte 77% des revenus. Publié le 6 mars 2014. Slate.fr. <http://www.slate.fr/culture/84277/internet-popstars-longue-traine-economie>  <en ligne>  <consulté le 24/03/2014>

DREDGE, Marc. How digital music services may be fuelling a ‘superstar artist economy’. Publié le 4 Mars 2014 dans Musically <http://musically.com/2014/03/04/how-digital-music-services-may-be-fuelling-a-superstar-artist-economy/?curator=MediaREDEF>  <en ligne>  <consulté le 24/03/2014>





Pour les 25 ans du Web, Tim Berners-Lee appelle à la création d'une charte d'Internet


Il y a maintenant 25 ans, Tim Berners-Lee soumettait sa proposition pour un système de management de l'information qui deviendra le World Wide Web. Cet "anniversaire" est l'occasion pour le fondateur de faire le point sur son invention par l'intermédiaire d'un portail dédié à l'évènement, d'entretiens avec la presse, ou encore via les réseaux sociaux.

Ainsi Tim Berners-Lee n'hésite pas à rappeler que, dans sa conception même ("design"), le Web se veut universel, libre de droits, ouvert, et décentralisé [1]. Le rappel de ces principes fondamentaux du Web n'a rien d'anodin quand l'on connait les préoccupations du fondateur face aux révélations de l'affaire Snowden [2] ou aux écarts de plus en plus fréquents vis-à-vis du principe de neutralité du Net [3 ; 4].

Cette préoccupation face à la mise en danger des principes fondateurs du Web est également apparue dans le AMA donné par Berners-Lee [5]. Cette session fut l'occasion de revenir sur la création du Web, mais également sur sa situation actuelle et son avenir. C'est ainsi que le fondateur a pu déclarer non sans humour que l'attrait des internautes pour les chats constitue selon lui l'usage le plus inattendu du Web. Mais ce fut aussi l'occasion d'appeler à une plus grande mobilisation des internautes pour la protection des principes fondateurs du Web.

Cependant, dans une interview accordée au Guardian, le scientifique va encore plus loin et appelle à la création d'une charte pour internet [6]. Tim Berners-Lee estime en effet qu'une telle charte est devenue nécessaire "face aux attaques des gouvernements et des entreprises". Cet appel s'inscrit dans le cadre de la campagne "Web We Want" qui milite en faveur d'un Web accessible, libre, neutre, ouvert, et soucieux de la protection des données personnelles [7]. Tim Berners-Lee espère ainsi amener les institutions publiques, les gouvernements, ainsi que les entreprises à adopter cette charte. Un document unique permettrait d'établir des normes internationales pour le maintien d'un Web ouvert que Bernes-Lee considère comme une condition de l'exercice de la démocratie. Cette charte devra également examiner la question des droits d'auteur et des enjeux éthiques autour de l'usage des technologies.

Enfin, on notera que le choix de 12 mars 2014 comme 25e anniversaire du Web n'est pas sans poser question. En effet, la date du 12 mars 1989 n'a pas toujours été celle retenue pour célébrer l'apparition de la Toile [8]. On peut dès lors se demander si cette célébration n'est pas davantage l'occasion de rappeler les principes fondateurs qui ont mené à la création du Web à l'heure où leur avenir semble incertain.

Sources :

[1] Déclaration de Tim Berners-Lee à l'occasion des 25 ans du Web : http://www.webat25.org/news/tbl-web25-welcome 

[2]  "Le Web fait de plus en plus partie des droits de l'homme", Propos recueillis par Yves Eudes et Damien Leloup, Le Monde, 12/03/2014, http://www.lemonde.fr/technologies/article/2014/03/12/le-web-fait-de-plus-en-plus-partie-des-droits-de-l-homme_4381402_651865.html?xtmc=tim_berners_lee&xtcr=2

[3 "Tim Berners-Lee: 'We should have ways of protecting people like Snowden'", Katie Rogers, theguardian.com, 12/03/2014", http://www.theguardian.com/technology/2014/mar/12/tim-berners-lee-snowden-reddit-amahttp://www.theguardian.com/technology/2014/mar/12/tim-berners-lee-snowden-reddit-ama


[5] 
http://www.reddit.com/r/IAmA/comments/2091d4/i_am_tim_bernerslee_i_invented_the_www_25_years/http://www.reddit.com/r/IAmA/comments/2091d4/i_am_tim_bernerslee_i_invented_the_www_25_years/. Un AMA ("Ask Me Anything") est une pratique courante au sein du portail reddit.com. Elle consiste à permettre à une personnalité de répondre aux questions de la communauté. Une traduction de cette session est disponible sur Framablog.

[6] "An online Magna Carta: Berners-Lee calls for bill of rights for web", Jemima Kiss, The Guardian, 12/032014, http://www.theguardian.com/technology/2014/mar/12/online-magna-carta-berners-lee-webhttp://www.theguardian.com/technology/2014/mar/12/online-magna-carta-berners-lee-web


[8] "Le Web a-t-il 25 ans?", Didier Frochot, 21/03/2014, http://www.les-infostrateges.com/actu/14031787/le-web-a-t-il-25-ans

mardi 18 mars 2014

L'offre de livres numériques en France - Le panorama de KPMG

A la veille de l'ouverture du Salon du livre de Paris, KPMG apporte un éclairage chiffré du développement et la distribution de l'offre du livre numérique en France.
Sans surprise, le circuit de distribution est essentiellement capté par les géants d'internet, Amazon et Apple en tête.  Principaux clients de livres numériques, ils représentent à eux deux entre 51 et 66 % des citations, selon la taille des éditeurs.

Les e-distributeurs sont ainsi privilégiés par les grands groupes (60 %), alors que les éditeurs indépendants continuent de favoriser la vente directe au lecteur (16,7 %) ou les plateformes d'intermédiation (58,6 %).

Le volume de vente est encore faible, mais il est proportionnel à la taille des éditeurs. Ainsi, pour un quart des grandes maisons d’édition, le montant annuel des ventes numériques dépasse les 3 M€.
On notera toutefois que 37 % disent ne pas connaître le montant du chiffre d'affaires lié aux ventes numériques. 97,1 % des éditeurs qui disposent d'une offre numérique considèrent que la "cannibalisation" n'est pas une réalité dans le marché du livre.

Du côté des possibilités de "livre enrichi", le bilan reste assez maigre. En effet, les éditeurs utilisent peu le potentiel offert : 43 % ne l'utilisent jamais et 43 % rarement. Ses principaux utilisateurs se retrouvent dans les secteurs du tourisme, des guides et pratiques.
En terme d'enrichissements, c'est le "lien internet" qui arrive en tête...
Y a-t-il plus attendre ? Selon le blogueur Thierry Crouzet, "le livre enrichi tel qu’il est aujourd’hui imaginé n’est ni plus ni moins que du web, qui lui-même a succédé aux premières applications interactives et hypertextuelles sur CD-ROM. Parler de livre augmenté, c’est donc un truc marketing pour vendre ce qui jusque-là était diffusé gratuitement en ligne."

Rien de très novateur non plus concernant les métadonnées. Alors qu'elles sont jugées incontournables pour améliorer la visibilité, elles concernent essentiellement les éléments de description et d'identification de base.



Une aubaine peut-être pour les professionnels de nos domaines, dans un champ où l'essentiel reste à inventer : plus de trois quart des éditeurs restent hésitants, et ne savent pas s'ils développeront de nouvelles métadonnées. Faute de savoir qu'en faire ?

Sources :
KMPG. Baromètre 2014 de l’offre de livres numériques en France. 10 mars 2014
[en ligne] http://www.kpmg.com/FR/fr/IssuesAndInsights/ArticlesPublications/Documents/Barometre-2014-KPMG-Offre-de-livres-numeriques-en-France.pdf

ActuaLitté. Baromètre : Panorama 2014 de l’offre de livres numériques en France. 10 mars 2014. [en ligne]
http://www.actualitte.com/usages/barometre-panorama-2014-de-l-offre-de-livres-numeriques-en-france-48690.htm

Crouzet, Thierry. Le livre augmenté est une impasse marketing. 23 mars 2013 [en ligne]
http://blog.tcrouzet.com/2013/03/23/le-livre-augmente-est-une-impasse-marketing/ 

Million Short, "un moteur de découvertes"

Million Short est un moteur de recherche qui s'appuie essentiellement sur les résultats de Google, mais qui peut être utilisé en complément d'autres moteurs de recherche classiques.

En effet, sa particularité est d'enlever de son index les sites les plus populaires. L'internaute peut ainsi ignorer les 100, 1 000, 10 000, 100 000, jusqu'à 1 000 000 de résultats par requête. De plus, des filtres peuvent être activés via l'option "Manage Settings & Country", plus précisément un filtre parental, l'intégration ou l'exclusion de sites ainsi que l'affichage en haut de page des résultats de sites favoris.

A noter qu'il s'agit d'une possibilité, dans la mesure où l'internaute peut décider de ne pas supprimer de résultats issus de sites populaires. Il est alors libre de choisir. Et pourquoi pas de comparer en temps réel les résultats d'une même requête.

L'objectif de Million Short est donc de permettre aux internautes d'accéder à des résultats originaux, du moins différents de ceux qu'ils auraient pu trouver s'ils avaient eu recours à un moteur de recherche classique. Ce qui explique qu'il se présente comme un moteur de découvertes, qui sort des sentiers battus.

En bref, une initiative intéressante à découvrir ici : https://millionshort.com/

Sources :

Jean-Luc Raymond. Million Short, moteur de recherche ou plutôt de découverte. NetPublic, 5 mai 2012. <http://www.netpublic.fr/2012/05/million-short-moteur-de-recherche-ou-plutot-de-decouverte/>, consulté le 18 mars 2014.

Julien L. Million Short : le moteur de recherche qui ignore les sites populaires. Numérama, 5 mai 2012. <http://www.numerama.com/magazine/22532-million-short-le-moteur-de-recherche-qui-ignore-les-sites-populaires.html>, consulté le 18 mars 2014.

3 moteurs de recherche originaux. Les outils de la veille, 16 mars 2014. http://outilsveille.com/2014/03/3-moteurs-de-recherche-originaux/, consulté le 18 mars 2014.

Un moteur de recherche qui exclut volontairement les sites populaires. Le Nouvel Observateur, Rue 89, 4 mai 2012. <http://rue89.nouvelobs.com/2012/05/04/un-moteur-de-recherche-filtre-les-sites-les-plus-populaires-231895>, consulté le 17 mars 2014.



lundi 17 mars 2014

Des nouvelles de l'Open Access, ici et ailleurs

Des nouvelles de l'open access à l'université, ici et ailleurs


La question de l'accès à l'information est une préoccupation naturelle pour les professionnels de l'info-doc (c'est même écrit dans le nom...).
Les moyens existant ou en développement pour ouvrir ces accès ne sont cependant pas toujours à notre portée.

Quelques nouvelles glanées sur la Toile sur des initiatives, des nouveautés qui font avancer les pratiques ou alimentent les discussions.

Edition et Big data : quelle source de valeur ?

Exploitables avec le développement du Big Data, les données laissées par les internautes lors de leur consultation du web constituent une source de valeur pour l’industrie des contenus culturels comme pour celle des contenants. Amazon, Google et Apple on fait de l’utilisation de ces données un des leviers de leur développement. Le livre numérique offre désormais la possibilité d'obtenir des données similaires à travers les informations issues du suivi des pratiques de ses usagers : temps, parcours et préférences de lecture, nombre d’ouvrages consultés, mais aussi détermination du moment où le lecteur s’ennuie à travers l’analyse des abandons de lecture.

Dans un billet publié par la Harvard Business Review (1), Tom Davenport  note cependant que le monde de l’édition reste en retrait par rapport à ce mouvement. L’exploitation de ces données  reste difficile pour ce secteur, en raison des intermédiaires existants entre les maisons d’édition et leurs clients. Les bénéficiaires des connaissances extraites des données sont principalement les géants du web. Beaucoup d’éditeurs n’ont pas développé de service de vente directe de leurs livres via leur site.

Comme le note Alexandra Alter dans le Wall Street Journal (2), ce faible développement de l'étude des goûts et des pratiques des consommateurs par les éditeurs contraste avec la situation dans le reste des industries culturelles, y compris en dehors du champ de l'exploitation des données issues du Big Data. Aux États-Unis, les producteurs travaillant pour la télévision testent par exemple depuis longtemps à travers des groupes témoin l'appréciation par le public de leurs nouveaux programmes. Dans le monde de l'édition cette évaluation se fait encore largement à travers l'analyse des chiffres de ventes et celle de la réception par la critique. Des éditeurs comme Sourcebooks aux États-Unis ont toutefois commencé à sortir des livres test en version numérique avant de les publier en version papier.

Les nouvelles possibilités offertes par l'exploitation des traces des lecteurs et des acheteurs de livres numériques posent néanmoins un certain nombre de questions.

Au niveau du respect de la vie privée d’abord. Cindy Cohn, responsable juridique au sein de l’Electronic Frontier Foundation (3), note ainsi qu'à l'heure actuelle il n'existe pas de moyen de dire à Amazon : "je veux lire vos livre, mais je ne veux pas que vous suiviez ma trace lorsque je le fais" .

Se baser sur ces données peut ensuite nuire à une politique de diversité éditoriale en amenant les éditeurs à se concentrer sur l’offre la plus profitable au détriment d’ouvrages plus risqués. Comme le souligne Nicolas Gary d’ActuaLitté (4), désormais, au sein des maisons d’édition, en « plus des commerciaux, il faudra compter sur les analystes » en charge de l’exploitation des big datas. On retrouve ici un problème qui concerne également les bibliothèques avec le développement du modèle des Patron Driven Aquisitions : la politique d’achat est fondée sur des statistiques élaborées grâce à  la mise à disposition des usagers, pour une durée limitée, d’une large quantité de contenus, remettant en cause des politiques d’acquisitions plus ambitieuses.

On notera enfin avec Nicolas Gary que, si les données issues des pratiques de lecture peuvent permettre de « produire le livre qui ressemblerait à ce que les lecteurs aiment lire » (5), l’utilisation de ces données est loin d’avoir permis à ce jour aux filiales éditoriales d’une entreprise comme Amazon d’obtenir de gros succès éditoriaux. Pour Tom Davenport, "Le principal objectif devrait non pas être de vendre du contenu, mais d'extraire les informations pour fidéliser les clients".  Pour les maisons d’édition, cela impliquerait de développer leur relation directe avec les consommateurs.

Notes

(1) Tom Davenport. Book Publishing’s Big Data Future. 3 mars 2014. Harvard Business Review. <http://blogs.hbr.org/2014/03/book-publishings-big-data-future/>, consulté le 17 mars 2014.


(3) Alexandra Alter. op.cit. L'EFF est une organisation non gouvernementale américaine défendant notamment les droits des usagers de l'Internet

(4) Nicolas Gary. L'exploitation des Big Datas : l'avenir du livre, le cauchemar du lecteur. AcutaLitté, 5 mars 2014. <http://www.actualitte.com/societe/l-exploitation-des-big-datas-l-avenir-du-livre-le-cauchemar-du-lecteur-48589.htm>, consulté le 17 mars 2014.

(5) Nicolas Gary. Collecte des informations de lecture, la traque d'une recette miracle ? ActuaLitté, 29 juin 2012. <http://www.actualitte.com/usages/collecte-des-informations-de-lecture-la-traque-d-une-recette-miracle-35062.htm>, consulté le 17 mars 2014.


mardi 11 mars 2014

Doit on craindre un affaiblissement du droit d'auteur ?



Bruxelles doit donner, en juin, les grands contours d'une vaste réforme du droit d'auteur à l'ère d'Internet.

Cette réforme effraie les acteurs du monde de la culture et de l'audiovisuel. Début mars, une soixantaine de leurs représentants ont adressé une lettre  à José Manuel Barroso, le président de la Commission européenne.

Les signataires de la lettre veulent éviter à tout prix une remise en cause des acquis de la précédente directive de 2001. Ils craignent notamment que Bruxelles remette en cause le principe de territorialité, qui fait que les droits restent associés à une base nationale.

Cette grande offensive de lobbying témoigne de l'importance du dossier. La Commission avait lancé une consultation auprès de toutes les parties intéressées par une réforme d'un régime du droit d'auteur que remet en question le développement de l'économie numérique.
La procédure s'est maintenant achevée et les grandes options de cette réforme seront dévoilées en juin dans un livre blanc.

Ces options iront-elles à l'encontre des intérêts des auteurs ?

Tout le monde est bien conscient qu'il faut rémunérer le contenu.

Des évenements récents viennent en tout cas conforter l'idée selon laquelle les auteurs ne doivent pas être lésés.

Pour exemple :

 Le changement de politique de droit d’auteur survenu sur YouTube en décembre 2013

La sensibilité du robot utilisé par YouTube a été augmentée, ce qui fait que des vidéos reprenant même de courts extraits de films ou de musique protégés ont subi des signalements.
A partir de janvier 2014, « le vrai changement » est entré en vigueur. Il concerne la question sensible de la monétisation. En vertu du programme partenaire, l’utilisateur peut monétiser sa vidéo en lui associant des annonces publicitaires. Chaque clic de l’internaute qui regarde la vidéo rapporte donc de l’argent. Mais désormais, si Content ID détecte du contenu contrefait, les revenus générés par la vidéo iront aux ayants droit, et non plus aux vidéocasteurs.

Autre signe venant cette fois de la Cour de Justice de l'Union Européenne elle même :

La décision rendue dans l'arrêt Svensson du 13 Fevrier 2014 (*)

Les liens hypertexte étaient depuis un moment sur la sellette, à cause des tensions croissantes entre les fournisseurs de contenus, notamment la presse en ligne, et des acteurs comme les moteurs de recherche et les agrégateurs d’information.
La CJUE a donné l’impression d’avoir conforté l’établissement de liens hypertexte dans la mesure où elle a indiqué que l’on pouvait en principe créer un lien hypertexte sans autorisation préalable. Mais pour ce faire, elle a considéré que le fait de fournir des liens cliquables vers des oeuvres protégées devait être qualifié de "mise à disposition" et par conséquent, "d’acte de communication au public" au sens de la directive européenne de 2001.
Aussi pour extraire les liens hypertextes de l'autorisation préalable la cour de justice "se rattrape" en énonçant une condition selon laquelle il ne doit pas donner accès  à l'oeuvre à un "autre public". Il n'en reste pas moins que le lien hypertexte simple chemin d'accès se retrouve sous la coupe du droit d'auteur.

Enfin certaines nominations récentes d'acteurs clés dans la future réforme  :

Olivier Henrard, ancien conseiller de l'ancienne ministre de la Culture Christine Albanel, recruté il y a un an par SFR, a été désigné par Aurélie Filippetti pour représenter les opérateurs télécoms (les fournisseurs d'accès et de services en ligne ) au Conseil supérieur de la propriété littéraire et artistique (CSPLA), qui doit étudier plusieurs sujets en lien avec les droits d'auteur dans l'univers numérique.
Or Olivier Henrard a été le principal concepteur et rédacteur de la loi Hadopi suite aux accords Olivennes de 2007. 

Egalement la nomination d’Olivier Schrameck à la présidence du groupe des régulateurs européens des services de médias audiovisuels (ERGA):  le ERGA regroupe l’ensemble des CSA de chaque pays membre. « La création de ce groupe, qui rassemble les autorités de régulation de l’audiovisuel des vingt-huit États membres de l’Union, s’inscrit dans la continuité de l’initiative prise par le président du CSA de réunir à Paris, en septembre dernier, plusieurs présidents d’autorités de régulation dans la perspective d’une coopération à l’échelle de l’Union européenne » se félicite le Conseil supérieur de l’audiovisuel.
En janvier dernier, lors de ses vœux pour 2014, Olivier Schrameck annonçait déjà avoir « pris des initiatives pour créer des liens et une solidarité entre les différentes autorités de régulation européennes. 

Enfin pour finir de se rassurer sur le grand chantier des droits d'auteurs, il n'est pas certain que José Manuel Barroso, après la polémique sur l'exception culturelle, ait envie de remettre de l'huile sur le feu.


Sources
Revue de presse de l'April :
"Agitation à Bruxelles autour de la réforme du droit d'auteur", Renaud Honoré, [en ligne] Les échos.fr. le 6/03/2014 [consulté le 11/03/2014]
http://www.lesechos.fr/entreprises-secteurs/tech-medias/actu/0203353817280-agitation-a-bruxelles-autour-de-la-reforme-du-droit-d-auteur-654919.php

"POur les YouTubeurs, fin de l'âge d'or ou possibilité d'un nouveau départ", Lionel Maurel (Calimaq), [En ligne], site  S.I.Lex, le 11/03/2014. [consulté le 11/03/2014]
http://scinfolex.com/

CJUE 4e ch., arrêt du 13/02/2014, Svensson contre Retriever, C-595/12, Site InfoCuria, Jurisprudence de la Cour Européenne, en ligne, [consulté le 11/02/2014]
http://curia.europa.eu/juris/document/document.jsf?text=&docid=147847&pageIndex=0&doclang=EN&mode=req&dir=&occ=first&part=1&cid=31410

"Arrêt Svensson, les liens hypertextes confortés mais retirés du "domaine public de l'information" ?" - Lionel Maurel (Calimaq), site S.I Lex, le 17/02/2014 [consulté le 11/03/2014]
http://scinfolex.com/2014/02/17/arret-svensson-les-liens-hypertexte-confortes-mais-retires-du-domaine-public-de-linformation/

"L'architecte de la loi Hadopi nommé par Aurélie Filippetti au CSPLA" - Guillaume Champeau, Site Numerama, le 05/03/2014, en ligne, [consulté le 11/03/2014]
http://www.numerama.com/magazine/28662-l-architecte-de-la-loi-hadopi-nomme-par-aurelie-filippetti-au-cspla.html

"Régulation : le président du CSA dans l'oreille de la Commission européenne"-Marc Rees [en ligne] Site PC INpact, le 04/03/2014 [consulté le 10 mars 2014] 
http://www.pcinpact.com/news/86290-regulation-president-csa-dans-oreille-commission-europeenne.htm





La peur de "Big Brother" et ses avatars actuels

Depuis juin 2013 et les déclarations d'Edward Snowden sur la N.S.A. (National Security Agency, une des agences de renseignement des Etats-Unis), de plus en plus d'internautes et de citoyens pensent que le cauchemar de surveillance généralisée décrit par George Orwell dans son roman 1984 (publié en 1949) s'est bel et bien réalisé - au moins sur Internet. Pour le dire d'un mot, "(...) Edward Snowden a changé notre vision du monde" (selon Jean-Marc Manach).

Nous laisserons de côté la question de savoir si cette crainte est justifiée ou non ; il s'agit là en effet d'un débat extrêmement polémique, donc les répercussions politiques et médiatiques sont immenses, et qui de ce fait n'entre pas dans le cadre de ce blog.

Ce qui nous intéressera ici, plus modestement, ce seront quelques répercussions parmi d'autres de ce nouvel état d'esprit.

Par exemple, il semble incontestable que de plus en plus d'internautes (en-dehors de la communauté des "geeks") utilisent déjà des parades pour se mettre à l'abri d'intrusions malveillantes, dont ils pensent qu'elles sont tout à la fois systématiques et inéluctables. Dans un récent article de son blog Bug Brother, Jean-Marc Manach livre (à la fin de l'article) une panoplie d'outils destinés à mettre "à l'abri" tout ce qu'un internaute estimera être confidentiel. Ce dernier article n'est d'ailleurs qu'un résumé des actions menées par Jean-Marc Manach pour "sensibiliser" l'opinion à la problématique de la surveillance généralisée d'Internet (il s'agit en fait de la liste de ses interventions sur le sujet dans différents médias).

Face à cet "activisme" somme toute traditionnel dans ses méthodes, le blogueur Olivier Ertzscheid développe une réflexion stimulante. Pour Olivier Ertzscheid, les méthodes attribuées à la N.S.A. (la collecte massive de données personnelles) ne diffèrent en rien de celles pratiquées par les grands acteurs commerciaux d'Internet tels que Google ou Facebook. D'ailleurs, si espionnage il y a, c'est parce qu'Internet reposerait tout entier sur une sorte de "pacte faustien" dont la remise en cause remettrait en cause l'existence d'Internet lui-même : le système dit de "l'opt-out", qui facilite cette collecte massive de données. De plus, les avancées technologiques actuelles rendraient illusoires toute tentative d'empêcher techniquement ce type de collecte.

Plutôt que de chercher à empêcher certains acteurs de collecter massivement des données personnelles, la seule solution, selon Olivier Ertzscheid, serait de mettre en place ce qu'il appelle des "data-éthicistes", qui veilleraient à ce que les données collectées soient le plus possible utilisées à bon escient et sans porter atteinte aux droits fondamentaux des utilisateurs d'Internet.

Par définition, une agence de renseignement ne confirmera ni n'infirmera jamais les actions qu'on lui attribue, et ne les rend jamais (officiellement) publiques. Il est donc difficile d'évaluer la véracité des déclarations d'Edward Snowden. Mais l'opinion publique a été profondément influencée, à la fois par le roman d'Orwell auquel nous nous référions au début de ce billet, et surtout par les faits historiques bien réels dont ce roman s'inspire. En fait, Edward Snowden n'a pas changé notre vision du monde, il n'a fait que révéler quelle était la vision du monde que nous avions déjà.

Sources :

Manach (Jean-Marc), Le Gif qui révèle la paranoïa de la NSA (Blog Bug Brother, 11 février 2014) :

Ertzscheid (Olivier),  Jamais nous n'avons été aussi discrets que sous la NSA (Blog affordance.info, 28 février 2014) :

lundi 10 mars 2014

Les données : une nouvelle matière première

             La recension du dernier ouvrage d’Yves Gingras par le Carnet de recherche « Data sciences sociales » nous informe que malgré son titre : « Les dérives de l’évaluation de la recherche : du bon usage de la bibliométrie », l’auteur rappelle la contribution de la bibliométrie à l’histoire et à la sociologie des sciences plus qu’il ne critique la bibliométrie. Par ailleurs, l’observation par la quantification s’accélère du fait des évolutions technologiques et de l’accroissement des corpus numériques permettant le Text et le Data Mining.

            Le récent mémoire de Rémi Gaillard « De l’Open data à l’Open research data : quelle(s) politique(s) pour les données de recherche ? » renseigne sur  «l’adoption de solutions juridiques et techniques » mises progressivement en place par les États pour favoriser la diffusion des données recueillies et constituées par les chercheurs aux cours de leurs travaux de recherche en amont de leur thèse ou de la soumission d’articles à des revues scientifiques. Permettre ainsi l’accès et la réutilisation aux données de la recherche répondrait au dessein premier des créateurs du Web qui était celui de partager des données, comme le rappelle Olivier Le Deuff sur son blog.

            Mais  que le  mot d’ordre soit « fouiller les données pour publier », tout comme le fameux « publier ou périr » ou encore plus récemment « payer pour accéder et payer pour publier », c’est bien une forme de dérive de l’évaluation de la recherche plus que son partage qui prédomine. Et dans cette course, les grands éditeurs ont encore une longueur d’avance. Ainsi, depuis la toute récente négociation avec Couperin de la Free Collection dans le cadre des Licences Nationales, les solutions proposées en matière de Text et de Data Mining par Elsevier contraignent les chercheurs à la fois techniquement mais aussi en matière de réutilisation.

           On le voit bien, qu’il s’agisse du Web grand public, avec l’utilisation des données personnelles par les grands acteurs du Web et l’avènement des objets connectés, ou bien du Web scientifique, avec le Text et le Data Mining et la bibliométrie avec Mendeley racheté par Swets, les données sont au cœur des modèles d’affaire.
         A la fois promesse de nouveaux services par les géants du Web, de transparence, de participation et de stimulation de l’économie avec l’Open Data, de nouveaux apports scientifiques avec l’Open Research Data, les données méritent toute notre attention. Ainsi une école des données a récemment été lancée par l’Open Knowledge Foundation et la société Data Publica, quant à elle, diffuse gratuitement un lexique sur les données.


Sources :

« École des Données » [En ligne]. LaLIST, La veille pour vos informations scientifiques, techniques et stratégiques, 28 février 2014. [Consulté le 10 mars 2014]. <http://lalist.inist.fr/?p=11716>

« De l’Open data à l’Open research data : quelle(s) politique(s) pour les données de recherche ? – Rémi Gaillard » [En ligne]. LaLIST, La veille pour vos informations scientifiques, techniques et stratégiques, 24 février 2014. [Consulté le 10 mars 2014]. <http://lalist.inist.fr/?p=11678>

« Le Grand Lexique des données, le Livre Blanc » [En ligne]. Data Publica, open data, Big data & Dataviz, les données pour votre business, 8 février 2014. [Consulté le 10 mars 2014].  <http://www.data-publica.com/content/2014/02/le-grand-lexique-des-donnees-le-livre-blanc/>

« Protocole d’accord Elsevier : vers le maintien de la rente et la confirmation d’un contrôle hégémonique des données de la recherche » [En ligne]. SavoirsCom1, politiques des biens communs de la connaissance, 21 février 2014. [Consulté le 10 mars 2014]. <http://www.savoirscom1.info/2014/02/21/protocole-daccord-elsevier-vers-le-maintien-de-la-rente-et-la-confirmation-dun-controle-hegemonique-des-donnees-de-la-recherche/>

« Sur “Les dérives de la bibliométrie” » [En ligne]. Data sciences sociales, 10 février 2014. [Consulté le 10 mars 2014]. <http://data.hypotheses.org/819>

LANGLAIS, Pierre-Carl. « Data Mining : quand Elsevier écrit sa propre loi… » [En ligne]. Sciences communes, 8 février 2014. [Consulté le 10 mars 2014]. <http://scoms.hypotheses.org/98>

LE DEUFF, Olivier. « Le web comme espace de partage et de diffusion des données, des nouvelles et de la documentation » [En ligne]. Le guide des égarés, 15 février 2014. [Consulté le 10 mars 2014]. <http://www.guidedesegares.info/2014/02/15/le-web-comme-espace-de-partage-et-de-diffusion-des-donnees-des-nouvelles-et-de-la-documentation/>