mercredi 25 novembre 2015

Chiffrement : clé de la sécurité ou menace cachée ?

Au lendemain des attentats, et devant la menace terroriste qui persiste, une des problématiques concernant la protection du citoyen passe par le chiffrement des données. Quel rapport entre ces notions qui peuvent paraître éloignées au premier abord ?   


Le chiffrement : la liberté pour le citoyen

Le chiffrement est une technique qui s'appuie sur de puissants algorithmes, permettant de coder les messages échangés, pour que seuls les destinataires puissent les lire, grâce à une clé. Il sert également à pouvoir s'authentifier à l'aide d'un code, d'une clé ou même d'une empreinte digitale.

Le chiffrement permet à la fois la confiance numérique (protection de la vie et données privée, échanges sécurisés, y compris pour les moyens de paiement), mais aussi la liberté d'expression au sein des communautés, et réseaux sociaux. 
Par conséquent, le droit à la vie privée des citoyens passe par le chiffrement[1]. 

Pour aider à mieux se protéger individuellement, Edward Snowden, grand défenseur du cryptage et de la sécurité informatique, liste les méthodes et les outils à privilégier pour verrouiller l'ensemble de nos objets connectés ou applications. Cela s'étend du chiffrage des SMS avec l'application gratuite comme Signal Private Messenger, à l’utilisation de la messagerie Thunderbird (plutôt que Outlook, Gmail, Yahoo…), en passant par l'alternative Jitsi à la place de Skype[2].
Il prône le chiffrage et tout moyen de se défendre de tout espionnage ou surveillance.


Chiffrement : Liberté pour les terroristes

Vouloir se protéger, et garder sa sphère privée en dehors de toute intrusion est légitime.
La question qui se pose est de savoir si cette protection par le chiffrement ne sert pas également la cause des terroristes.

En effet, il s'avère que l'attentat du 13 novembre 2015 a été revendiqué depuis la Syrie sur la plateforme Telegram, et que c'est également à partir de ce service web sécurisé avec un chiffrement lourd, que l'attentat contre l'avion russe a été revendiqué. Les djihadistes ont pu user de leur droit à la vie privée dans Telegram et échanger entre eux sans être inquiétés pour préparer leurs attaques puis les faire connaître, ou encore pour la propagande de l'Etat Islamique[3].


Chiffrement : blocage pour les agences de renseignement ?

C'est à ce niveau que les services de renseignement auraient aimé pouvoir infiltrer les échanges.
Le chiffrage empêche d'avoir les moyens pour les gouvernements d'être au courant de faits criminels, et donc d'être en mesure de les empêcher. D'où l' opposition de la part des services de renseignements à cette montée en puissance du verrouillage. Ils mettent ainsi en exergue une certaine perte de liberté puisque le chiffrement permet à la menace terroriste de bénéficier des parades faites pour protéger la vie privée.


Les géants de l'internet mettent tout en œuvre pour protéger de plus en plus et de manière plus fiable les applications, smartphones, mails,...
Les gouvernements souhaitent, quant à eux avoir au moins à leur disposition, les clés ou "passe-partout" qui leur permettront de passer outre le cryptage.
Mais les utilisent-ils toujours dans les règles de l'art sans enfreindre le droit ni faire intrusion dans la vie des citoyens ?

Hugo ZYLBERBERG propose un débat public pour choisir le meilleur positionnement à prendre sur la question et dans quelle mesure utiliser le chiffrement à l'avenir.



 Sources :


[1] ZYLBERBERG Hugo : "Renseignement : le chiffrement pour trouver l'équilibre entre sécurité et vie privée" [en ligne]. 9 avril 2015. [consulté le 25 novembre 2015]. LesEchos.fr.
http://www.lesechos.fr/idees-debats/cercle/cercle-132068-en-france-comme-aux-etats-unis-chiffrer-permet-de-trouver-un-meilleur-equilibre-entre-securite-et-vie-privee-1112552.php#

[2] SNOWDEN Edward : "Le B-A BA de la sécurité informatique selon Edward Snowden" [en ligne]. 19 novembre 2015. [consulté le 25 novembre 2015]. Techniques de l'ingénieur.
http://www.techniques-ingenieur.fr/actualite/articles/le-b-a-ba-de-la-securite-informatique-selon-edward-snowden-29997/ 

[3] SERRIES Guillaume : "Chiffrement : le débat s'envenime suite aux attentats parisiens" [en ligne]. 19 novembre 2015. [consulté le 25 novembre 2015]. ZDNet.
http://www.zdnet.fr/actualites/chiffrement-le-debat-s-envenime-suite-aux-attentats-parisiens-39828412.htm#xtor=123456 

[4] Photo du domaine public [en ligne]. 11 septembre 2015. [consulté le 25 novembre 2015]. Pixabay.
https://pixabay.com/fr/politique-de-confidentialit%C3%A9-935619/


La loi sur l'état d'urgence dans l'espace numérique : moyens et limites


Suite aux attentats qui se sont produits à Paris le 13 novembre 2015, l'Assemblée nationale a adopté jeudi le 19 novembre la loi prorogeant l'état d'urgence de trois mois, puis il y a eu le vote du Sénat  vendredi le 20 novembre.


On a donc adopté plusieurs amendements qui permettent de (1) :
  • Bloquer des sites internet faisant l'apologie du terrorisme. 
  • Interdire les suspects d'entrer en contact avec des personnes soupçonnées de vouloir commettre des actions qui portent atteinte à l'ordre public. 
  • Copier les données informatiques des ordinateurs et Smartphones présents lors des perquisitions et aussi de les utiliser pour accéder au Cloud des suspects (2)


Certes, ces mesures permettent à l’État français de disposer de moyens considérables afin de surveiller l'espace numérique très exploité par les organisations terroristes. Cependant, la question de l’efficacité de ces mesures est posée vu que les services de communication sont souvent à l'étranger (3). Il faut donc espérer que les entreprises concernées coopèrent avec l’État. De plus, l’utilisation d'un VPN (réseau privé virtuel) permet d'accéder à tous les sites dont ceux qui ont été bloqués (4).


Sources :

(1) CHAMPEAU Guillaume : "La loi sur l'état d'urgence : quel impact sur le numérique ?" [en ligne] 20 novembre 2015. [consulté le 25 novembre 2015]. numerama
www.numerama.com/politique/131446-la-loi-sur-letat-durgence-est-adoptee-quel-impact-sur-le-numerique.html

(2) CHAMPEAU Guillaume : "La police pourra accéder au Cloud des suspects depuis leur domicile" [en ligne] 18 novembre 2015. [consulté le 25 novembre 2015]. numerama
http://www.numerama.com/politique/131284-la-police-pourra-acceder-au-cloud-des-suspects-depuis-leur-domicile.html

(3) BERGOUNHOUX Julien : "L'Assemblée vote un état d'urgence difficile à appliquer" [en ligne] 19 novembre 2015. [consulté le 25 novembre 2015]. l'Usine digitale
http://www.usine-digitale.fr/article/l-assemblee-vote-un-etat-d-urgence-numerique-difficile-a-appliquer.N363830

(4) Frédérique Schneider : "Loi sur l'état d'urgence : quelles conséquences sur le numérique" [en ligne] 23 novembre 2015. [consulté le 25 novembre 2015]. La Croix 
http://www.la-croix.com/Actualite/France/Loi-sur-l-etat-d-urgence-quelles-consequences-sur-le-numerique-2015-11-23-1383881

mardi 24 novembre 2015

Conception agile : un knowledge management en mode projet ?

La conception de solutions informatiques selon une méthode agile relève d'une approche plus ouverte et plus pragmatique que le cycle de développement en cascade. Elle favorise l'innovation et la réactivité mais peut s'avérer risquée si elle n'est pas maîtrisée. Les compétences métiers spécifiques couplées à des aptitudes au knowledge management sont un facteur clé de réussite.


Traditionnellement la conception et la mise en oeuvre d'un système d'information part d'une analyse des besoins, plus ou moins précise. Après validation globale du projet, les étapes de réalisation sont lancées : formalisation du besoin au sein d'un document de spécifications détaillées, développements, recette, mise en service du logiciel complet.

Cette approche dite "en cascade" sécurise la planification mais induit un effet tunnel pour les utilisateurs finaux qui ne sont sollicités qu'au recueil du besoin et à la présentation des premières versions d'essai. A l'arrivée, le résultat peut être sensiblement éloigné du besoin réel ou n'être plus d'actualité. C'est la fameuse image de la balançoire synthétisant les écueils de la gestion de projet.


A l'inverse, les méthodes agiles privilégient de courtes itérations visant la mise en production accélérée des fonctionnalités prioritaires, priorités révisables et ré-aménageables à tout moment en court de projet.

Elle suppose trois caractéristiques  :
  1. une organisation horizontale,
  2. la construction d’un cadre global avant de démarrer le travail par itérations,
  3. la qualité des réalisations. [1]

Qualité des réalisations : co-conception et concentration des moyens
En découpant le projet en modules limités mais rapidement réalisables et vérifiables, chaque application ou fonctionnalité est mise au point de façon concertée entre maîtrise d'oeuvre et maîtrise d'ouvrage. 
Les efforts de conception, développements et recette concentrés sur des cycles courts favorisent la pertinence et la performance du produit.


Cadre global : maîtriser le risque de toute itération
Pour maintenir le cap, il est indispensable de définir au préalable un socle technique et fonctionnel à partir duquel vont se dérouler les échanges : 
  • étude générale des fonctionnalités
  • niveaux de service attendus
  • échéances majeures
  • performances obligatoires
  • choix technologiques
  • environnement technique (exploitabilité de la solution)
Ce travail préparatoire est particulièrement important dans le contexte d'une prestation de service. En effet, l'adoption d'une approche agile ouvre la possibilité juridique pour un client d’interrompre un projet à tout moment sans tenir compte de sa demande globale initiale [3].

S'il n'est pas toujours possible d'adapter le contrat à la méthode agile, une assistance à maîtrise d'ouvrage initiale permet d'instaurer une relation de confiance. Le projet reformulé par le maître d'oeuvre fait l'objet d'une évaluation partagée. Un accord cadre permet de convenir des objectifs, des moyens et des variables d'ajustement possibles (coût, niveau de prestation) pour l'ensemble du prestataire [2]

Chaque livraison validée fait grandir la solution en même temps que la confiance dans le projet et le travail collaboratif.

Management : susciter et capitaliser la connaissance
Le chef de projet est un facilitateur faisant circuler les idées, associant les compétences mais également un gestionnaire de l'information assurant la mise à jour de la documentation du projet et favorisant la capitalisation des savoirs. Sa démarche rejoint les méthodes de travail collaboratif qui s'inventent et s'actualisent au sein de communautés de knowledge management telles que le Café Lab des Connaissances de Montréal [4].


Sources :

[1] LANDING, Olga. Agilité : ne pas confondre vitesse et précipitation. Journal du Net [en ligne]. mis en ligne le 19/11/2015 [consulté le 23/11/2015] <http://www.journaldunet.com/developpeur/expert/62789/agilite---ne-pas-confondre-vitesse-et-precipitation.shtml>

[2] BEIGER Paweł, HORSTEN Peter, traduit par WOJEWODA Stéphane. Comment rester Agile quand vous devez signer un Contrat ? InfoQ [en ligne]. mis en ligne le 22/04/2015 [consulté le 23/11/2015] <http://www.infoq.com/fr/articles/remain-agile-with-contract>

[3] RUELLE Julie, Méthode Agile et sortie du contrat anticipée: le grief de rupture brutale des relations commerciales établies écarté. Alliancy Le Mag [en ligne]. mis en ligne le 25/05/2015 [consulté le 23/11/2015] <http://www.alliancy.fr/juridique/no-theme/2015/05/25/methode-agile-et-sortie-du-contrat-anticipee-le-grief-de-rupture-brutale-des-relations-commerciales-etablies-ecarte>

[4] Atelier d'intelligence appliquée / Applied intelligence [page d'accueil] [consulté le 23/11/2015] <http://www.a-i-a.com/KM-GC-MONTREAL/>

lundi 23 novembre 2015

Bibliothèque numérique Gallica : une nouvelle version développée avec les utilisateurs

Gallica, la bibliothèque numérique de la BNF, propose depuis début octobre une nouvelle version de son site entièrement repensée. Le fruit de deux années d'efforts et de tests avec les utilisateurs [1].

Un développement collaboratif


"Il s'agit d'une refonte graphique, esthétique et fonctionnelle de taille", a confié Mélanie Leroy-Terquem, adjointe au service coopération numérique de la BNF [2]. Les usagers de Gallica, surnommés "Gallicanautes", ont été directement impliqués dans le développement de la nouvelle interface. Ainsi ont-ils pu tester pendant plusieurs mois la version bêta via la plateforme Gallica Labs. La BNF assure que beaucoup de leurs recommandations ont été prises en compte, ce que confirme le grand nombre de réactions relayées sur Twitter (reprises et commentées sur le blog de Gallica) [3]. Quelques dysfonctionnements sont aussi remontés (lenteur du mode zoom, redirection vers le site mobile...), rapidement corrigés par une mise à jour le 8 octobre [4]. Les retours d'expérience sont, depuis, largement positifs. D'autant plus que le nouveau site fait la part belle à ses usagers : la rubrique "Autour de Gallica" propose une chaîne Youtube "Gallica et moi" où les Gallicanautes partagent en vidéo leurs expériences utilisateur.

De nouvelles fonctionnalités

Un grand soin a été apporté au visualisateur de documents, rendu plus intuitif et simple d'utilisation.
Sidebar du visualisateur de document
En mode visualisation, une barre d'outils latérale propose plusieurs types d'affichages (simple ou double page, défilement vertical mais aussi mode texte et image - quand le mode texte est disponible). 
Le zoom est maintenant utilisable en plein écran.
La fonction "partage", combinée avec un outil de sélection, offre la possibilité de partager sur Twitter ou Facebook une partie de l'image seulement.
Nombreux sont les Gallicanautes à voir comme une gêne la fonctionnalité d'expansion de la recherche (qui étend les résultats aux termes proches de ceux saisis dans la requête - par exemple : cheval/chevaux, Chateaubriand/Chateaubriant). Rechercher une expression exacte (entre guillemets) est désormais possible, à la fois dans le catalogue mais aussi au sein d'un document  [4].

Parmi les autres nouveautés, la lecture sur tablette a été optimisée. Le site propose aussi des vidéos. Mais si la collection "enregistrements sonores" est riche de près de 35 000 références, les ressources visuelles sont encore très limitées. Enrichir ce média est sans doute une piste à explorer pour les années à venir.

Sources

[1] Bruno Texier, "Gallica se refait une beauté grâce à ses utilisateurs", Archimag, publié le 18-11-2015 - consulté le 23-11-2015, http://www.archimag.com/bibliotheque-edition/2015/11/18/gallica-refait-beaut%C3%A9-gr%C3%A2ce-utilisateurs

[2] Pierre Georges, "La nouvelle version de Gallica est en ligne", Livres Hebdo, publié le 05-10-2015 - consulté le 23-11-2015, http://www.livreshebdo.fr/article/la-nouvelle-version-de-gallica-est-en-ligne?xtmc=gallica&xtcr=1 [accès restreint]

[3] Mélanie Leroy-Terquem, "La nouvelle version vue par les gallicanautes", Le Blog de Gallica, 01-09-2015 - consulté le 23-11-2015, http://gallica.bnf.fr/blog/01102015/la-nouvelle-version-vue-par-les-gallicanautes

[4] Mélanie Leroy-Terquem, "Mise à jour du nouveau Gallica", Le Blog de Gallica, 09-09-2015 - consulté le 23-11-2015, http://gallica.bnf.fr/blog/09102015/mise-jour-du-nouveau-gallica

[5] Mélanie Leroy-Terquem, "Quoi de neuf dans Gallica ? La recherche exacte", Le Blog de Gallica, 06-09-2015 - consulté le 23-11-2015, http://gallica.bnf.fr/blog/06102015/quoi-de-neuf-dans-gallica-la-recherche-exacte

jeudi 19 novembre 2015

Un moteur de recherche alternatif, Qwant

Google reste le leader mondial des moteurs de recherche. Il comptabilise en 2015, plus de 93,5% des requêtes effectuées en France contre 2,6 % pour Yahoo ou 2,4% pour Bing. Par avance, On peut dire que le combat est peine perdu pour tenir tête à la grande entreprise californienne crée par Larry Page. Cependant à l’occasion d'une grande conférence franco-allemande sur le numérique (tenue le mardi 23 octobre 2015), la start-up française Qwant annonce qu'elle vient de recevoir un investissement de 25 millions d'euro de la part de la Banque Européenne d'Investissement (BEI) [1]. Zoom sur cette transaction. 


Qwant, c'est quoi au juste ? :  

Qwant est un moteur de recherche fondé en 2011 par deux français, Jean-Manuel & Eric Leandre. Le nom vient de deux mots : "Q" pour "Quantité" et "Want" pour la contraction de "Wanted" qui signifie "rechercher" en anglais. Ainsi, il y a dès le départ, une volonté de faciliter la recherche d'une grande quantité de données. C'est le principal objectif de ce moteur de recherche. Il est officiellement lancé en février 2013 après de longues années de recherche et de développement et présenté comme une version "Bêta" (donc toujours en test) qui comprend de nouvelles fonctionnalités [2]


Une nouvelle expérience :  

Le 18 mai 2015, le blogueur Korben poste sur son site, un article détaillant son expérience du moteur de recherche [3]. Pendant plus d'un mois, il a utilisé Qwant comme outil de recherche dans le web sans passer par Google. La conclusion de Korben est directe : "Google n'est plus, pour moi, un passage obligé sur le net". Plusieurs éléments cités dans son billet souligne ses qualités : 

  • Une interface aisée à lire et adaptée (segmentée en plusieurs colonnes)
  • La recherche au sein des réseaux sociaux (surtout avec Twitter)
  • Une séparation des annonces publicitaires dans la rubrique Shopping
  • Des résultats de recherche proche de ceux de Google donc plus pertinents

Néanmoins, Qwant reste bien moins performant que son concurrent américain mais il lui reste une carte à jouer : l'éthique. Par rapport à Google, l'accent se concentre sur le respect de la vie privée de l'utilisateur car Qwant ne collecte, ni n'exploite les données privées de l'internaute. La start-up française joue la carte de la transparence. C'est l'étendard de nombreux moteurs de recherches depuis quelques années. 


Les autres alternatives des moteurs de recherche

Depuis l'affaire Snowden en 2013, certains moteurs de recherche (alternatifs à Google) ont le vent en poupe. La découverte de l'utilisation des données des internautes par Google et ses relations avec la NSA, n'a fait que détériorer l'image de l'entreprise mais aussi profiter à des petits acteurs alternatifs comme Qwant ou la start-up américaine : DuckDuckGo. 

Nés à partir de la fin des années 2000, ses services se sont positionnés sur une niche prometteuse : le respect à la vie privée. Ce concept a séduit bon nombre d'utilisateur qui recherche un moteur de recherche efficace mais éthique [4]


Sources

[1] RICHARD (Phillipe), Qwant : une alternative européenne à GoogleLes Techniques de l'ingénieur, 4 novembre 2015. [Consultée le 18/11/2015]

[2]A propos de Qwant, Qwant.com[Consultée le 18/11/2015]

[3] KORBEN, Qwant - mon retour après 1 mois de test, Korben.info, 18 mai 2015. [Consultée le 18/11/2015]

[4] ROLLAND (Sylvain), DuckDuckGo, Qwant... Les anti-Google ont le vent en poupe, La Tribune, 28 mai 2015. [Consultée le 18/11/2015]

Protection des informations sensibles dans l'entreprise : quelles solutions ?



Le cyberespionnage économique pratiqué par les grandes nations est au coeur des préoccupations actuelles du G20 (1).

Selon  l’étude annuelle « State of Data Security Intelligence » réalisée par le Ponemon Institute (2), 44 % des entreprises auraient subi des cyberattaques ces 12 derniers mois.
Pour mémoire, souvenons-nous du vol des données personnelles des clients d'Orange et d'Ebay en 2014. Ces attaques ont des retombées négatives sur l'économie et la réputation de ces entreprises.

D'autant plus, que dans la plupart des cas, le vol de ces données aurait pu être évité. Contrairement aux idées reçues, le danger vient le plus souvent de l'intérieur même de l'entreprise.
"Pour améliorer sa sécurité informatique, il est essentiel de récupérer des preuves du piratage pour connaître les techniques employées et les faiblesses du réseau informatique"(1),.
Sécurité physique, sécurité logique, absence de chiffrement des données... l'ensemble des salariés doit être impliqué. La sécurité numérique passe par une sensibilisation et une formation de ces acteurs.

Le Mooc " Gérer les documents numériques : maîtriser les risques " (2) proposé par le CNAM-INTD, a pour objectif de répondre au besoin des entreprises en terme de gestion des risques numériques. Cette formation apporte un éclairage sur la gouvernance des systèmes d'information, le Record Management, les normes relatives aux documents informatiques, l'identification de ces documents pouvant être utilisée à des fins de preuve...

Cet exemple illustre ce qu'il est possible de réaliser pour améliorer la sécurité numérique dans les entreprises.



 Sources

(1) Christian Deprez - "Le G20 se rend compte que le cyberespionnage économique, c'est mal" - publié : le 17/11/2015 - consulté le 18/11/2015.
http://www.generation-nt.com/g20-cyberespionnage-economique-accord-actualite-1921720.htmlLe mardi 17 Novembre 2015 à 13:47 par Christian D. de mesures directes.  

(2) Philippe Richard - "Vols de données : un fléau pour les entreprises" - publié : le 05/11/2015 - consulté le 18/11/2015.
http://www.techniques-ingenieur.fr/actualite/articles/vols-de-donnees-un-fleau-pour-les-entreprises-29607/

(3) Michel Cottin - "Mooc: Gérer les documents numériques : maîtriser les risques " - consulté le 18/11/2015.
http://fod.cnam.fr/par-ecole/management-et-nbsp-nbsp-societe/mooc-gerer-les-documents-numeriques-maitriser-les-risques-743908.kjsp?RH=1299669332349

lundi 16 novembre 2015

Data Mining et Loi numérique


L'affaire Google Books : La victoire du texte Mining

Pour comprendre les enjeux autour de la fouille de données, l'affaire Google Books illustre comment le géant du Web cherchant à lancer sa vaste entreprise de numérisation du livre à mis en exergue la question du droit d'auteur dans un contexte des nouveaux usages du numérique et en particulier de la fouille de texte et de données.

Le retentissant procès de cette affaire de numérisation à grande échelle aura pour issue la décision rendue par la justice Américaine de donner raison au projet Google Books appuyant sa décision sur l'usage du FAIR USE.

Cette doctrine de l'utilisation équitable permet en effet une utilisation limitée d'oeuvre protégée sans acquérir l'autorisation des titulaires des droits.

Selon Lionel Maurel " La décision Google Books va constituer un formidable vecteur pour les pratiques d’exploration de textes. Mais ces marges de manœuvre ne seront ouvertes qu’aux Etats-Unis seulement, en creusant au passage encore plus l’écart avec l’Europe en la matière". Au delà de l'accès au contenu des livres offert à Google se pose la question des enjeux autour du Texte Mining. Pour quels usages, aux bénéfices de qui et quelles sont les règles encadrant les usages de la fouille de données ?
Selon l'analyse de l'auteur, les acquis de cette décision Google Books vont profiter par effet de ricochet à de nombreux acteurs dont les bibliothèques partenaires ayant accès à des doubles de copies numériques offrant à leur public des services de recherche et de fouille de données à partir de ces corpus. Les chercheurs se verront ouvrir des possibilités immenses dans la fouille de textes ouvrant ainsi aux chercheurs un champ immense en matière de Text Mining.
 
Fair use... So what ? 

L'analyse d'une étude réalisée et proposée par Lionel Maurel conclue que dans les pays dotés d'une exception dédiée ou d'une système équivalent au Fair Use en usage aux Etats Unis, les recherches reposant sur le Texte et Data Mining était plus importantes que dans les autres pays.

Résonant comme un constat assez tranchant sur les traditions "conservatrice" de la France en matière de droit d'auteur l'article rend au fond un verdict pessimiste sur les capacités actuelles à porter un regard clairvoyant,  appréhender la complexité, les transformations rapides et enjeux du numériques.

Comme le souligne l'article du journal Les Echos de Sébastien Lachaussée et Elisa Martin-Winkel sur la réforme du droit d'auteur pour laquelle Julia Reda (Députée Européenne) s'est vue confiée un rapport " Le droit français est ancien et l'évolution de technologies l'a sur certains points dépassés, soulevant des inadéquations entre la réalité du marché des produits culturels et les textes de loi. Le rapport Reda s'attache à modernier le droit d'auteur afin de faciliter l'exploitation et la transmission des oeuvres sur le marché numérique".

Parmi les propositions du rapport Reda figure les pratiques issues des évolutions technologiques dont le Text et Data mining  en précisant qu'il devrait être envisagée "une exception spécifique et obligatoire pour libérer la fouille de données et de texte à des fins scientifiques du champ d'application du droit d'auteur et du droit des bases de données européens.

Data Mining et la loi sur le numérique.
 
En France, les nouveaux usages du numérique suscite un grand intérêt et trouvent un aboutissement qui se concrétise sous la forme d'un processus contributif de construction d'un projet de loi "Loi sur le numérique" auquel ont participé 21330 citoyens.

Quid de l'exception pour l'extraction de textes et de données à des fins de recherche ? Il semble que la réponse ne soit à l'ordre du jour du texte final du projet loi sur le numérique et que parmi les grands absents figure l'exception au droit d'auteur pour l'analyse de texte et de données à des fins de recherche.


Sources :

 Scienfolex : Lionel MAUREL http://scinfolex.com/2015/10/21/comment-laffaire-google-books-se-termine-en-victoire-pour-le-text-mining/ (page consultée le 16-11-2015)

 Les Echos, Sébastien Lachaussée et Elisa Martin-Winkel, http://www.lesechos.fr/idees-debats/cercle/cercle-134295-la-reforme-du-droit-dauteur-1132340.php?9bx8ppmY2rYLv5Y6.99  (Page consultée le 16-11-2015)

Site république numérique, http://www.republique-numerique.fr/pages/projet-de-loi-pour-une-republique-numerique (page consultée le 16-11-2015)

Le succès passe par le réseau

Dans la nature, l'espèce qui survit c'est celle qui s'est le plus adaptée à son environnement. Dans la jungle du marché de l'emploi, seuls les plus adaptés peuvent survivre... Mais pour survivre il faut RÉSEAUTER!!!! 

Voici un petit condensé de bonnes astuces pêchées sur le web.




Pourquoi réseauter?

Qui n'a jamais postulé à une offre d'emploi qui en réalité n'était publiée que pour la forme mais qui était déjà pourvue? Fini le temps du CV et de la lettre de motivation, bonjour "cooptation" et réseaux professionnel ; aujourd'hui répondre à des offres d'emploi ne suffit plus. 
Les employeurs privilégient de plus en plus la cooptation et les réseaux professionnel : quelqu'un (un collaborateur, un organisme, etc.) qui a leur confiance leur présente ou relie un profil. Ils vont accorder une attention toute particulière à ce profil grâce à la recommandation qui leur en est faite et choisir de préférence un profil connu de leur cercle.
Les employeurs ne sont pas les seuls à privilégier la cooptation, même pour faire appel à une société de services ou pour trouver de l'aide ou une solution particulière, le monde professionnel privilégie le réseau ; c'est un peu comme du bouche à oreille.
Il faut donc retenir deux mots : contact et mise en relation.
Résumons-nous : un réseau professionnel de qualité est le passage quasi obligé pour trouver un emploi mais pour conserver son emploi et rester performant, bien s'entourer est nécessaire.



Tout est dans l'attitude

Cependant il ne suffit pas d'être convaincu de la nécessité d'avoir un réseau professionnel riche pour en obtenir un tout de suite.
Il faut en réalité développer toute une série d'attitudes relationnelles promptes à faciliter les mises en relation.
  • Rester authentique : rester soi-même est une condition sine qua non du succès, quelqu'un qui contrefait sa personnalité ou son CV est très vite écarté lorsqu’il est démasqué.
  • Être généreux : rendre service aux autres les rendra plus disposés à rendre service à leur tour
  • Privilégier les profils des personnes connues ou qui nous sont recommandées : choisir la qualité plus que la quantité
  • Visiter les profils des personnes qui visitent notre profil
  • Ne pas se contenter des réseaux virtuels et participer aux événements professionnels (préparer également sa visite et notamment penser aux personnes que l'on souhaite rencontrer)
  • Engager la discussion (en partagent par exemple ses impressions sur la conférence ou l'événement auquel nous avons participé)
  • Être à l'écoute : prendre l'avis des autres et écouter ce que l'autre a à dire font partie du respect 
  • Donner suite aux échanges et rencontres en développant les affinités (mails, sorties, etc. tous les moyens sont bons pour entretenir nos relations)
  • Toujours penser à remercier son entourage professionnel : cela montre à nos collaborateurs ou/et futurs collaborateurs que nous accordons de l'importance à ce qu'ils ont pu faire pour nous.


Pour quels gains?

Plus on crée de liens et plus les personnes sont prêtes et aptes à nous recommander. On gagne alors en temps et en efficacité mais aussi en visibilité.
Notre réseau, riche de relations de qualité nous permettra de nous démarquer des autres postulants et pourra nous fournir des informations inconnues de nos concurrents.



Le réseau c'est maintenant

Quand faut-il commencer à réseauter? Citons ici Charles Cormier, du blog convergence, qui dit tout ce qu'il faut retenir : 
« Le premier bon moment aurait été au premier jour de votre formation, même avant. Le deuxième bon moment, c’est maintenant. C’est lorsque ça va bien qu’il faut commencer à bâtir votre réseau, et non lorsque vous cherchez désespérément un emploi ou que votre contrat se termine. À ce moment-là, il est déjà trop tard. »


Alors, c'est compris? Vite, à nos réseaux!!!



Sources :

- Charles Cormier, Lancer sa carrière - Développer son réseau, billet du blog convergence, publié le 09/11/2015, dernière consultation le 16/11/2015
https://archivistesqc.wordpress.com/2015/11/09/lancer-sa-carriere-developper-son-reseau/comment-page-1/#comment-1141


- APEC, Développer et entretenir son réseau, dossier thématique 2013-2014,
dernière consultation le 16/11/2015

https://jd.apec.fr/Emploi-stage/Premier-job/Les-outils-Apec/Utiliser-son-reseau/Apec-Developper-et-entretenir-son-reseau


 - Pôle Emploi, Bâtir et développer son réseau, dossier thématique, publié le 09/03/2015, dernière consultation le 16/11/2015
http://www.pole-emploi.fr/actualites/developper-son-reseau-@/article.jspz?id=61502


 - Michel Prudhomme : Bien débuter sa carrière : savoir piloter sa vie professionnelle, La jaune et la rouge n°651, Janvier 2010, dernière consultation le 16/11/2015
http://www.lajauneetlarouge.com/article/bien-debuter-sa-carriere-2-savoir-piloter-sa-vie-professionnelle

jeudi 12 novembre 2015

Ce qui change (ou pas) dans le rapport de force quand la presse est hébergée chez les autres

Introduit en mai dernier, Instant Articles, nouvelle fonctionnalité de Facebook, est officiellement lancé depuis octobre. Grâce à elle, les utilisateurs d'un smartphone peuvent désormais consulter des articles de presse produits par les éditeurs partenaires directement dans l'application de Facebook sans la quitter pour aller les lire sur le site des éditeurs. (1)


Cet outil a été conçu pour rendre " l'expérience utilisateur " fluide, agréable et intuitive permettant aux internautes d’éviter de patienter, en moyenne 8 secondes, avant d’accéder à des pages externes des éditeurs de presse. (2)
Avant son lancement tout récent, il est déjà testé par quelques médias partenaires depuis son introduction en mai dernier. (3) Ainsi, neuf sites dans trois pays : New York Times, The Atlantic, NBC News, National Geographic et BuzzFeed aux Etats-Unis, The Guardian et BBC News en Grande Bretagne, et Der Spiegel et Bild en Allemagne, décident d’y participer dès le lancement du projet. (2) Aujourd’hui, une cinquantaine de médias américains sont partenaires. Des négociations sont en cours entre le réseau social et des éditeurs afin de conclure davantage de partenariats en Europe. (1)


La décision des éditeurs partenaires de Facebook est justifiée également par l’enjeu de la lecture optimisée sur les appareils mobiles. Aux Etats-Unis, 39 des 50 sites d’information les plus populaires constatent plus de trafic sur les supports mobiles tels que les smartphones et les tablettes que sur les ordinateurs du bureau. En effet, les ventes des quotidiens nationaux en version numérique ont augmenté constamment pendant plusieurs mois en 2014, alors que leur diffusion sur le papier baissait. Par exemple, 20% des exemplaires du Monde qui se sont vendus en 2014 étaient en version numérique. (4)


Pour Facebook, un contenu de qualité validé par des journalistes professionnels est un élément qui lui permet de se distinguer de ses concurrents au niveau des services proposés. (1)
Et, même si Facebook ne l’avoue pas ouvertement, son objectif semble être d’augmenter le temps de connexion des internautes à ses services plutôt que de les laisser partir chez les éditeurs (3). Garder les internautes à l’intérieur de ses plateformes, cela signifie que Facebook peut les exposer à des publicités ciblées pour une durée prolongée. Il est à noter que ces internautes ne sont pas n’importe quels internautes, mais des internautes sensibles au contenu d’un journalisme de qualité qui représentent une forte valeur potentielle du point de vue des marketeurs. Alors, il n’est pas difficile d’imaginer l’enjeu financier que représente Instant Articles pour le réseau social. D’autant plus que Facebook a capté à lui seul 35% de la publicité sur mobile en 2014 selon Emarketer ! (2)


Pour les éditeurs, il est indéniable que l’intérêt se trouve dans le poids des réseaux sociaux dans l’audience des médias numériques. La part d’audience du New York Times provenant de Facebook a doublé au cours des derniers mois, soit 14 à 16%. En France, pour le site d’information 20Minutes, le chiffre est estimé à 15% tandis qu’il est d’environ 10% pour le Monde dont la majorité en provenance de Facebook. (2)


A l’heure actuelle, Instant Articles est disponible uniquement sur iPhone, mais il ne tardera pas à arriver sur Android qui jouit de la bénéficie d’une plus grande part du marché en Europe.


Sources :

(1) SMYRNAIOS Nikos, Quand l’oligopole de l’internet courtise les éditeurs de presse, Ina Global, publié en ligne le 10/11/2015, consulté le 12/11/2015
http://www.inaglobal.fr/presse/article/quand-l-oligopole-de-l-internet-courtise-les-editeurs-de-presse-8641?print=1

(2) PIQUARD Alexandre, Facebook devient hébergeur d’articles de presse, Le Monde, publié le 13/05/2015, consulté le 12/11/2015
http://www.lemonde.fr/actualite-medias/article/2015/05/13/facebook-devient-hebergeur-d-articles-de-presse_4632934_3236.html


(3) JAIMES Nicolas, Instant Article de Facebook : les premiers retours des éditeurs, Journal du Net, publié et mis à jour le 29/10/2015, consulté le 12/11/2015
http://www.journaldunet.com/media/publishers/1165258-comment-les-editeurs-utilisent-l-instant-article-de-facebook/


(4) TEXIER Bruno, Le numérique, une planche de salut pour la presse ?, publié en ligne le 07/07/2015, consulté le 12/11/2015
http://www.archimag.com/veille-documentation/2015/07/07/numerique-planche-salut-presse




Le big data dans l'industrie du jeu vidéo aujourd'hui


De nos jours, avec les avancées technologiques et la connectivité des individus toujours plus systématique, les données se multiplient et tendent à être exploitées dans une démarche d'analyse de big data.
L'industrie du jeu vidéo, de par sa nature et son activité reposant sur le marché du numérique, a pleinement intégré l'exploitation des données dans son modèle économique. On voit ainsi apparaître, au même titre que les game designers ou les traditionnels développeurs, des data analysts, aussi légitimes et nécessaires que leurs confrères dans la création d'un jeu vidéo.

Le travail de data analyst :
Il traite une masse très abondante de données concernant une multitude de joueurs. Ces informations peuvent être de type comportementales accessibles grâce à l'étude du style de jeu (données objectives) ou touchant davantage à la personnalité de chacun (données plus subjectives), récoltées par le biais d'enquêtes, par exemple.
De nouveaux outils sont développés afin de rendre l'analyse toujours plus fine et optimale.

Le big data dans le jeu vidéo : pour quoi faire ?
Les éditeurs de jeux vidéo ont intérêt à exploiter les données afin d'optimiser l'expérience de jeu mais aussi de proposer à leurs clients les publicités les plus ajustées à leurs habitudes comportementales.
De nos jours, l'éditeur d'un jeu free-to-play (particulièrement sur la plateforme de l'internet mobile) aura tout intérêt à disposer d'un data analyst dans son équipe ou à en recruter un.

Données vs créativité ?
Tout dépend du type de jeu, du type d'éditeur, du modèle économique de la structure et de la politique d'exploitation des données : il n'y a pas de modèle type.
En général, les deux problématiques ne se font pas obstacle : en France, les éditeurs phares (Ubisoft, Ankama ou DR Studios) restent prudents et utilisent pour l'instant l'analyse des données comme moteur d'aide à la décision ou comme reflets comportementaux culturels. Les données complètent davantage qu'elles n'orientent pour ces types d'entreprises.

Watchdogs d'Ubisoft : le jeu vidéo qui exploite et repose sur le big data
Ce jeu est sorti en 2014 et a la particularité de mettre en abîme le joueur face à des données exploitées et visibles sur le site : "We are Data", sur lequel on peut observer l'activité de trois capitales européennes en temps réel. Au delà d'assurer une promotion certaine au jeu watchdogs, la mise en place de ce site a permis d'illustrer le concept de "villes intelligentes".
Cet exemple démontre une volonté de la part d'Ubisoft d'innover dans le sens de la création, les données sont, dans cet exemple, au service d'un gameplay innovant et dans l'ère du temps.


Sources :

 GAUBE Emeline : "Le jeu vidéo, secteur en pointe dans le big data" [en ligne] publié le 30.10.2015
[consulté le 12.11.2015]
http://www.inaglobal.fr/jeu-video/article/le-jeu-video-secteur-en-pointe-dans-le-big-data-8618

FORSANS Emmanuel : "Royal Cactus révolutionne l'expérience de jeu grâce au big data" [en ligne] publié le 03.06.2015 [consulté le 12.11.2015]
http://www.afjv.com/news/5167_royalcactus-deploie-ses-outils-d-analyse-de-big-data.htm

MASSIOT Aude : "We are Data" : le nouveau Big Brother ?" [en ligne] publié le 03.07.2013 [consulté le 12.11.2015]
http://www.20minutes.fr/high-tech/1184013-20130703-20130703-we-are-data-nouveau-big-brother

lundi 9 novembre 2015

La guerre de l'Open Access aura bien lieu...


Au lendemain des 6ème journées Open Access organisées par le consortium Couperin et deux ans après la précédente édition de ces Journées, où en est-on concrètement dans le processus d'Open Access ?


C'est la question que l'on peut se poser en comparant la teneur du discours fait par Mme Fioraso lors de la précédente édition avec les pratiques constatées.

Dans cette allocution [1], Mme Geneviève Fioraso, alors Ministre de l'enseignement supérieur et de la recherche, s'était exprimée sur la position de la France sur le sujet de l'Open Access. Elle rappelait les forts enjeux économiques et sociétaux que représentent la diffusion et la publication la plus large possible des résultats de la recherche - qui sont présentés comme étant par essence un bien commun.

Elle réaffirmait ainsi la volonté de la France de s'engager résolument dans la voie de l'Open Access, présentant les actions déjà menées (Persée, Hal, etc.) et les actions à venir : continuer à développer le Green Open Access (voie verte), qui consiste à déposer gratuitement un article dans un réservoir d'archives ouvertes, et s'attacher à promouvoir le Gold Open Access (voie dorée), principe qui fait payer l'auteur, ou son institution, et permet la gratuité au lecteur.

Or, tout ne semble pas aller de soi...

En effet, les chercheurs, pour faire avancer leur carrière, doivent absolument publier et autant que possible chez les grands éditeurs scientifiques reconnus - tels qu' Elsevier, ou Springer - qui sont une poignée seulement à se partager le marché de l'édition scientifique. Logiquement, ce phénomène d'absolue nécessité pour les chercheurs de publier dans leurs revues pour exister entretient le système...

Au-delà de la rédaction des articles dans lesquels ils présentent leurs travaux, les chercheurs siègent dans les comités éditoriaux de ces revues et corrigent aussi les articles (dans les revues à comité de lecture, ceux-ci doivent être validé par les pairs). Certains en viennent ainsi à se demander si les éditeurs ont encore une valeur ajoutée légitime, ce qui donne lieu à quelques coups d'éclats [3]. Ainsi au mois d'octobre dernier, toute l'équipe d'éditeurs et de rédacteurs de la revue Lingua ont annoncé démissionner de la revue, actuellement publiée par Elsevier, pour créer une nouvelle revue qui sera cette fois en Open Access.

L'arrivée des nouvelles technologies numériques vient encore complexifier la donne car elles permettent aujourd'hui aux acteurs scientifiques d'avoir potentiellement les moyens de diffuser eux-mêmes les résultats de leur travaux. Ainsi on voit aussi ponctuellement des chercheurs publier sur des plateformes pirates, sur lesquels des articles sous droit sont rendus disponibles gratuitement [3].

Pour les services de documentation scientifiques et universitaires, qui voient les prix de la documentation diffusée par ces quelques grands éditeurs historiques - dont leurs établissements de rattachement ne pourraient se passer - augmenter de façon exponentielle ces dernières années, ce phénomène a conduit au regroupement de grands centres de documentationau sein de consortium d'achat tel le consortium Couperin, organisateur de ces journées de l'Open Access [2], qui leur permettent d’espérer peser collectivement dans la balance des négociations.
Ainsi, on constate que si les déclarations d'intention sont là, les résultats ne semblent pas à la hauteur de ce qui était annoncé, ceci même lorsqu'ils pourraient l'être facilement. Ainsi Olivier Ertzscheid, enseignant-chercheur en Sciences de l'information et de la communication, dans son blog Affordance.info s'insurge (très) violemment contre les pratiques (ou plutôt contre les non-pratiques) d'Open Access des présidents d'université qui ont pourtant toute latitude et opportunités techniques (plateforme de stockage à disposition, et autorité pour imposer les mandats de dépôt) pour valoriser l'Open Access dans leurs établissements...

Le rideau n'est pas encore tombé sur la fin de la pièce de l'Open Access.
Les acteurs s'enflamment. La guerre de l'Open Access aura donc bien lieu !


Sources

[1] Site du Consortium Couperin, Programme des 6es journées de l'Open Access, du 12 au 14 octobre 2015,[Consulté le 09/11/2015].

[2] Site du Ministère de l'Enseignemet supérieur et de la Recherche, discours de Mme Geneviève Fioraso, le 24/012/2013, grand amphithéâtre du Cnam [Consulté le 09/11/2015].

[3] Oury, Antoine, Open Access : les scientifiques poursuivent le boycott contre Elsevier, Site ActuaLitté,  05.11.2015 [Consulté le 09/11/2015]. 
https://www.actualitte.com/article/monde-edition/open-access-les-scientifiques-poursuivent-le-boycott-contre-elsevier/61934





Le Numérique élèvera t'il la Démocratie?


La consultation publique menée auprès des internautes dans le cadre de l'élaboration de la loi Numérique s'est déroulée entre le 26 septembre et le 17 octobre dernier.  L'exercice, bien qu'inédit, était approprié de par la technicité de la matière. L'implication de professionnels et d'utilisateurs du web pouvait mettre à jour des problématiques que n'auraient pas relevé commissions et parlementaires et enrichir les débats sur des espaces qui concernent de prime abord le citoyen numérique. La secrétaire d'Etat chargée du Numérique qui soutenait le projet se dit pleinement satisfaite des contributions citoyennes, dénombrant que « Le 26 septembre, au début de la consultation, le texte comptait 30 articles. Depuis 11 autres ont été apportés au texte, dont 5 directement issus des participations sur la plateforme et 70 modifications d’articles ont été retenues » (1).  Le 6 novembre dernier, Axelle Lemaire a rendu public sur ce site le projet de loi constitué à partir de la discussion. Voici les propositions retenues sur les grands axes développés.


Ouverture des données publiques

L'avant-projet de loi comportait un large volet (articles 1 à 7) sur l'ouverture des données publiques, preuve d'un engagement vers l'Open Data déjà consacrée dans la pratique. La version retenue comporte un nouvel article qui crée une obligation de transparence sur les algorithmes publics. Obligation serait également faite aux administrations de définir "les règles définissant le traitement algorithmique ainsi que les principales caractéristiques de sa mise en œuvre" si une personne en fait la demande (1). Il est également prévu une augmentation des pouvoirs de la Commission d'accès aux documents administratif (CADA) avec la possibilité pour l'organisme, lorsqu'il a émis un avis favorable sur l'ouverture d'accès à un document public, de peser de manière plus forte sur l'administration en question. Un rapprochement institutionnel a été prévu à cet effet avec la CNIL.

Publication en Open Access des travaux scientifiques

Avant le projet de la loi, la France adoptait une durée maximale pour la publication en Open Acess des travaux de recherche ne pouvant pas excéder 12 mois pour les STM et 24 mois pour les SHS. Le projet de loi dans sa version finale s'aligne sur la recommandation de l'Union européenne qui préconisait que "les articles de recherche financés par moitié par l'argent public" devaient suivre un embargo de 6 mois pour les STM et 12 mois pour les SHS ( 2 ). La problématique dans le secteur est que la publicité des travaux ne vienne pas contrecarrer le profit de l'éditeur sur les abonnements. Les sciences humaines et sociales constituant une information exploitable sur le long terme, la priorité donnée aux éditeurs sur une courte durée est de fait peu utile. Les SHS conservent donc une durée supérieure, mais le suivi de la position européenne et les intérêts des défenseurs du libre accès aux travaux de la recherche ont pesé sur les intérêts des éditeurs. Le projet de loi inclut de plus les données de la recherche dans ce périmètre et précise qu'il s'applique à la version finale du manuscrit acceptée pour publication.

La suppression d'un droit aux communs

L'intégration d'une protection légale du domaine commun informationnel dans le brouillon du projet de loi avait de quoi susciter des controverses. Il s'agissait notamment de prévenir l'appropriation d'oeuvres du domaine public et plus largement de sécuriser la protection de données et oeuvres n'étant a priori attachés à aucun droit de propriété intellectuelle. Cette reconnaissance ne pouvait cependant qu'alerter les ayant-droit, qui avaient déjà constitué une défense prolixe sur d'autres projets de loi liant numérique et droit d'auteur.  Afin de faire pencher la balance dès la consultation, plusieurs associations  parmi lesquelles la quadrature du Net et le Consortium Couperin s'étaient regroupées pour publiciser leurs contributions en faveur de la reconnaissance légale des biens communs informationnels (3). De leur coté, les industries culturelles et ayant-droit épaulées par le Conseil Supérieur de la Propriété Littéraire et Artistique se sont déclarés en défaveur d'un article qui mettait en danger la supériorité du droit d'auteur.
C'est finalement le droit d'auteur qui a primé et a causé la suppression de l'article 8 (4).

"C'est un exercice de démocratie ouverte, et non un plébiscite" (1) précise Axelle Lemaire au sujet de la consultation. On l'aura compris : Les propositions sélectionnées ne sont pas toujours les plus populaires. L'idée de démocratie directe s'est quelque peu éclipsée de par l'intervention des différents acteurs professionnels et des lobbyistes industriels, particulièrement présents sur les derniers jours de la consultation (5). Cet exercice demeure un levier communicationnel efficace pour le Ministère à l'heure où un projet élaboré en vase clos, la création de la commission Hadopi voit sa remise en question publique dans un rapport visant l'utilité des autorité administratives indépendantes (6). Le projet de loi sur le numérique constitué, il devra être vu par le Conseil d'Etat et le Conseil des Ministres, passages obligés avant sa présentation à l'Assemblée Nationale au début de l'année 2016. Le chemin est donc encore long...



Sources

(1) Loi numérique : Axelle Lemaire présente la version finale du texte, Louis Adam. Article mis à jour le 6 novembre 2015, consulté le 9 novembre 2015
http://www.zdnet.fr/actualites/loi-numerique-axelle-lemaire-presente-la-version-finale-du-texte-39827800.htm#xtor=123456

(2) Projet de loi sur le numérique : vers un libre accès sans commun. Pierre-Carl Langlais. Article mis jour le 6 novembre 2015, consulté le 9 novembre 2015
http://scoms.hypotheses.org/545

(3) Communiqué du 16 octobre 2015 publié sur okfn.org.
http://fr.okfn.org/2015/10/16/projet-de-loi-numerique-soutenons-les-biens-communs/

(4) Domaine commun informationnel : les ayant-droit marquent des points à Matignon. Publié le 5 novembre 2015. Consulté le 9 novembre 2015.
 http://www.nextinpact.com/news/97205-domaine-commun-informationnel-ayants-droit-marquent-points-a-matignon.htm

(5) Loi numérique : Le dernier jour, le dernier sursaut des lobbys, Andrea Fradin. Publié le 18/10/2015. Consulté le 09/11/2015.


(6) Hadopi : Un rapport du Sénat préconise la dissolution. Publié le 06/11/2015. Consulté le 09/11/2015.
http://www.lesnumeriques.com/vie-du-net/hadopi-rapport-senat-preconise-dissolution-n46947.html