lundi 12 décembre 2016

Tous surveillés ?


Réseaux sociaux, webmails gratuits, sites web, objets connectés, partout nous laissons des traces, qui sont enregistrées, analysées, compilées par des entreprises. Officiellement ces entreprises travaillent à améliorer notre qualité de vie. Mais qu'en est-il réellement? 

D'énormes quantités d'informations sur notre vie privée sont récoltées par les entreprises. Notre utilisation d'internet permet à de multiples sociétés de collecter des données sur nous à travers chaque recherche que nous effectuons et chaque site que nous visitons. Si nombre d'entre nous estiment que cette récolte est sans importance car ils n'ont rien à cacher, il en demeure pas moins que ces informations croisées avec celles de millions d'autres profils acquièrent une vraie valeur ajoutée. 

Aussi lorsque les assureurs s'associent à des fabricants d'objets connectés, est-ce-que ces données personnelles collectées restent réellement sans importance? 
Comment peut-on s'assurer que ces quantités de données compilées ne seront pas revendues sachant l'énorme valeur qu'elles ont ? Sous couvert de se préoccuper du bien être des gens et également de mieux gérer les coûts pour ces sociétés d'assurances, cette collaboration pose la problématique plus vaste de la réutilisation des informations collectées et du degré de contrôle de l'utilisateur sur l'exploitation de ses données. Est-ce-que sous prétexte de proposer des services plus personnalisés ces entreprises ne surveillent-elles pas simplement leurs clients ? 

Philippe Richard, présente dans son article "Le monde sous surveillance" l'ouvrage de Tristan Nitot, qui évoque cette problématique de la surveillance. Article et ouvrage alertent sur ce phénomène de surveillance plus ou moins volontaire qui s'installe. Il évoque la surveillance pratiquée par les grandes entreprises dont les objectifs sont avant tout économiques mais il aborde aussi la surveillance mise en place autour des citoyens afin de les protéger des risques terroristes. 

La loi renseignement, publiée au Journal officiel en juillet 2015, autorise des procédés d'espionnage, jusqu'ici très encadrés et utilisés que dans des cas particuliers, à être étendus à l'ensemble des citoyens. Notamment avec l'installation de "boites noires" installées sur les équipements des opérateurs numériques, celles-ci sont sensées sonder les informations partagées par les internautes, à l'aide d'algorithmes afin de cibler les profils atypiques et potentiellement dangereux. Mais comme le souligne Fabien Soyez "le procédé utilisé pour faire fonctionner l’édifice nécessitera obligatoirement de surveiller des millions d’internautes." 

Bien que des lois encadrent la gestion des bases de données et plus particulièrement celles contenant des données à caractère personnel, voire "sensibles", bien que les entreprises soient dans l'obligation d'informer les utilisateurs de l'exploitation qui est faite de leur données, n'est ce pas un système de surveillance qui se met lentement en place ? 

Heureusement des parades existes mais encore, faut-il être un utilisateur averti pour savoir les mettre en place. L'ouvrage présenté par l'article de Philippe Richard, se propose de donner quelques clés de compréhension. 


Sources :

Philippe Richard, Le monde sous surveillance, article du  9.16.12 [consulté le 12.12.16]

Fabien Soyez, Loi renseignement, des algorithmes de surveillance massive, article du 21.06.15 [consulté le 12.12.16].

Philippe Richard, Assurance et objets connectés; surveillance ou assistance? article du 2.05.16 [consulté le 12.12.16].

Description de la Loi renseignement sur le site vie publique article du 1.12.15 [consulté le 12.12.16].

Zone Téléchargement est mort

Le site de téléchargement le plus important en France, Zone Téléchargement, a été fermé suite à une opération d'envergure réalisée par la gendarmerie nationale. Cette opération est l'aboutissement d'une longue enquête, initiée par une plainte de la SACEM, déposée en 2014.

État des lieux
Le 28 novembre 2016, la fermeture de Zone Téléchargement est annoncée. Il s'agit du plus grand site français de téléchargement de films, séries, musiques, et jeux vidéos. Ce site était le 10e site le plus visité en France, il contenait plus de 2 millions de liens de téléchargement.

L'histoire commence à la Société des auteurs, compositeurs et éditeurs de musique (SACEM), qui porte plainte en 2014 contre Zone Téléchargement. Puis l'Association de lutte contre la piraterie audiovisuelle (ALPA) se joint à cette plainte.
C'est alors qu'une longue enquête est mise en place par le Centre de lutte contre les criminalités numériques de la Gendarmerie nationale. L'enquête se conclut par la saisie des serveurs du site situés en Allemagne et en Islande et l'interpellation des deux administrateurs de la plateforme. (1)

Au lendemain de cette interpellation, David El Sayegh, secrétaire général à la SACEM, explique au journal Le Monde sa satisfaction, lors d'un interview mené par la journaliste Morgane Tual. Il parle alors d'un préjudice de plus de 75 millions d'euros de droits d'auteurs, il dénonce les encarts publicitaires du site à caractère phonographique et il conclu en disant «il n’y a plus d’impunité pour les pirates». (2)

Une autre vision
Olivier Ertzscheid, maître de conférences en Sciences de l'Information, offre une analyse toute autre de la situation sur son blog Affordance.info.
Il défend dans son billet intitulé "Zone Téléchargement" que
"Le web n'a jamais tué quelque industrie que ce soit. Et surtout pas ces "industries culturelles". Le web ne tuera pas la culture. Ni la musique. Ni le cinéma. Ni la littérature. Ni les libraires. Ni les 2BE3. Par contre le web a tué le temps." (3)

De plus, il fait un parallèle avec Google qui est, comme Zone Téléchargement, ou autre site de téléchargement, un annuaire de liens, le plus important au monde et qui comporterait également des contenus illégaux.

Mais encore, il fait référence à un autre de ces billets écrit lors de la fermeture du site de téléchargement Redlist, 3 ans plutôt, où il mettait en lumière les arguments des usagers de sites de téléchargement et les bénéfices de ce genre de site. En effet, après son analyse et sa synthèse réalisées sur plus de 800 commentaires d'usagers, il dégage des tendances fortes comme, par exemple :

  • une culture trop chère,
  • le téléchargement comme preuve de désir de consommation car l'offre crée la demande,
  • l'appartenance des usagers à une communauté,
  • la valeur ajoutée des méta données sociales générées par les usagers,
  • la diversité éditoriale par un accès à toute sorte de films même anciens ou de musiques du temps des vinyles,
  • le professionnalisme de ces sites biens construits avec moteur de recherche, listes et indexations, commentaires utilisateurs,...(4)

Dans la même actualité, il semblerait que le site français de téléchargement Cpasbien soit également sur la sellette. Il serait redirigé vers Torrent9, un autre site de téléchargement. Ainsi, la journaliste Elodie dans son article du 7 décembre 2016 intitulé "Après Zone Téléchargement, au tour de Cpasbien de tomber ?" paru dans le journal du Geek (5), s’interroge: «Le Roi est mort, vive le Roi ?».

Sources
(1) Morgane Tual, « Zone Téléchargement : sept questions pour comprendre sa fermeture mouvementée », Le Monde. Publié le 29/11/2016 [En ligne] [Consulté le 12/12/2016] http://www.lemonde.fr/pixels/article/2016/11/29/zone-telechargement-sept-questions-pour-comprendre-la-fermeture-du-site_5040199_4408996.html

(2) Morgane Tual, «Zone Téléchargement: pour la Sacem, «il n’y a plus d’impunité pour les pirates»», Le Monde. Publié le 29/11/2016 [En ligne] [Consulté le 12/12/2016] http://www.lemonde.fr/pixels/article/2016/11/29/zone-telechargement-pour-la-sacem-il-n-y-a-plus-d-impunite-pour-les-pirates_5040509_4408996.html

(3) Ertzscheid Olivier, « Zone-téléchargement », Affordance.info, ISSN 2260-1856. Publié le 29/11/2016 [En ligne] [Consulté le 12/12/2016] http://affordance.typepad.com//mon_weblog/2016/11/zone-telechargement-.html

(4) Ertzscheid Olivier, « Chers nayantsdroits, les meilleures choses n'ont pas de fin», Affordance.info, ISSN 2260-1856. Publié le 05/06/2013 [En ligne] [Consulté le 12/12/2016] http://affordance.typepad.com/mon_weblog/2013/06/chers-nayantsdroits-les-meilleures-choses-nont-pas-de-fin.html

(5) Elodie, «Après Zone Téléchargement, au tour de Cpasbien de tomber ?», Le Journal du Geek. Publié le 7/12/2016 [En ligne] [Consulté le 12/12/2016] http://www.journaldugeek.com/2016/12/07/cpasbien-fermeture/

jeudi 8 décembre 2016

La sécurité des données un enjeu capital à l'ère de l'avènement des usines 4.0 !

A l'heure où les chaînes de production des sociétés sont de plus en plus connectées, le risque de piratage s’accroît et la protection des données se révèle de plus en plus nécessaire.


Au sein des usines, les machines (robots)[1] sont connectées à des réseaux et elles mêmes reliées par des ordinateurs connectés également en réseaux. Ces ordinateurs bien souvent sont connectés à un intranet ou internet. Les robots des chaînes de production échangent des données sensibles comme le plan de maintenance, la quantité d'utilisation de matières premières, ou la productivité. Ces données sont cruciales pour l'élaboration d'un produit et révèlent le savoir faire d'une entreprise. Elles reposent sur des capteurs, du Big data, des automates ou du Cloud Computing. 

Les risques d'infiltrations ou d'espionnages[2] sont multiples. Les périphériques extérieurs comme les clés USB et les consoles de maintenance peuvent être des vecteurs de propagation d'un virus ou d'un code malveillant, de même que l'ouverture d'un PDF ou d'un e-mail. L'interconnexion à de nombreux réseaux locaux ou internet multiplie les portes d'entrée des hackers. Les menaces sont la divulgation des données sensibles à titre d'espionnage industriel. Un code malveillant pourrait faire élaborer par les robots des produits défectueux ou blesser un salarié. De même, à l'inverse, un salarié mécontent par esprit de vengeance ferait arrêter la chaîne de production.

Quelles solutions envisagées?

En 2012 l'équipe d'Invisible Things Lab a élaboré un OS très sécurisé : Qubes[3]. La sécurité de son système vient du fait qu'il repose sur la virtualisation des applications qui sont isolées les unes des autres. Ainsi si un PDF contenant un code malveillant s'ouvre celui ci n'atteint que la machine virtuelle et non l'ordinateur physique. Bien que très sécuritaire et inventif que soit le système, les pirates pourraient agir aux travers des liens entre les applications virtuelles.
La solution ne viendrait-elle pasd'un ordinateur non connecté ?[4]. Des scientifiques de l'Université Ben Gourion en Israel ont démontré qu'il était possible de pirater un ordinateur non connecté. Ils ont utilisé plusieurs méthodes. La première consiste à créer un code malveillant capable d'exploiter les bruits des ventilateurs. Il est également possible d'exfiltrer des données en récupérant les ondes électromagnétiques émises par la carte graphique. En s'appuyant sur des émetteurs-recepteurs spéciaux intégrés au sein des cartes logiques ou des cables USB, la NSA pouvait extraire des données à une distance de 12 km.


Actuellement, il parait difficile de trouver une solution complètement sécuritaire. La sécurité des données doit être une démarche globale qui inclue aussi bien le parc informatique lui même, que la protection du site de production ou encore le choix du système d'exploitation des PC ou l'hébergeur du serveur. Les technologies futures seront peut-être en mesure d'y répondre plus favorablement.



Sources :

[1] Richard Philippe.L'usine 4.0 c'est quoi ?. 26/10/2016. [consulté le 8/12/2016]
http://www.techniques-ingenieur.fr/actualite/articles/lusine-4-0-cest-quoi-37271/#pub
[2]Richard Philippe.Piratage les vulnérabilités de l'usine 4.0. 26/10/2016. [consulté le 8/12/2016].
http://www.techniques-ingenieur.fr/actualite/articles/piratage-les-vulnerabilites-de-lusine-4-0-37373/#pub
[3] Richard Philippe. Qubes, le système d'exploitation très sécurisé. 16/11/2016. [consulté le 8/12/2016].
http://www.techniques-ingenieur.fr/actualite/articles/qubes-le-systeme-dexploitation-tres-securise-37880/#pub
[4]Richard Philippe.Comment un PC non connecté peut-il être piraté ? 18/11/2016. [consulté le 8/12/2016].
http://www.techniques-ingenieur.fr/actualite/articles/comment-pc-non-connecte-pirate-38024/#pub

Scribing ou la facilitation graphique


Qu'est-ce que la facilitation graphique ?
La facilitation graphique (1) - traduction française de « scribing » ou « graphic recording » - est la modélisation de manière visuelle en temps réel d’une discussion de groupe. 

Le facilitateur est la personne qui va être chargée de cette modélisation. Elle est chargée de synthétiser par des techniques et des savoir-faire graphiques les échanges d’une discussion ou les dires d’une présentation. 

Dans le cadre d’un débat ou d’un brainstorming, les participants échangent leurs idées et voient celles-ci être collectées, structurées et modélisées sous leurs yeux par un « scriber ». Cette visualisation accompagne le processus de collaboration et stimule les échanges.

Le facilitateur graphique est chargé de cartographier les informations essentielles des intervenants à l’aide de dessins, d’images, de schémas et d’illustrations simplifiées pour créer un langage et une perception commune d'un sujet. Son travail est autant une aide à la prise à la décision, qu’un travail de synthèse dans le cadre d’une présentation.

 Exemple de facilitation graphique d'Alexia Leibbrandt 
sur la Data Visualization pour la cérémonie de remise 
du livre blanc "Dataviz" réalisé pour SAS et l’EBG en 2013 (1)

Les effets et intérêts de la facilitation graphique (3) :
  • Les intervenants voient leur débat se synthétiser et évoluer en temps réel.
  • Les participants sont engagés dans la discussion. Ils peuvent observer la capture de leur contribution et comment elle s’intègre à l’ensemble de la discussion.
  • Si un participant perd le fil de la discussion, il peut le retrouver facilement en jetant un oeil sur le graphe.
  • L'intelligence visuelle est plus sollicitée chez les participants et les points clés mieux mémorisés.
  • Les points clés de la discussion sont illustrés et il est aisé de voir le déroulement de la discussion ; de voir comment les participants ont évolué des sujets abordés en début de discussion aux sujets abordés en fin de discussion.
  • Le graphisme est un support efficace pour reparcourir la discussion pour une personne qui n'a pas assisté à l'échange.

Les compétences du facilitateur graphique :
  • Le facilitateur graphique aura besoin d'une concentration profonde et d'une grande attention.
  • Il a également besoin d'avoir une grande écoute pour déduire des aspects qui ne sont pas explicités.
  • Un bon esprit de synthèse est nécessaire...
  • ... ainsi qu'un vocabulaire graphique riche et une grammaire visuelle efficace.

Explication de la facilitation graphique en une minute (4)



Pour aller plus loin ...

L' association - Facilitation graphique, communauté de patriciens - souhaite favoriser l’émergence et la reconnaissance du métier de la facilitation graphique dans les pays francophones et ailleurs. Il rassemble des ressources et propose des formations de facilitateurs graphiques.

Axelmage est un réseau de facilitateurs graphiques et propose leur services aux entreprises. Leur site propose un blog autour de la facilitation graphique.

Quelques blogs de facilitateurs graphiques : Alexia Leibbrandt - Anne Bernardi - Romain Couturier


Sources :

(1) Facilitation graphique, Simplixi, [en ligne], consulté le 08 décembre 2016, http://www.simplixi.fr/facilitation-graphique-scribing/ 

(2) Livre blanc datavisualisation : tout en images, Jérôme Delacroix, Smartwords [en ligne], le 10 juillet 2013 [consulté le 08 décembre 2016], http://smartwords.eu/livre-blanc-datavisualisation-tout-en-images/

(3) Le Scribing, L'association FGcp [en ligne], consulté le 08 décembre 2016, http://www.fgcp.net/techniques-et-medias/le-scribing/

(4) La facilitation graphique en une minute, Pierre Mongin, Mind mapping pour tous [en ligne], le 21 septembre 2011 [consulté le 08 décembre 2016],http://www.mindmanagement.org/la-facilitation-graphique-en-une-minute-video



mardi 6 décembre 2016

L'Open Data des gouvernements à l'honneur à Paris

Le Partenariat pour un Gouvernement Ouvert - ou OGP, Open Government Partenership - se tiendra du 07 au 09 décembre à Paris. 
La France accueille et co-préside le 4ème opus de ce sommet mondial qui rassemblera 70 Etats, de tous les continents, et des centaines d’organisations de la société civile autour d'une volonté commune : " prendre des engagements en faveur de la transparence, de l'Open Data et de l'implication des citoyens dans les politiques publiques" (1).
Fort de ces ambitions, cet événement est avant tout l'occasion d'un partage d'expériences et d'innovations entre gouvernements et membres de la société civile. 

Les pays adhérents à l'OGP se sont engagés à respecter les principes de la Déclaration du gouvernement ouvert, dont les thématiques essentielles relèvent de la transparence de l'action publique, via l'ouverture des données publiques, la participations des citoyens à l'élaboration des politiques publiques, l'intégrité de l'action publique et des agents publics, l'utilisation des nouvelles technologies pour permettre l'ouverture.

Un programme dense est proposé sur plusieurs sites pour permettre la visibilité de nombreuses initiatives et les possibilités d'échanges lors de conférences, animations, tables rondes. 
Par exemple, un événement sera consacré à la diffusion des créations et innovations réalisées par les agents publics autour de la culture des connaissances, de procédés et de méthodes pour favoriser le partage, la mutualisation à l'aide d'outils (2). 
On peut également retenir l'intervention de Cap collectif, qui a fourni l'outil de consultation sur la loi sur la République Numérique et animera une conférence sur l'expertise française en matière de co-construction des lois (3). 

Réalisation majeure qui sera lancée à l'issue du sommet : la Toolbox du gouvernement ouvert (4). Cet outil sera accessible à tous et rassemblera un panel mondial des outils numériques qui servent à exercer un contrôle citoyen et participer au débat public. Un grand nombre de logiciels y seront référencés tels que des portails d’open data, des plateformes de consultation, des outils de suivi et d’élaboration collaborative de la loi, etc.

Pour la conception de cette ToolBox, un hackathon international sera lancé mercredi 7 décembre au Palais de l'Elysée. Les participants travailleront à améliorer les logiciels et services numériques en veillant à intégrer de nouvelles fonctionnalités, gérer l’interopérabilité, et proposer une traduction dans d'autres langues.
Lors de cet événement, les efforts des initiatives telles que le wiki de Nuit debout ou le Civic Graph de Microsoft seront mutualisés.

Pour suivre les temps forts du sommet en direct :


  • Plénière d’ouverture le 7 décembre à 14h30
  • Environ 20 conférences les 8 et 9 décembre de 9h à 19h
  • Pitchs et regards croisés lors de la Nuit de la démocratie le 8 décembre de 20h à 00h


Sources :

(1) La France préside le sommet de la transparence et de l'Open Data à Paris, Alexis Orisini, Numérama [en ligne], le 02 décembre 2016 [consulté le 06 décembre 2016] http://www.numerama.com/politique/213858-la-france-preside-le-sommet-de-lopen-data-et-de-la-transparence-a-paris.html

(2) Diffusion et partage des innovations métiers des agents publics, OGP Summit [en ligne], [consulté le 06 décembre 2016] https://fr.ogpsummit.org/osem/conference/ogp-summit/program/proposal/721

(3) Co-constuire les lois : un défi immense à la portée de tous ?, OGP Summit [en ligne], [consulté le 06 décembre 2016] https://fr.ogpsummit.org/osem/conference/ogp-summit/program/proposal/125

(4) La Toolbox du gouvernement ouvert, OGP Summit [en ligne], [consulté le 06 décembre 2016] https://fr.ogpsummit.org/the-open-government-toolbox/


lundi 5 décembre 2016

La difficile adoption de l'IA

Alors que l'on vit dans une époque où l'on est assisté par la technologie (Siri, Google Assistant, Cortana), où, en conséquence, nous produisons une importante masse de données exploitables par des sciences comme la biométrie; l'intelligence artificielle peine à être adoptée par l'homme. C'est ce que la multitude d'articles qui paraissent sur le sujet laissent à entendre.

Certains journalistes (1) tentent d'analyser cette techno-phobie en listant les facteurs qui entravent le développement - aujourd'hui - possible de l'IA. Parmi ces facteurs, on parle : 
  • d'une pénurie de cerveaux dans la communauté de chercheurs spécialisés dans le domaine,
  • d'un usage peu fonctionnel et utile de cette technologie, la reléguant au rang de gadget,
  • d'une réticence au changement, entre peur et fascination. 
Il semblerait que la dernière de ces trois raisons soit la plus pertinente (2), comme en témoignent les fictions d'anticipation qui traitent de ce sujet (Cf. les films Her et I Robot notamment), ou l'actuelle prolifération d'articles de la presse scientifique et généraliste qui parviennent avec difficulté à analyser rationnellement cette technologie sans approximations ou fantasmes.   

Cette anxiété lisible dans la presse se ressent dans l'opinion publique puisque 50% de la population française considère l'IA comme une menace. Cette anxiété trouverait son origine dans le cinéma de science-fiction hollywoodien, le repli sur soi culturel et religieux, les craintes sociales face à une IA qui va supprimer le travail et l’emploi. 

Mais surtout cette peur a été accentuée par la publication, le 28 juillet 2015, d'une lettre ouverte sur le site du FHI (Future of Humanity Institut de l'Université d'Oxford) qui met en garde contre l’utilisation de l’IA dans le domaine militaire. Cette pétition a été signée par de nombreuses personnalités scientifiques dont Elon Musk et le physicien Stephen Hawking. Elle marquerait une séparation nette entre les partisans d'une IA réglementée et ceux d'un libre développement de l’IA, les transhumanistes américains, dont les GAFA.

Thierry Berthier, l'auteur de l'article "Une dérive malveillante de l’intelligence artificielle est-elle possible?" se demande dans quelle mesure l'IA peut représenter un danger. Avec une équipe de chercheurs, il a élaboré des scénarios d'utilisation problématique de l'IA dans une situation de crise militaire. Ses hypothèses sur la question le mènent à la conclusion suivante : 
"Nous sommes convaincus que le risque (et le danger) de dérive malveillante s’incarne dans des séquences de mécanismes relevant de l’intelligence artificielle, de systèmes d’apprentissage qui, associés ou mis bout à bout, deviennent potentiellement dangereux sans que chacun de ces mécanismes pris individuellement le soit. Le risque naît ainsi de l’association de ces mécanismes humains ou numériques et peut effectivement conduire à l’établissement d’un contexte de crise. La complexité croissante des systèmes experts, des plate-formes d’aide à la décision s’appuyant sur des processus d’apprentissage rend aujourd’hui possible des «mises en résonance» conduisant potentiellement à des situations critiques. Il s’agit alors bien d’une forme faible de l’alerte lancée par Hawking et Musk…"

Sources :  

(1) "3 facteurs qui freinent la démocratisation de l’intelligence artificielle" publié sur le FrenchWeb.fr, le 05/12/2016, par Thomas Sabatier, http://www.frenchweb.fr/3-facteurs-qui-freinent-la-democratisation-de-lintelligence-artificielle/268495
(2) "Une dérive malveillante de l’intelligence artificielle est-elle possible?" publié sur slate.fr, le 02/12/2016, par Thierry Berthier, http://www.slate.fr/story/130235/derive-malveillante-intelligence-artificielle-possible


Intelligence artificielle : vers une vision positive

Dans Intelligence artificielle : ce qu'Alice et Bob ne nous ont pas dit, Guillaume Degroisse propose une analyse drôle et positive de l'Intelligence artificielle [1]. 


Qui sont Alice et Bob ? 
Alice et Bob sont deux Intelligences Artificielles crées par l'équipe de recherche de Google Brain. Elles avaient pour objectif de communiquer entre elles via leur propre algorithme, sans que la troisième, prénommée Eve, ne puisse déchiffrer le message. L'expérience a été un succès puisque Eve ne parvenait plus à déchiffrer la conversation au bout de 15 messages. Une avancée certaine pour l’entreprise Google qui cherche à sécuriser ses communications [2]. 

L'Intelligence artificielle en 2016
L'Intelligence Artificielle est sans aucun doute un des domaines d'innovation les plus convoités en 2016. Que ce soit par le nombre de startups spécialisées ou les sommes investies dans la recherche, nul doute que le secteur d'activité a pris une ampleur considérable cette année. Toutes les plus grandes entreprises -essentiellement californiennes- de Facebook à Uber en passant par Apple, axent leur recherche et développement sur ce domaine. Google s'engage également dans la brèche avec un laboratoire dédié, le Google Brain [3]. Grâce à Alice et Bob, l'entreprise a remporté son premier succès dans la course à l'Intelligence Artificielle. 

Alice et Bob : des cousins éloignés de Terminator ? 
Avec un parallèle à Terminator, l'auteur revient sur la peur que nous avons tous face à l'Intelligence Artificielle : que celle-ci créé d'elle-même quelque chose que nous ne comprenons et ne contrôlons pas. Un peu comme lorsque Terminator a pris le contrôle et décida, de lui-même, de tuer tout le monde. Or, Alice et Bob ont su créer un langage qui n'a pas pu être interprété par Eve. Et bien que nous pouvons interpréter facilement le langage, il est impossible de comprendre comment ils sont parvenus à celui-ci. En somme, si la "réflexion" d'Alice et Bob nous échappe, peut-être qu'un jour leur message (équivalent aux intentions de Terminator ?) nous échappera aussi.

L'Intelligence Artificielle : un secteur porteur
Si Guillaume Degroisse remarque l'aspect "troublant" de l'Intelligence Artificielle, il n'en sous-estime pas moins la capacité du secteur et les retombées bénéfiques. Aujourd'hui l'Intelligence Artificielle est en train de se créer, de se développer. Demain c'est sans aucun doute le contrôle de l'Intelligence Artificielle qui sera le secteur en pleine expansion. Les techniques de contrôle permettront de bénéficier de tout son potentiel sans pour autant craindre une énième suite à la saga Terminator. 


Sources :

[1]   Degroise Guillaume, Intelligence artificielle ; ce qu'Alice et Bob ne nous ont pas dit, in Atelier du Net, 02 décembre 2016, consulté le 05 décembre 2016, [en ligne] URL : http://www.atelier.net/trends/articles/intelligence-artificielle-qu-alice-bob-ne-ont-dit_444283

[2] Elodie, Les I.A de Google Brain inventent leur propre langage chiffré, in Journal du Geek, 7 novembre 2016, consulté le 05 décembre 2016, [en ligne], URL : http://www.journaldugeek.com/2016/11/07/ia-google-langage-chiffre/
et David Civera, L'Intelligence Artificielle de Google chiffre ses données et les hommes sont dépassés, in Tom's Hardware, 30 ocotbre 2016, consulté le 05 décembre 2016, [en ligne] URL : http://www.tomshardware.fr/articles/recherche-intelligence-artificielle-google,1-61695.html
 

[3] Pour en savoir plus sur le laboratoire Google Brain : URL : http://research.google.com/teams/brain/s/brain/

jeudi 1 décembre 2016

Blockchain et efficacité énergétique : la smart grid de Brooklyn

A l’heure de la transition énergétique et du développement d’initiatives énergétiques alternatives, de nombreuses smart grids - réseaux de distribution d’électricité "intelligents" - voient le jour dans le monde. Focus sur le Brooklyn Microgrid, à New York, qui combine énergie propre et économie de partage.

De quoi s'agit-il ?

Le Brooklyn Microgrid est un projet pilote de système électrique décentralisé communautaire, qui facilite l’échange d'énergie sécurisé entre consommateurs, à l’échelle d’un quartier.

Lancé au printemps dernier par TransActive Grid, joint-venture composée de Lo3 Energy, société développant des systèmes décentralisés d’énergie solaire, et ConsenSys, startup spécialisée dans le bitcoin, il allie un micro réseau de distribution d’électricité à la technologie blockchain, afin de créer un marché local pour les crédits d'énergie renouvelable.
L'idée est de permettre aux particuliers de vendre leur surplus d’énergie entre voisins, sans intermédiaire, légalement et en toute sécurité grâce à la blockchain.

Comment ça marche ?

A l'aide de panneaux photovoltaïques posés sur les toits de plusieurs immeubles, et couplés à des systèmes de stockage, les bâtiments publics et résidentiels des alentours sont autonomes en énergie. Ils n’ont plus à s’approvisionner sur le réseau national.
L’échange d'énergie se fait en temps réel, sur de courtes distances et donc à moindre coût, en fonction des besoins et de la quantité d’électricité produite. Ce dispositif permet de réguler la consommation et de regagner une certaine autonomie face aux conditions météorologiques ou aux situations d’urgence.

Mais la nouveauté de cette expérience ne réside pas tant dans la production locale d’énergie que dans l’utilisation du système de la blockchain pour concrétiser cet objectif.

D'abord conçue pour le Bitcoin, la blockchain vient mettre ses garanties d'intégrité et de transparence au service de l'énergie intelligente. Cette technologie permet de stocker et transmettre les informations sans contrôle centralisé, via une base de données construite bloc après bloc, et partagée par ses utilisateurs sans intermédiaire. Sécurité et fiabilité des échanges sont ainsi garantis.

Concrètement, l’énergie, mesurée par des compteurs “smart meters”, est valorisée grâce à un système de jetons. Le producteur/consommateur disposant d’un excédent d’énergie peut le revendre en échange de jetons, échangeables ensuite localement.

Ce réseau local intelligent s’adosse à la plateforme Ethereum pour échanger de l’énergie de façon automatisée : les producteurs d’électricité  fixent eux mêmes leur prix, les acheteurs choisissent le volume d’énergie et le prix qui leur convient. Les transactions sont réalisées en peer-to-peer, à l’aide de smart contracts liant les usagers les uns aux autres.

Et après ?

A terme, l'objectif sera d’étendre ce premier réseau et de proposer une réelle alternative aux fournisseurs d’énergie traditionnels. Pour répondre à cette ambition, TransActive grid devra d’abord enrichir le système et améliorer sa puissance pour faire face à la croissance des consommateurs et faciliter la gestion des transactions.

Toutefois le changement est en marche, et les énergéticiens traditionnels devront rapidement composer avec ces communautés de consomm’acteurs, qui géreront de manière autonome leur production et consommation d’énergie. Nul doute qu'ils verront là l’opportunité de faire évoluer leurs business models en intégrant cette nouvelle donne.


Sources 

(1) GUERARD, Guillaume, NEHAI, Zeinab. Quand la Blockchain sert à s'échanger de l'électricité. THE CONVERSATION [en ligne]. Mis en ligne le 29/11/2016 [consulté le 01/12/2016]. http://theconversation.com/quand-la-blockchain-sert-a-sechanger-de-lelectricite-69512

(2) A New York, la blockchain partage l’énergie verte. Les Echos [en ligne] Mis en ligne le 03/11/2016 [consulté le 01/12/2016]. http://www.lesechos.fr/industrie-services/energie-environnement/0211459206747-a-new-york-la-blockchain-partage-lenergie-verte-2040175.php

(3) MARIE LUCE, Mickaëlle. Les nouveaux acteurs de la Blockchain. Blog UniVerDoc [consulté en ligne le 01/12/2016]. http://bloguniversdoc.blogspot.com/2016/01/blockchain-de-nouveaux-acteurs-veulent.html

Les jeunes américains et l'information : to believe or not to believe, that is the question !

Plus de 80% de jeunes américains ne savent pas discerner un article d'information d'un contenu sponsorisé


Le Stanford History Education Group (Etats-Unis) s'est interessé sur la capacité des élèves de collège, de lycée et d'université à évaluer la crédibilité de l'information qu'ils sont amenés à lire en ligne. Cette étude (1), publiée en Novembre 2016 et relayée par plusieurs médias (dont le Monde (2)), a ainsi analysé la réponse de 7804 élèves répartis sur 12 états américains.

Divers critères ont été instaurés pour juger de la compréhension d'une information et surtout de sa fiabilité, le tout dans un contexte réaliste : déterminer si une information relayée par Twitter est fiable, expliquer comment faire la distinction entre article d'information et communiqué commercial, s'interroger sur la crédibilité d'une photo publiée via un média social, ...
Ces critères ont été présentés aux élèves sous la forme d'exercices adaptés selon leur niveau scolaire.

Les résultats de cette étude ont démontré que 75% des élèves savaient faire la part entre un article et une publicité, arguments clairs à l'appui : "la petite croix bleue en haut à gauche m'indique qu'il s'agit d'une publicité" ; "il est écrit "Offre limitée dans le temps", c'est donc une publicité".

Cependant, plus de 80% des élèves n'ont pas su distinguer un article d'un contenu sponsorisé (appelé également "native advertising" en langage webmarketing) alors qu'il en est fait clairement mention. Une réponse particulièrement édifiante a même été mise en avant par l'étude : "il s'agit bien d'un article même s'il est écrit "Contenu sponsorisé"".

Ce n'est pas mieux quand il s'agit d'image...


Quant à l'information sous forme d'image, moins de 20% des élèves interrogés se sont posés la question de l'origine ou de la source - donc de la fiabilité - d'une photographie accompagnée d'une légende. 
Par ailleurs, 40% environ des élèves ont expliqué que la photographie était, en soi, l'élément qui prouvait la véracité de la légende... démontrant ainsi qu'ils ne remettaient pas non plus en cause la légende. 

La question de l'éducation à la lecture d'une information


Ces résultats posent évidemment la problématique de l'éducation à la lecture d'une information.
Le développement de l'internet et surtout la démocratisation de son accès ont été tels que les plus jeunes n'ont eu ni le temps ni l'occasion d'être sensibilisés à la démarche de prise de recul face à une information, qu'elle soit écrite, imagée, ou filmée.

Cette étude illustre bien que notre responsabilité en tant que parent, enseignant, ou tout simplement adulte est d'aider les plus jeunes à acquérir un esprit critique, dans l'espoir que la génération future ne devienne pas des "naïve in advertising" face aux "native advertising". 

-----------------------------
Sources : 

(1) Stanford History Education Group. Evaluating information: the cornerstone of civic online reasoning. Mis en ligne le 21 novembre 2016. [Consulté le 01/12/2016]. 
https://sheg.stanford.edu/upload/V3LessonPlans/Executive%20Summary%2011.21.16.pdf

(2) Le Monde, par Morgane Tual. Fausses informations en ligne : les adolescents « facilement dupés », selon une étude. Mis en ligne le 23 novembre 2016. [Consulté le 01/12/2016].
http://www.lemonde.fr/pixels/article/2016/11/23/fausses-informations-en-ligne-les-adolescents-facilement-dupes-selon-une-etude_5036468_4408996.html#k13mPQwPpxFDfSSd.99


mardi 29 novembre 2016

L’archivage du Web français : un enjeu majeur pour la mémoire collective et la recherche

En 2016 la France fête un double anniversaire : la Bibliothèque nationale de France (BnF) et l'Institut national de l'audiovisuel (INA) célèbrent les 10 ans de la réforme sur le dépôt légal et les 20 ans des archives du Web français

 

C’est en effet en 1996 - grâce à l’initiative teintée d’utopie de Brewster Kahle qui crée aux États-Unis la Fondation Internet Archive - que le Web devient l’objet d’un travail d’archivage systématique. La première récolte concerne les sites de l’élection présidentielle américaine de 1996. Pour moissonner le Web mondial, Brewster Kahle développe un logiciel ("crawler") capable d’explorer automatiquement le Web dans sa globalité et de stocker des copies des pages visitées [1].  
En France l’initiative est prise par les institutions publiques: la BnF commence son activité en collectant les sites de l’élection présidentielle de 2002, pour élargir ensuite les thèmes de son archivage.

Le cadre légal

 

La loi relative aux droits d'auteurs et aux droits voisins dans la société de l'information (DAVDSI) du 1er août 2006 étend le dépôt légal français aux publications sur le Web : il s'agit du dépôt légal numérique. La loi précise aussi les domaines d'intervention de l'INA et de la BnF. Le premier se charge, dans le respect de sa mission institutionnelle, de l'archivage des sites des médias audiovisuels; la BnF s'occupe du domaine ".fr" et, en collaboration avec l’Association Française pour le Nommage Internet en Coopération (AFNIC) et la Fondation Internet Archive, répertorie tous les sites français (".com", ".org", ".net" etc) [2]. Aujourd'hui la mémoire du Web français est stockée à la BnF ou reposent 668 Téraoctets d'archives, soit 26 milliards de fichiers. L'INA gère une quantité moins massive de données (14.000 sites) mais effectue un travail de collecte quotidien. 

Un enjeu méthodologique majeur pour les professionnels du secteur…

 

Archiver le Web dans un lieu où les pratiques professionnelles sont nées dans la culture du papier peut s’avérer difficile. Des nouvelles questions se posent par rapport aux critères de sélection : quelle approche faut-il privilégier entre une collecte intégrale, exhaustive, sélective, thématique ? Le dynamisme généralisé du Web impose la question de la fréquence de l’archivage, la multiplicité des contenus, la nécessité de leur curation, etc. Il s'agit donc d’opérer des choix raisonnés qui puissent assurer une représentativité de la diversité et de l’évolution du Web car, en organisant la masse gigantesque de ses contenus, les institutions et les professionnels construisent la mémoire collective de demain.

… au profit des chercheurs et de la société, entre ouverture et contraintes

 

La BnF et l’INA, en archivant le Web français, offrent aux chercheurs d’autres ressources pour étudier l’histoire et l’évolution de notre société [3]. Mais si Internet Archive aux États-Unis a lancée en 2001 la Wayback Machine, un outil qui permet aux internautes de naviguer librement dans ses archives, en France ce patrimoine numérique reste consultable uniquement dans les bibliothèques, car les archives du Web sont protégées par le code du patrimoine et le droit d’auteur, ce qui les empêche d’être accessibles gratuitement en ligne.  



Pour en savoir plus sur les développements  des Archives du Web à l’international...
cf. le site web de l’IIPC - International Internet Preservation Consortium (http://www.netpreserve.org/) qui regroupe environ une cinquantaine d'institutions d’archivage du Web, ainsi que le site web de l'Internet Archive (https://archive.org/index.php)


...et en France
cf. la page officielle du projet Archive de l'Internet de la BnF, mise à jour le 22 janvier 2016 et consultée le 26 novembre 2016


Sources: 

[1] Vingt ans d’archivage du Web : les coulisses d’un projet titanesque
Article publié par Morgane Tual le 26/10/2016 sur le site de Le Monde et consulté en ligne le  29 novembre 2016
(http://www.lemonde.fr/pixels/article/2016/10/26/vingt-ans-d-archivage-du-web-un-projet-titanesque_5020433_4408996.html)

[2] L’archivage du web : un outil pour comprendre Internet
Article publié par Alexandre Foatelli le 22/11/2016 sur le site de l’INA et consulté en ligne le 29 novembre 2016
(http://www.inaglobal.fr/numerique/article/l-archivage-du-web-un-outil-pour-comprendre-internet-9386?tq=7)

[3] L'archivage du web, futur trésor archéologique de la BNF
Article publié par Raphaële Karayan le 24/11/2016 sur le site de l’Express et consulté en ligne le 29 novembre 2016

jeudi 24 novembre 2016

L'e-administration a le vent en poupe, mais attention au risque d'exclusion sociale

Selon le baromètre 2016 de l'e-administration réalisé par Ipsos pour Sopra Steria (1), les Français sont de plus en plus séduits par l'administration numérique, mais restent vigilants sur les domaines de la justice et de la police. Autre enjeu crucial : le besoin de médiation humaine.

Administration électronique, les Français sont quasiment convertis !

A l'occasion de la publication de cette étude, Archimag (2) fait le point sur la perception des Français face au développement de l'e-administration :
  • 88 % des personnes interrogées se déclarent prêtes à utiliser les services en ligne proposés par l'administration. 
  • 70 % d'entre elles estiment "avancé" le développement des services publics numériques contre 59% en 2015, soit 11 points de progression.
  • 85 % des Français souhaitent voir la création d'un guichet unique en ligne pour des services numériques personnalisés.  
Si la déclaration des revenus en ligne (jugée avancée par 86% des Français) emporte le maillot jaune de l'e-administration, certains domaines sont à la traîne, notamment l'état-civil et la santé (40 % et 32%). En queue de peloton, les services en ligne dédiés à la justice et à la police accusent un retard, 29 % seulement estimant qu'ils sont suffisamment développés. 

Une exigence croissante en matière de sécurité des données personnelles 

65% des Français ont confiance dans la capacité des pouvoirs publics à assurer la sécurité et la confidentialité de leurs données personnelles. Leur niveau d'inquiétude sur l'accès aux données a sensiblement baissé. A la question "craignez-vous que quelqu'un d'autre que vous n'accède aux données renseignées ?", 42 % répondent "oui" en 2016 contre 52 % en 2015.

Néanmoins, près d’un tiers des Français attend un service client en appui, afin d’être accompagné en cas de problème. 

Le CNNum partage cette vigilance et alerte sur la nécessité d'un accompagnement dans une tribune publiée le 22 novembre 2016 dans Libération (3).

La dématérialisation sans accompagnement humain, facteur d'accélération de l'exclusion sociale selon le CNNum.

Si les TIC permettent de créer des services publics plus efficaces, réactifs et personnalisés, la médiation humaine et l'accessibilité sont encore trop souvent oubliées au moment de leur conception.

Conséquence : que l'on soit précaire, mal à l’aise avec le numérique ou même "digital native", on peut aujourd’hui être bloqué dans des circuits administratifs si l’on ne rentre pas dans les cases du formulaire. Le profil d’utilisateur moyen n’existant pas, il est donc essentiel de maintenir une "médiation humaine décloisonnée, personnalisée, outillée et valorisée, destinée à garantir l’accès de tous aux droits et aux services essentiels, partout sur le territoire".
Le CNNum conclut en soulignant que l'accompagnement représente, avec la formation durant toute la vie, l’infrastructure humaine essentielle d’une société numérique.

Sources :

(1) SOPRA STERIA et IPSOS. Baromètre Digital Gouv' 2016. www.soprasteria.com [en ligne]. Mis en ligne le 15 novembre 2016 [consulté le 24 novembre 2016]. https://www.soprasteria.com/fr/media/publications/barometre-digital-gouv-2016 
Le baromètre Digital Gouv pan-européen a été réalisé au mois de septembre 2016 dans quatre pays (France, Allemagne, Norvège et Royaume-Uni) par l'institut Ipsos pour le compte de la société Sopra Steria, leader européen de la transformation numérique. Près de 4 000 personnes ont été interrogées soit environ 1 000 personnes dans chacun de ces pays. 

(2) TEXIER, Bruno. Baromètre 2016 de l'e-administration : les Français de plus en plus séduits. www.archimag.com [en ligne]. Mis en ligne le 23 novembre 2016 [consulté le 24 novembre 2016]. http://www.archimag.com/demat-cloud/2016/11/23/barometre-2016-e-administration-fran%C3%A7ais-de-plus-en-plus-seduits 

(3) MAHJOUBI Mounir, PENE Sophie Pène, MAMOU MANI Guy, TALEB Amal, ainsi que des membres et anciens membres du CNNum, l'ancienne vice-présidente du CNNum, le secrétaire général au CNNum et des rapporteurs au CNNum. L'administration numérique ne doit pas accélérer l'exclusion sociale. www.liberation.fr [en ligne]. Mis en ligne le 22 novembre 2016 [consulté le 24 novembre 2016]. http://www.liberation.fr/debats/2016/11/22/l-administration-numerique-ne-doit-pas-accelerer-l-exclusion-sociale_1530177 

Vos données indiquent quel genre d’humain vous êtes

A l’occasion de la sortie de Watch dogs 2, jeu vidéo dans l’univers des hackers, Ubisoft le plus gros éditeur de jeux vidéo français, a mis en ligne une expérience interactive « Predictive World »,  avec pour idée de montrer l’emprise du Big Data sur nos vies. (4)
Conçu en partenariat avec le « Psychometrics Centre de L’université de Cambridge », Predictive World est un site internet se basant sur des algorithmes prédictifs pour établir gratuitement votre profil numérique et prédire votre avenir grâce à votre profil Facebook et à votre localisation. (1)

Predictive World, une analyse prédictive de votre profil
Predictive World est capable de fournir plus de 60 prédictions à votre sujet. Après une connexion à l’application Facebook, le site récupère un maximum d’informations et les étoffe en fonction de vos choix : quel type de profil vous correspond le mieux ? Quel type de voiture conduisez-vous ? Autant de propositions utilisées ensuite pour calculer votre stabilité émotionnelle, vos revenus moyens, votre espérance de vie, votre consommation d’alcool, de drogue, de tabac…(3)


Big Data et confidentialité des données
Cette expérience pose forcément la question de la confidentialité des données et de leur utilisation à grande échelle. Et si la somme de ces 5 milliards de gigaoctets de données que vous générez chaque jour tombait entre de mauvaises mains ? Ou sans aller jusque-là, entre celles de votre assureur, banquier ou futur employeur ? (3)

Sécuriser ses échanges ou ses partages
Un petit test facile vous permet de savoir ce que Google sait de vous. Spécialiste du multimédia, le bibliothécaire Thomas Fourmeux vient de publier sur son blog « Biblio Numericus » un article d'Alison Macrina, du Library Freedom Project, donnant une boîte à outils pédagogique en 7 étapes pour sécuriser vos données sur votre smartphone : modification de vos paramètres, chiffrage de vos communications, choix de votre navigateur, protection du tracking publicitaire, utilisation d’un réseau privé VPN…(5)

Pour aller plus loin, le lanceur d’alerte Edward Snowden a livré quelques-uns des logiciels qu’il utilise : L’application de messagerie en open source Signal (disponible sur iOS et sur Android et développée par Open Whisper Systems) permettant de recevoir et d’envoyer des SMS chiffrés et de passer des appels sécurisés.
Et pour ceux qui chercheraient à effacer des données qui pourraient se révéler ennuyeuses lors d’une recherche d’emploi il existe aussi des solutions : Supprimer les dernières activités sur Facebook en passant par la rubrique « historique personnel » de l’application ou utiliser Tweet Eraser pour faire le ménage dans ses derniers tweets. (2)

Predictive World…envie de tester l’expérience …?

Sources  

(1) JOST, Clémence. Ce qui se cache derrière Predictive World, cet outil gratuit qui prédit votre avenir grâce à votre profil Facebook. ARCHIMAG [en ligne]. Mis en ligne le 14 novembre 2016. [Consulté le 24/11/2016]. http://www.archimag.com/univers-data/2016/11/14/predictive-world-outil-gratuit-prediction-avenir-profil-facebook

(2) TIBERGUIEN, Perrine. Big Data et confidentialité : Zoom sur Predictive World. CCM [en ligne]. Mis en ligne le 14 novembre 2016. [Consulté le 24/11/2016].
http://www.commentcamarche.net/news/5869005-big-data-et-confidentialite-zoom-sur-predictive-world


(3) RAKOTONDRABE, Andy. Predictive World, un service qui illustre les dangers du Big Data. Fedzone  [en ligne]. Mis en ligne le 12 novembre 2016. [Consulté le 24/11/2016]. http://www.fredzone.org/predictive-world-ubisoft-watch-dogs-2-883


(4) EVENO, Flora. Predictive World, ce que les machines savent de nous. RTBF.be  [en ligne]. Mis en ligne le 16 novembre 2016. [Consulté le 24/11/2016]. https://www.rtbf.be/culture/dossier/chroniques-culture/detail_predictive-world-ce-que-les-machines-savent-de-nous?id=9456587


(5) JOST, Clémence. 7 astuces faciles pour protéger votre vie privée sur votre smartphone. ARCHIMAG [en ligne]. Mis en ligne le 2 décembre 2015. [Consulté le 24/11/2016]. http://www.archimag.com/vie-numerique/2015/12/02/7-astuces-faciles-proteger-vie-privee-smartphone