lundi 12 décembre 2016

Tous surveillés ?


Réseaux sociaux, webmails gratuits, sites web, objets connectés, partout nous laissons des traces, qui sont enregistrées, analysées, compilées par des entreprises. Officiellement ces entreprises travaillent à améliorer notre qualité de vie. Mais qu'en est-il réellement? 

D'énormes quantités d'informations sur notre vie privée sont récoltées par les entreprises. Notre utilisation d'internet permet à de multiples sociétés de collecter des données sur nous à travers chaque recherche que nous effectuons et chaque site que nous visitons. Si nombre d'entre nous estiment que cette récolte est sans importance car ils n'ont rien à cacher, il en demeure pas moins que ces informations croisées avec celles de millions d'autres profils acquièrent une vraie valeur ajoutée. 

Aussi lorsque les assureurs s'associent à des fabricants d'objets connectés, est-ce-que ces données personnelles collectées restent réellement sans importance? 
Comment peut-on s'assurer que ces quantités de données compilées ne seront pas revendues sachant l'énorme valeur qu'elles ont ? Sous couvert de se préoccuper du bien être des gens et également de mieux gérer les coûts pour ces sociétés d'assurances, cette collaboration pose la problématique plus vaste de la réutilisation des informations collectées et du degré de contrôle de l'utilisateur sur l'exploitation de ses données. Est-ce-que sous prétexte de proposer des services plus personnalisés ces entreprises ne surveillent-elles pas simplement leurs clients ? 

Philippe Richard, présente dans son article "Le monde sous surveillance" l'ouvrage de Tristan Nitot, qui évoque cette problématique de la surveillance. Article et ouvrage alertent sur ce phénomène de surveillance plus ou moins volontaire qui s'installe. Il évoque la surveillance pratiquée par les grandes entreprises dont les objectifs sont avant tout économiques mais il aborde aussi la surveillance mise en place autour des citoyens afin de les protéger des risques terroristes. 

La loi renseignement, publiée au Journal officiel en juillet 2015, autorise des procédés d'espionnage, jusqu'ici très encadrés et utilisés que dans des cas particuliers, à être étendus à l'ensemble des citoyens. Notamment avec l'installation de "boites noires" installées sur les équipements des opérateurs numériques, celles-ci sont sensées sonder les informations partagées par les internautes, à l'aide d'algorithmes afin de cibler les profils atypiques et potentiellement dangereux. Mais comme le souligne Fabien Soyez "le procédé utilisé pour faire fonctionner l’édifice nécessitera obligatoirement de surveiller des millions d’internautes." 

Bien que des lois encadrent la gestion des bases de données et plus particulièrement celles contenant des données à caractère personnel, voire "sensibles", bien que les entreprises soient dans l'obligation d'informer les utilisateurs de l'exploitation qui est faite de leur données, n'est ce pas un système de surveillance qui se met lentement en place ? 

Heureusement des parades existes mais encore, faut-il être un utilisateur averti pour savoir les mettre en place. L'ouvrage présenté par l'article de Philippe Richard, se propose de donner quelques clés de compréhension. 


Sources :

Philippe Richard, Le monde sous surveillance, article du  9.16.12 [consulté le 12.12.16]

Fabien Soyez, Loi renseignement, des algorithmes de surveillance massive, article du 21.06.15 [consulté le 12.12.16].

Philippe Richard, Assurance et objets connectés; surveillance ou assistance? article du 2.05.16 [consulté le 12.12.16].

Description de la Loi renseignement sur le site vie publique article du 1.12.15 [consulté le 12.12.16].

Zone Téléchargement est mort

Le site de téléchargement le plus important en France, Zone Téléchargement, a été fermé suite à une opération d'envergure réalisée par la gendarmerie nationale. Cette opération est l'aboutissement d'une longue enquête, initiée par une plainte de la SACEM, déposée en 2014.

État des lieux
Le 28 novembre 2016, la fermeture de Zone Téléchargement est annoncée. Il s'agit du plus grand site français de téléchargement de films, séries, musiques, et jeux vidéos. Ce site était le 10e site le plus visité en France, il contenait plus de 2 millions de liens de téléchargement.

L'histoire commence à la Société des auteurs, compositeurs et éditeurs de musique (SACEM), qui porte plainte en 2014 contre Zone Téléchargement. Puis l'Association de lutte contre la piraterie audiovisuelle (ALPA) se joint à cette plainte.
C'est alors qu'une longue enquête est mise en place par le Centre de lutte contre les criminalités numériques de la Gendarmerie nationale. L'enquête se conclut par la saisie des serveurs du site situés en Allemagne et en Islande et l'interpellation des deux administrateurs de la plateforme. (1)

Au lendemain de cette interpellation, David El Sayegh, secrétaire général à la SACEM, explique au journal Le Monde sa satisfaction, lors d'un interview mené par la journaliste Morgane Tual. Il parle alors d'un préjudice de plus de 75 millions d'euros de droits d'auteurs, il dénonce les encarts publicitaires du site à caractère phonographique et il conclu en disant «il n’y a plus d’impunité pour les pirates». (2)

Une autre vision
Olivier Ertzscheid, maître de conférences en Sciences de l'Information, offre une analyse toute autre de la situation sur son blog Affordance.info.
Il défend dans son billet intitulé "Zone Téléchargement" que
"Le web n'a jamais tué quelque industrie que ce soit. Et surtout pas ces "industries culturelles". Le web ne tuera pas la culture. Ni la musique. Ni le cinéma. Ni la littérature. Ni les libraires. Ni les 2BE3. Par contre le web a tué le temps." (3)

De plus, il fait un parallèle avec Google qui est, comme Zone Téléchargement, ou autre site de téléchargement, un annuaire de liens, le plus important au monde et qui comporterait également des contenus illégaux.

Mais encore, il fait référence à un autre de ces billets écrit lors de la fermeture du site de téléchargement Redlist, 3 ans plutôt, où il mettait en lumière les arguments des usagers de sites de téléchargement et les bénéfices de ce genre de site. En effet, après son analyse et sa synthèse réalisées sur plus de 800 commentaires d'usagers, il dégage des tendances fortes comme, par exemple :

  • une culture trop chère,
  • le téléchargement comme preuve de désir de consommation car l'offre crée la demande,
  • l'appartenance des usagers à une communauté,
  • la valeur ajoutée des méta données sociales générées par les usagers,
  • la diversité éditoriale par un accès à toute sorte de films même anciens ou de musiques du temps des vinyles,
  • le professionnalisme de ces sites biens construits avec moteur de recherche, listes et indexations, commentaires utilisateurs,...(4)

Dans la même actualité, il semblerait que le site français de téléchargement Cpasbien soit également sur la sellette. Il serait redirigé vers Torrent9, un autre site de téléchargement. Ainsi, la journaliste Elodie dans son article du 7 décembre 2016 intitulé "Après Zone Téléchargement, au tour de Cpasbien de tomber ?" paru dans le journal du Geek (5), s’interroge: «Le Roi est mort, vive le Roi ?».

Sources
(1) Morgane Tual, « Zone Téléchargement : sept questions pour comprendre sa fermeture mouvementée », Le Monde. Publié le 29/11/2016 [En ligne] [Consulté le 12/12/2016] http://www.lemonde.fr/pixels/article/2016/11/29/zone-telechargement-sept-questions-pour-comprendre-la-fermeture-du-site_5040199_4408996.html

(2) Morgane Tual, «Zone Téléchargement: pour la Sacem, «il n’y a plus d’impunité pour les pirates»», Le Monde. Publié le 29/11/2016 [En ligne] [Consulté le 12/12/2016] http://www.lemonde.fr/pixels/article/2016/11/29/zone-telechargement-pour-la-sacem-il-n-y-a-plus-d-impunite-pour-les-pirates_5040509_4408996.html

(3) Ertzscheid Olivier, « Zone-téléchargement », Affordance.info, ISSN 2260-1856. Publié le 29/11/2016 [En ligne] [Consulté le 12/12/2016] http://affordance.typepad.com//mon_weblog/2016/11/zone-telechargement-.html

(4) Ertzscheid Olivier, « Chers nayantsdroits, les meilleures choses n'ont pas de fin», Affordance.info, ISSN 2260-1856. Publié le 05/06/2013 [En ligne] [Consulté le 12/12/2016] http://affordance.typepad.com/mon_weblog/2013/06/chers-nayantsdroits-les-meilleures-choses-nont-pas-de-fin.html

(5) Elodie, «Après Zone Téléchargement, au tour de Cpasbien de tomber ?», Le Journal du Geek. Publié le 7/12/2016 [En ligne] [Consulté le 12/12/2016] http://www.journaldugeek.com/2016/12/07/cpasbien-fermeture/

jeudi 8 décembre 2016

La sécurité des données un enjeu capital à l'ère de l'avènement des usines 4.0 !

A l'heure où les chaînes de production des sociétés sont de plus en plus connectées, le risque de piratage s’accroît et la protection des données se révèle de plus en plus nécessaire.


Au sein des usines, les machines (robots)[1] sont connectées à des réseaux et elles mêmes reliées par des ordinateurs connectés également en réseaux. Ces ordinateurs bien souvent sont connectés à un intranet ou internet. Les robots des chaînes de production échangent des données sensibles comme le plan de maintenance, la quantité d'utilisation de matières premières, ou la productivité. Ces données sont cruciales pour l'élaboration d'un produit et révèlent le savoir faire d'une entreprise. Elles reposent sur des capteurs, du Big data, des automates ou du Cloud Computing. 

Les risques d'infiltrations ou d'espionnages[2] sont multiples. Les périphériques extérieurs comme les clés USB et les consoles de maintenance peuvent être des vecteurs de propagation d'un virus ou d'un code malveillant, de même que l'ouverture d'un PDF ou d'un e-mail. L'interconnexion à de nombreux réseaux locaux ou internet multiplie les portes d'entrée des hackers. Les menaces sont la divulgation des données sensibles à titre d'espionnage industriel. Un code malveillant pourrait faire élaborer par les robots des produits défectueux ou blesser un salarié. De même, à l'inverse, un salarié mécontent par esprit de vengeance ferait arrêter la chaîne de production.

Quelles solutions envisagées?

En 2012 l'équipe d'Invisible Things Lab a élaboré un OS très sécurisé : Qubes[3]. La sécurité de son système vient du fait qu'il repose sur la virtualisation des applications qui sont isolées les unes des autres. Ainsi si un PDF contenant un code malveillant s'ouvre celui ci n'atteint que la machine virtuelle et non l'ordinateur physique. Bien que très sécuritaire et inventif que soit le système, les pirates pourraient agir aux travers des liens entre les applications virtuelles.
La solution ne viendrait-elle pasd'un ordinateur non connecté ?[4]. Des scientifiques de l'Université Ben Gourion en Israel ont démontré qu'il était possible de pirater un ordinateur non connecté. Ils ont utilisé plusieurs méthodes. La première consiste à créer un code malveillant capable d'exploiter les bruits des ventilateurs. Il est également possible d'exfiltrer des données en récupérant les ondes électromagnétiques émises par la carte graphique. En s'appuyant sur des émetteurs-recepteurs spéciaux intégrés au sein des cartes logiques ou des cables USB, la NSA pouvait extraire des données à une distance de 12 km.


Actuellement, il parait difficile de trouver une solution complètement sécuritaire. La sécurité des données doit être une démarche globale qui inclue aussi bien le parc informatique lui même, que la protection du site de production ou encore le choix du système d'exploitation des PC ou l'hébergeur du serveur. Les technologies futures seront peut-être en mesure d'y répondre plus favorablement.



Sources :

[1] Richard Philippe.L'usine 4.0 c'est quoi ?. 26/10/2016. [consulté le 8/12/2016]
http://www.techniques-ingenieur.fr/actualite/articles/lusine-4-0-cest-quoi-37271/#pub
[2]Richard Philippe.Piratage les vulnérabilités de l'usine 4.0. 26/10/2016. [consulté le 8/12/2016].
http://www.techniques-ingenieur.fr/actualite/articles/piratage-les-vulnerabilites-de-lusine-4-0-37373/#pub
[3] Richard Philippe. Qubes, le système d'exploitation très sécurisé. 16/11/2016. [consulté le 8/12/2016].
http://www.techniques-ingenieur.fr/actualite/articles/qubes-le-systeme-dexploitation-tres-securise-37880/#pub
[4]Richard Philippe.Comment un PC non connecté peut-il être piraté ? 18/11/2016. [consulté le 8/12/2016].
http://www.techniques-ingenieur.fr/actualite/articles/comment-pc-non-connecte-pirate-38024/#pub

Scribing ou la facilitation graphique


Qu'est-ce que la facilitation graphique ?
La facilitation graphique (1) - traduction française de « scribing » ou « graphic recording » - est la modélisation de manière visuelle en temps réel d’une discussion de groupe. 

Le facilitateur est la personne qui va être chargée de cette modélisation. Elle est chargée de synthétiser par des techniques et des savoir-faire graphiques les échanges d’une discussion ou les dires d’une présentation. 

Dans le cadre d’un débat ou d’un brainstorming, les participants échangent leurs idées et voient celles-ci être collectées, structurées et modélisées sous leurs yeux par un « scriber ». Cette visualisation accompagne le processus de collaboration et stimule les échanges.

Le facilitateur graphique est chargé de cartographier les informations essentielles des intervenants à l’aide de dessins, d’images, de schémas et d’illustrations simplifiées pour créer un langage et une perception commune d'un sujet. Son travail est autant une aide à la prise à la décision, qu’un travail de synthèse dans le cadre d’une présentation.

 Exemple de facilitation graphique d'Alexia Leibbrandt 
sur la Data Visualization pour la cérémonie de remise 
du livre blanc "Dataviz" réalisé pour SAS et l’EBG en 2013 (1)

Les effets et intérêts de la facilitation graphique (3) :
  • Les intervenants voient leur débat se synthétiser et évoluer en temps réel.
  • Les participants sont engagés dans la discussion. Ils peuvent observer la capture de leur contribution et comment elle s’intègre à l’ensemble de la discussion.
  • Si un participant perd le fil de la discussion, il peut le retrouver facilement en jetant un oeil sur le graphe.
  • L'intelligence visuelle est plus sollicitée chez les participants et les points clés mieux mémorisés.
  • Les points clés de la discussion sont illustrés et il est aisé de voir le déroulement de la discussion ; de voir comment les participants ont évolué des sujets abordés en début de discussion aux sujets abordés en fin de discussion.
  • Le graphisme est un support efficace pour reparcourir la discussion pour une personne qui n'a pas assisté à l'échange.

Les compétences du facilitateur graphique :
  • Le facilitateur graphique aura besoin d'une concentration profonde et d'une grande attention.
  • Il a également besoin d'avoir une grande écoute pour déduire des aspects qui ne sont pas explicités.
  • Un bon esprit de synthèse est nécessaire...
  • ... ainsi qu'un vocabulaire graphique riche et une grammaire visuelle efficace.

Explication de la facilitation graphique en une minute (4)



Pour aller plus loin ...

L' association - Facilitation graphique, communauté de patriciens - souhaite favoriser l’émergence et la reconnaissance du métier de la facilitation graphique dans les pays francophones et ailleurs. Il rassemble des ressources et propose des formations de facilitateurs graphiques.

Axelmage est un réseau de facilitateurs graphiques et propose leur services aux entreprises. Leur site propose un blog autour de la facilitation graphique.

Quelques blogs de facilitateurs graphiques : Alexia Leibbrandt - Anne Bernardi - Romain Couturier


Sources :

(1) Facilitation graphique, Simplixi, [en ligne], consulté le 08 décembre 2016, http://www.simplixi.fr/facilitation-graphique-scribing/ 

(2) Livre blanc datavisualisation : tout en images, Jérôme Delacroix, Smartwords [en ligne], le 10 juillet 2013 [consulté le 08 décembre 2016], http://smartwords.eu/livre-blanc-datavisualisation-tout-en-images/

(3) Le Scribing, L'association FGcp [en ligne], consulté le 08 décembre 2016, http://www.fgcp.net/techniques-et-medias/le-scribing/

(4) La facilitation graphique en une minute, Pierre Mongin, Mind mapping pour tous [en ligne], le 21 septembre 2011 [consulté le 08 décembre 2016],http://www.mindmanagement.org/la-facilitation-graphique-en-une-minute-video



mardi 6 décembre 2016

L'Open Data des gouvernements à l'honneur à Paris

Le Partenariat pour un Gouvernement Ouvert - ou OGP, Open Government Partenership - se tiendra du 07 au 09 décembre à Paris. 
La France accueille et co-préside le 4ème opus de ce sommet mondial qui rassemblera 70 Etats, de tous les continents, et des centaines d’organisations de la société civile autour d'une volonté commune : " prendre des engagements en faveur de la transparence, de l'Open Data et de l'implication des citoyens dans les politiques publiques" (1).
Fort de ces ambitions, cet événement est avant tout l'occasion d'un partage d'expériences et d'innovations entre gouvernements et membres de la société civile. 

Les pays adhérents à l'OGP se sont engagés à respecter les principes de la Déclaration du gouvernement ouvert, dont les thématiques essentielles relèvent de la transparence de l'action publique, via l'ouverture des données publiques, la participations des citoyens à l'élaboration des politiques publiques, l'intégrité de l'action publique et des agents publics, l'utilisation des nouvelles technologies pour permettre l'ouverture.

Un programme dense est proposé sur plusieurs sites pour permettre la visibilité de nombreuses initiatives et les possibilités d'échanges lors de conférences, animations, tables rondes. 
Par exemple, un événement sera consacré à la diffusion des créations et innovations réalisées par les agents publics autour de la culture des connaissances, de procédés et de méthodes pour favoriser le partage, la mutualisation à l'aide d'outils (2). 
On peut également retenir l'intervention de Cap collectif, qui a fourni l'outil de consultation sur la loi sur la République Numérique et animera une conférence sur l'expertise française en matière de co-construction des lois (3). 

Réalisation majeure qui sera lancée à l'issue du sommet : la Toolbox du gouvernement ouvert (4). Cet outil sera accessible à tous et rassemblera un panel mondial des outils numériques qui servent à exercer un contrôle citoyen et participer au débat public. Un grand nombre de logiciels y seront référencés tels que des portails d’open data, des plateformes de consultation, des outils de suivi et d’élaboration collaborative de la loi, etc.

Pour la conception de cette ToolBox, un hackathon international sera lancé mercredi 7 décembre au Palais de l'Elysée. Les participants travailleront à améliorer les logiciels et services numériques en veillant à intégrer de nouvelles fonctionnalités, gérer l’interopérabilité, et proposer une traduction dans d'autres langues.
Lors de cet événement, les efforts des initiatives telles que le wiki de Nuit debout ou le Civic Graph de Microsoft seront mutualisés.

Pour suivre les temps forts du sommet en direct :


  • Plénière d’ouverture le 7 décembre à 14h30
  • Environ 20 conférences les 8 et 9 décembre de 9h à 19h
  • Pitchs et regards croisés lors de la Nuit de la démocratie le 8 décembre de 20h à 00h


Sources :

(1) La France préside le sommet de la transparence et de l'Open Data à Paris, Alexis Orisini, Numérama [en ligne], le 02 décembre 2016 [consulté le 06 décembre 2016] http://www.numerama.com/politique/213858-la-france-preside-le-sommet-de-lopen-data-et-de-la-transparence-a-paris.html

(2) Diffusion et partage des innovations métiers des agents publics, OGP Summit [en ligne], [consulté le 06 décembre 2016] https://fr.ogpsummit.org/osem/conference/ogp-summit/program/proposal/721

(3) Co-constuire les lois : un défi immense à la portée de tous ?, OGP Summit [en ligne], [consulté le 06 décembre 2016] https://fr.ogpsummit.org/osem/conference/ogp-summit/program/proposal/125

(4) La Toolbox du gouvernement ouvert, OGP Summit [en ligne], [consulté le 06 décembre 2016] https://fr.ogpsummit.org/the-open-government-toolbox/


lundi 5 décembre 2016

La difficile adoption de l'IA

Alors que l'on vit dans une époque où l'on est assisté par la technologie (Siri, Google Assistant, Cortana), où, en conséquence, nous produisons une importante masse de données exploitables par des sciences comme la biométrie; l'intelligence artificielle peine à être adoptée par l'homme. C'est ce que la multitude d'articles qui paraissent sur le sujet laissent à entendre.

Certains journalistes (1) tentent d'analyser cette techno-phobie en listant les facteurs qui entravent le développement - aujourd'hui - possible de l'IA. Parmi ces facteurs, on parle : 
  • d'une pénurie de cerveaux dans la communauté de chercheurs spécialisés dans le domaine,
  • d'un usage peu fonctionnel et utile de cette technologie, la reléguant au rang de gadget,
  • d'une réticence au changement, entre peur et fascination. 
Il semblerait que la dernière de ces trois raisons soit la plus pertinente (2), comme en témoignent les fictions d'anticipation qui traitent de ce sujet (Cf. les films Her et I Robot notamment), ou l'actuelle prolifération d'articles de la presse scientifique et généraliste qui parviennent avec difficulté à analyser rationnellement cette technologie sans approximations ou fantasmes.   

Cette anxiété lisible dans la presse se ressent dans l'opinion publique puisque 50% de la population française considère l'IA comme une menace. Cette anxiété trouverait son origine dans le cinéma de science-fiction hollywoodien, le repli sur soi culturel et religieux, les craintes sociales face à une IA qui va supprimer le travail et l’emploi. 

Mais surtout cette peur a été accentuée par la publication, le 28 juillet 2015, d'une lettre ouverte sur le site du FHI (Future of Humanity Institut de l'Université d'Oxford) qui met en garde contre l’utilisation de l’IA dans le domaine militaire. Cette pétition a été signée par de nombreuses personnalités scientifiques dont Elon Musk et le physicien Stephen Hawking. Elle marquerait une séparation nette entre les partisans d'une IA réglementée et ceux d'un libre développement de l’IA, les transhumanistes américains, dont les GAFA.

Thierry Berthier, l'auteur de l'article "Une dérive malveillante de l’intelligence artificielle est-elle possible?" se demande dans quelle mesure l'IA peut représenter un danger. Avec une équipe de chercheurs, il a élaboré des scénarios d'utilisation problématique de l'IA dans une situation de crise militaire. Ses hypothèses sur la question le mènent à la conclusion suivante : 
"Nous sommes convaincus que le risque (et le danger) de dérive malveillante s’incarne dans des séquences de mécanismes relevant de l’intelligence artificielle, de systèmes d’apprentissage qui, associés ou mis bout à bout, deviennent potentiellement dangereux sans que chacun de ces mécanismes pris individuellement le soit. Le risque naît ainsi de l’association de ces mécanismes humains ou numériques et peut effectivement conduire à l’établissement d’un contexte de crise. La complexité croissante des systèmes experts, des plate-formes d’aide à la décision s’appuyant sur des processus d’apprentissage rend aujourd’hui possible des «mises en résonance» conduisant potentiellement à des situations critiques. Il s’agit alors bien d’une forme faible de l’alerte lancée par Hawking et Musk…"

Sources :  

(1) "3 facteurs qui freinent la démocratisation de l’intelligence artificielle" publié sur le FrenchWeb.fr, le 05/12/2016, par Thomas Sabatier, http://www.frenchweb.fr/3-facteurs-qui-freinent-la-democratisation-de-lintelligence-artificielle/268495
(2) "Une dérive malveillante de l’intelligence artificielle est-elle possible?" publié sur slate.fr, le 02/12/2016, par Thierry Berthier, http://www.slate.fr/story/130235/derive-malveillante-intelligence-artificielle-possible


Intelligence artificielle : vers une vision positive

Dans Intelligence artificielle : ce qu'Alice et Bob ne nous ont pas dit, Guillaume Degroisse propose une analyse drôle et positive de l'Intelligence artificielle [1]. 


Qui sont Alice et Bob ? 
Alice et Bob sont deux Intelligences Artificielles crées par l'équipe de recherche de Google Brain. Elles avaient pour objectif de communiquer entre elles via leur propre algorithme, sans que la troisième, prénommée Eve, ne puisse déchiffrer le message. L'expérience a été un succès puisque Eve ne parvenait plus à déchiffrer la conversation au bout de 15 messages. Une avancée certaine pour l’entreprise Google qui cherche à sécuriser ses communications [2]. 

L'Intelligence artificielle en 2016
L'Intelligence Artificielle est sans aucun doute un des domaines d'innovation les plus convoités en 2016. Que ce soit par le nombre de startups spécialisées ou les sommes investies dans la recherche, nul doute que le secteur d'activité a pris une ampleur considérable cette année. Toutes les plus grandes entreprises -essentiellement californiennes- de Facebook à Uber en passant par Apple, axent leur recherche et développement sur ce domaine. Google s'engage également dans la brèche avec un laboratoire dédié, le Google Brain [3]. Grâce à Alice et Bob, l'entreprise a remporté son premier succès dans la course à l'Intelligence Artificielle. 

Alice et Bob : des cousins éloignés de Terminator ? 
Avec un parallèle à Terminator, l'auteur revient sur la peur que nous avons tous face à l'Intelligence Artificielle : que celle-ci créé d'elle-même quelque chose que nous ne comprenons et ne contrôlons pas. Un peu comme lorsque Terminator a pris le contrôle et décida, de lui-même, de tuer tout le monde. Or, Alice et Bob ont su créer un langage qui n'a pas pu être interprété par Eve. Et bien que nous pouvons interpréter facilement le langage, il est impossible de comprendre comment ils sont parvenus à celui-ci. En somme, si la "réflexion" d'Alice et Bob nous échappe, peut-être qu'un jour leur message (équivalent aux intentions de Terminator ?) nous échappera aussi.

L'Intelligence Artificielle : un secteur porteur
Si Guillaume Degroisse remarque l'aspect "troublant" de l'Intelligence Artificielle, il n'en sous-estime pas moins la capacité du secteur et les retombées bénéfiques. Aujourd'hui l'Intelligence Artificielle est en train de se créer, de se développer. Demain c'est sans aucun doute le contrôle de l'Intelligence Artificielle qui sera le secteur en pleine expansion. Les techniques de contrôle permettront de bénéficier de tout son potentiel sans pour autant craindre une énième suite à la saga Terminator. 


Sources :

[1]   Degroise Guillaume, Intelligence artificielle ; ce qu'Alice et Bob ne nous ont pas dit, in Atelier du Net, 02 décembre 2016, consulté le 05 décembre 2016, [en ligne] URL : http://www.atelier.net/trends/articles/intelligence-artificielle-qu-alice-bob-ne-ont-dit_444283

[2] Elodie, Les I.A de Google Brain inventent leur propre langage chiffré, in Journal du Geek, 7 novembre 2016, consulté le 05 décembre 2016, [en ligne], URL : http://www.journaldugeek.com/2016/11/07/ia-google-langage-chiffre/
et David Civera, L'Intelligence Artificielle de Google chiffre ses données et les hommes sont dépassés, in Tom's Hardware, 30 ocotbre 2016, consulté le 05 décembre 2016, [en ligne] URL : http://www.tomshardware.fr/articles/recherche-intelligence-artificielle-google,1-61695.html
 

[3] Pour en savoir plus sur le laboratoire Google Brain : URL : http://research.google.com/teams/brain/s/brain/

jeudi 1 décembre 2016

Blockchain et efficacité énergétique : la smart grid de Brooklyn

A l’heure de la transition énergétique et du développement d’initiatives énergétiques alternatives, de nombreuses smart grids - réseaux de distribution d’électricité "intelligents" - voient le jour dans le monde. Focus sur le Brooklyn Microgrid, à New York, qui combine énergie propre et économie de partage.

De quoi s'agit-il ?

Le Brooklyn Microgrid est un projet pilote de système électrique décentralisé communautaire, qui facilite l’échange d'énergie sécurisé entre consommateurs, à l’échelle d’un quartier.

Lancé au printemps dernier par TransActive Grid, joint-venture composée de Lo3 Energy, société développant des systèmes décentralisés d’énergie solaire, et ConsenSys, startup spécialisée dans le bitcoin, il allie un micro réseau de distribution d’électricité à la technologie blockchain, afin de créer un marché local pour les crédits d'énergie renouvelable.
L'idée est de permettre aux particuliers de vendre leur surplus d’énergie entre voisins, sans intermédiaire, légalement et en toute sécurité grâce à la blockchain.

Comment ça marche ?

A l'aide de panneaux photovoltaïques posés sur les toits de plusieurs immeubles, et couplés à des systèmes de stockage, les bâtiments publics et résidentiels des alentours sont autonomes en énergie. Ils n’ont plus à s’approvisionner sur le réseau national.
L’échange d'énergie se fait en temps réel, sur de courtes distances et donc à moindre coût, en fonction des besoins et de la quantité d’électricité produite. Ce dispositif permet de réguler la consommation et de regagner une certaine autonomie face aux conditions météorologiques ou aux situations d’urgence.

Mais la nouveauté de cette expérience ne réside pas tant dans la production locale d’énergie que dans l’utilisation du système de la blockchain pour concrétiser cet objectif.

D'abord conçue pour le Bitcoin, la blockchain vient mettre ses garanties d'intégrité et de transparence au service de l'énergie intelligente. Cette technologie permet de stocker et transmettre les informations sans contrôle centralisé, via une base de données construite bloc après bloc, et partagée par ses utilisateurs sans intermédiaire. Sécurité et fiabilité des échanges sont ainsi garantis.

Concrètement, l’énergie, mesurée par des compteurs “smart meters”, est valorisée grâce à un système de jetons. Le producteur/consommateur disposant d’un excédent d’énergie peut le revendre en échange de jetons, échangeables ensuite localement.

Ce réseau local intelligent s’adosse à la plateforme Ethereum pour échanger de l’énergie de façon automatisée : les producteurs d’électricité  fixent eux mêmes leur prix, les acheteurs choisissent le volume d’énergie et le prix qui leur convient. Les transactions sont réalisées en peer-to-peer, à l’aide de smart contracts liant les usagers les uns aux autres.

Et après ?

A terme, l'objectif sera d’étendre ce premier réseau et de proposer une réelle alternative aux fournisseurs d’énergie traditionnels. Pour répondre à cette ambition, TransActive grid devra d’abord enrichir le système et améliorer sa puissance pour faire face à la croissance des consommateurs et faciliter la gestion des transactions.

Toutefois le changement est en marche, et les énergéticiens traditionnels devront rapidement composer avec ces communautés de consomm’acteurs, qui géreront de manière autonome leur production et consommation d’énergie. Nul doute qu'ils verront là l’opportunité de faire évoluer leurs business models en intégrant cette nouvelle donne.


Sources 

(1) GUERARD, Guillaume, NEHAI, Zeinab. Quand la Blockchain sert à s'échanger de l'électricité. THE CONVERSATION [en ligne]. Mis en ligne le 29/11/2016 [consulté le 01/12/2016]. http://theconversation.com/quand-la-blockchain-sert-a-sechanger-de-lelectricite-69512

(2) A New York, la blockchain partage l’énergie verte. Les Echos [en ligne] Mis en ligne le 03/11/2016 [consulté le 01/12/2016]. http://www.lesechos.fr/industrie-services/energie-environnement/0211459206747-a-new-york-la-blockchain-partage-lenergie-verte-2040175.php

(3) MARIE LUCE, Mickaëlle. Les nouveaux acteurs de la Blockchain. Blog UniVerDoc [consulté en ligne le 01/12/2016]. http://bloguniversdoc.blogspot.com/2016/01/blockchain-de-nouveaux-acteurs-veulent.html

Les jeunes américains et l'information : to believe or not to believe, that is the question !

Plus de 80% de jeunes américains ne savent pas discerner un article d'information d'un contenu sponsorisé


Le Stanford History Education Group (Etats-Unis) s'est interessé sur la capacité des élèves de collège, de lycée et d'université à évaluer la crédibilité de l'information qu'ils sont amenés à lire en ligne. Cette étude (1), publiée en Novembre 2016 et relayée par plusieurs médias (dont le Monde (2)), a ainsi analysé la réponse de 7804 élèves répartis sur 12 états américains.

Divers critères ont été instaurés pour juger de la compréhension d'une information et surtout de sa fiabilité, le tout dans un contexte réaliste : déterminer si une information relayée par Twitter est fiable, expliquer comment faire la distinction entre article d'information et communiqué commercial, s'interroger sur la crédibilité d'une photo publiée via un média social, ...
Ces critères ont été présentés aux élèves sous la forme d'exercices adaptés selon leur niveau scolaire.

Les résultats de cette étude ont démontré que 75% des élèves savaient faire la part entre un article et une publicité, arguments clairs à l'appui : "la petite croix bleue en haut à gauche m'indique qu'il s'agit d'une publicité" ; "il est écrit "Offre limitée dans le temps", c'est donc une publicité".

Cependant, plus de 80% des élèves n'ont pas su distinguer un article d'un contenu sponsorisé (appelé également "native advertising" en langage webmarketing) alors qu'il en est fait clairement mention. Une réponse particulièrement édifiante a même été mise en avant par l'étude : "il s'agit bien d'un article même s'il est écrit "Contenu sponsorisé"".

Ce n'est pas mieux quand il s'agit d'image...


Quant à l'information sous forme d'image, moins de 20% des élèves interrogés se sont posés la question de l'origine ou de la source - donc de la fiabilité - d'une photographie accompagnée d'une légende. 
Par ailleurs, 40% environ des élèves ont expliqué que la photographie était, en soi, l'élément qui prouvait la véracité de la légende... démontrant ainsi qu'ils ne remettaient pas non plus en cause la légende. 

La question de l'éducation à la lecture d'une information


Ces résultats posent évidemment la problématique de l'éducation à la lecture d'une information.
Le développement de l'internet et surtout la démocratisation de son accès ont été tels que les plus jeunes n'ont eu ni le temps ni l'occasion d'être sensibilisés à la démarche de prise de recul face à une information, qu'elle soit écrite, imagée, ou filmée.

Cette étude illustre bien que notre responsabilité en tant que parent, enseignant, ou tout simplement adulte est d'aider les plus jeunes à acquérir un esprit critique, dans l'espoir que la génération future ne devienne pas des "naïve in advertising" face aux "native advertising". 

-----------------------------
Sources : 

(1) Stanford History Education Group. Evaluating information: the cornerstone of civic online reasoning. Mis en ligne le 21 novembre 2016. [Consulté le 01/12/2016]. 
https://sheg.stanford.edu/upload/V3LessonPlans/Executive%20Summary%2011.21.16.pdf

(2) Le Monde, par Morgane Tual. Fausses informations en ligne : les adolescents « facilement dupés », selon une étude. Mis en ligne le 23 novembre 2016. [Consulté le 01/12/2016].
http://www.lemonde.fr/pixels/article/2016/11/23/fausses-informations-en-ligne-les-adolescents-facilement-dupes-selon-une-etude_5036468_4408996.html#k13mPQwPpxFDfSSd.99