mercredi 28 janvier 2015

Be less busy !

" Be less busy". Voici le slogan affiché sur le site officiel de Slack (1).

Slack est une plateforme avec pour mission affichée de rendre la vie professionnelle plus facile, agréable et productive. Pour cela, elle centralise les outils de communications utilisés dans le travail en équipe : messagerie instantanée en groupe, partage de liens, documents, commentaires, etc.
La création de "chaines" ou canaux de discussions par sujets, groupes, projets tend à diminuer le flux d'emails professionnels.
Slack propose l'intégration d'applications tels que Twitter, DropBox, GoogleDocs dont le contenu est réuni sur la plateforme. Il est aujourd'hui possible d'intégrer plus de 70 services extérieurs (voir la liste complète sur le site).
Il est possible d'archiver et rechercher dans l'ensemble des documents déposés car l'outil propose une indexation et un moteur de recherche.
L'ensemble du contenus est accessible où que l'on soit car le service propose la synchronisation avec les appareils des utilisateurs : ordinateur, smartphone (applications disponible sous iOS et Android).

Lancé en février 2014, Slack a déja été adopté par des entreprises telles que Airbnb, Wall Street Journal, Amazon, etc. D'après les chiffres fournis par Slack et publiés dans Le Figaro, 30 000 équipes échangent 200 millions de messages tous les mois (2).
Mais certains entrevoient déjà les limites de ce nouvel outil. En effet, le site américain The Verge (actualité spécialisée en sciences, technologies, art et culture) dénonce la possibilité pour une entreprise d’accéder aux messages de ses employés (3). La politique de confidentialité a en effet été adaptée pour les entreprises dans l'obligation légale de conserver les communications des employés, comme cela est prévu pour certaines industries aux États-Unis.  L’accès aux archives de conversations pourra être demandé par un responsable d'équipe, pour les entreprises ayant souscrit au modèle payant proposant ce service.

La plateforme fonctionne sur le modèle Freemium. L'offre gratuite dite "légère" ("Lite" sur le site) donne accès à 10 000 messages archivés, 5 intégrations, applications pour iOS, Android et Mac Desktop ainsi qu'une assistance. Slack propose plus de services avec trois autres offres, payantes. A ce jour, le plateforme compterait 280 000 utilisateurs actifs dont 70 000 payants (2).

Le créateur de cette plateforme, Stewart Butterfield, est déjà célèbre pour la plateforme de partage de photos FlickR, dont il est le cofondateur. Il était présent à la conférence DLD15 (Digital Life Design, réseau mondial sur l'innovation, la numérisation, la science et la culture) qui s'est tenue en janvier 2015 à Munich afin de présenter ce nouvel outil.

Slack fait partie du top 10 des lauréats des innovations numériques mondiales, Grand prix qui sera remis lors du Forum Netexplo les 4 et 5 février prochains (4).


Sources :

(1) Site officiel Slack (consulté le 28/01/2015)

(2) "Slack révolutionne la communication en entreprise" Géraldine Russell, Le Figaro, 26/11/2014 (consulté le 28/01/2015)

(3) "Slack alters privacy policy to let bosses read your messages" Casey Newton, 24/11/2014 (consulté le 28/11/2015) 

(4) Top 10 des lauréats du Grand Prix Netexplo (consulté le 28/01/2015)

Bientôt tous journalistes ?

Une équipe de chercheurs américains et portugais a mis au point un algorithme permettant de vérifier automatiquement des informations en ligne.


L'étude porte sur de simples faits, issus de la toile, constitués d'un sujet, d'un verbe et d'un complément. Exemples de phrases testées :
Barack Obama est musulman.
Rome est la capitale de l'Inde.
Les chercheurs ont utilisé les knowledge graph (graphiques de connaissances) et ont analysé les nœuds de ces graphes. Un tel graphe est constitué d'un ensemble complexe de nœuds.
L'algorithme repère les phrases simples (sujet, verbe, complément) parmi ces nœuds et quantifie le lien qui unit un sujet à son complément.
Les chercheurs se sont basés sur des dizaines de milliers de knowledge graph issus de Wikipedia pour démontrer leur algorithme [1].


Principe 

Dans cette méthode, un sujet qui est relié par différents nœuds adjacents à son complément s'avère être une information véridique. En revanche si le chemin qui relie un sujet à son complément n'est pas composé de nœuds adjacents, l'information sera mise en doute. Cela revient à calculer la proximité sémantique de ces deux entités. L'algorithme recherche le plus court chemin entre les deux entités et évalue cette proximité.

Un deuxième calcul est effectué, il porte sur l'unicité : plus le chemin est unique entre un sujet et son complément et plus le fait sera véridique. En effet, si de multiples chemins sont possibles pour un même fait, on peut en conclure que ce fait n'est pas une information spécifique et notable.

Chemin le plus court entre "Barack Obama" et "musulman", source : arvix.org.
Dans cet exemple le chemin comporte 8 nœuds et l'algorithme lui a assigné une faible valeur de vérité.

 

Applications possibles

Selon les chercheurs, cette nouvelle méthode de vérification pourrait être utilisée par Wikipedia pour vérifier tous les nouveaux faits introduits dans l'encyclopédie.

Certains imaginent déjà une extension qui serait intégrée à nos navigateurs et qui permettrait de vérifier directement les informations trouvées sur le web [2].

Le gain de temps ne serait pas négligeable pour les journalistes qui ont une quantité importante d'informations à vérifier. La fonction même de journaliste pourrait être remise en cause [3].

L'algorithme est encore en cours de développement, son taux de réussite est significatif mais pas encore suffisant. Et il ne détecte pas encore les effets de langage comme l'ironie.

Cette vérification automatique de l'information viendrait s'ajouter au crowdchecking (la foule apporte la preuve d'une information) déjà existant.
Son potentiel est important. En effet, cette automatisation pourrait permettre de démolir rapidement certaines théories (théorie du complot par exemple) ou d'arrêter la propagation de la désinformation, aujourd'hui très rapide sur les médias sociaux.

Sources
[1] Collectif - Computational fact checking from knowledge networks - Arvix.org - 14/01/2015 - http://arxiv.org/pdf/1501.03471v1.pdf
[2] Michael Byrne - Yes, Please: An Algorithm for Fact Checking the Internet - Motherboard - 25/01/2015 - http://motherboard.vice.com/read/an-algorithm-for-fact-checking
[3] Guillaume Scifo - Automatiser la vérification de l’information avec un algorithme - Atelier.net - 27/01/2015 - http://www.atelier.net/trends/articles/automatiser-verification-de-information-un-algorithme_433337?utm_source=atelier&utm_medium=rss&utm_campaign=atelier


lundi 26 janvier 2015

Les écoutes téléphoniques sur le lieu de travail régulées par la CNIL

Les murs de l'entreprise ont des oreilles.
 
Depuis quelques années, les écoutes téléphoniques au sein de l'entreprise sont devenues monnaie courante. Cela tient à la multiplication des services clients téléphoniques qui peuvent faire l'objet d'une surveillance ainsi qu'à la pratique des écoutes chargées de vérifier si un salarié ne commet pas des fautes professionnelles. Qui, lors d'un appel à destination d'une plate-forme téléphonique, n'a pas déjà été averti que la conversation qu'il allait avoir avec un opérateur était susceptible d'être enregistrée ?

Un simple engagement de conformité en ligne.

 Jusque là, ce type de traitement de données à caractère personnel,  qui concerne à la fois les appelants et les appelés, devait faire l'objet d'une déclaration normale auprès de la Commission Nationale Informatique & Libertés (CNIL). Mais, face au caractère désormais banal de ce type de pratique, la CNIL a décidé d'adopter une norme simplifiée permettant au responsable du traitement de déclarer la mise en place d'un tel système simplement en formulant un engagement de conformité à la norme. Cet engagement de conformité pourra se faire directement en ligne.

Des fins de formation et d'évaluation.

La norme précise que l'écoute et l'enregistrement des conversations d'un salarié ne peut avoir lieu qu'à des fins d'amélioration de la qualité du service, propos ou d'évaluation des employés. Un salarié pourra donc se voir reprocher une mauvaise exécution de son contrat de travail dans le cadre d'une conversation téléphonique qui aura fait l'objet d'une écoute. Cependant, il est important de noter que ces écoutes ne pourront pas être systématiques, y compris à des fins probatoires.

Accès et conservation limité.

Seules certaines personnes pourront avoir accès aux données ainsi collectées, c'est à dire celles chargées de la formation des employés, de leur évaluation et de l'évaluation de la qualité des services. Et ces données ne pourront être conservées que pendant une durée limitée, "la durée pertinente au regard de la finalité justifiant leur traitement", sans excéder six mois pour les enregistrements et un an pour les comptes rendus et les grilles d'analyse.

Obligations d'information.

Les employés, comme leurs interlocuteurs devront être informé : 
-De la possibilité de ces écoutes.
-De l'identité du responsable de leur traitement.
-De la finalité poursuivie par le traitement.
-De la catégorie des données traitées.
-Des destinataires ou les catégories des destinataires de ces données.
-Des droits d'accès, de rectification ou d'opposition qui doivent pouvoir être exercés avant la fin de la collecte des données
-Des cas de transfert de ces données personnelles dans un Etat non membre de l'Union Européenne.
Soyez attentifs lors de vos prochains appels vers une plate-forme client.

 Souple mais cadrée.

Si la norme simplifiée assouplit les procédures de mise en place d'écoute des conversations téléphoniques sur le lieu de travail, ces écoutes sont aussi plus précisément encadrées qu'elles ne l'étaient . Il est à noter que le non respect des dispositions de la norme est sanctionnée par cinq ans d'emprisonnement et 300 000 euros d'amende (jusqu'à 1 500 000 euros pour les personnes morales).


Sources : 

[1] Le Journal du Net : "Les écoutes téléphoniques sur le lieu de travail régulées par la CNIL  [en ligne] 23/01/2015 [consulté le 26/01/2015]

[2] Net-Iris, le Droit à l'Information Juridique : "Ecoute sur le lieu de travail, une nouvelle forme simplifiée à adopter"", [en ligne] 23/01/2015 [consulté le 26/01/2015]

[3] cnil.fr, "Enregistrement des écoutes sur le lieu de travail, nouvelle norme simplifiée", [en ligne] 21/01/2015 [consulté le 26/01/2015]


Pour aller plus loins : 

Pour consulter la norme simplifiée relative à la mise en place des écoutes sur le lieu de travail :

Société de données, statistique et positivisme

Derrière l’idée selon laquelle notre monde est dorénavant gouverné par les données, il y a celle que la statistique ou les différents modes d’exploitation de ces données nous gouvernent. Et même si l’on peut faire dire tout et son contraire à des données selon la façon de les traiter, la statistique n’en est pas moins un outil de pouvoir très puissant…

 

Si ce constat incite à mettre encore davantage en doute chaque chiffre avancé par les institutions ou groupes politiques, il ne doit pas pour autant placer la statistique aux oubliettes des outils de communication. C’est plutôt une vision positive de l’usage des mathématiques sur les données qu’ont voulu mettre en avant les auteurs de Statactivisme, Comment lutter avec les nombres (1).

Statistique rime avec arme critique


Cet ouvrage - paru en mai 2014 - regroupe les contributions de scientifiques, artistes et militants (2). Ils y déclinent des moyens de s’approprier les nombres avec, par exemple, l’idée de "quantifier contre les chiffres", comme le propose Damien de Blic lorsqu'il relate une tentative d'estimation du coût que peuvent représenter pour l'Etat les expulsions des sans-papiers. De fait, comme les données sont souvent accessibles à tous grâce aux multiples initiatives d'Open Data, chacun peut s’en emparer et ainsi mieux comprendre les données avancées pour servir les arguments politiques. Le propos de "Stat-activisme" incite finalement le citoyen à (re)prendre possession du pouvoir qu’il pourrait avoir avec les nombres (3).

De nouveaux concepts pour de nouvelles représentations


Une autre voix positive s’élève face aux données, celle de Lev Manovitch, penseur du numérique russe émigré aux Etats-Unis, interviewé en juin dernier pour l'émission de France Culture "Place de la toile" (4). Selon l’auteur du Langage des nouveaux médias, même si le nombre infini de variables que font surgir les données est fragilisant pour les sociétés, ces dernières sont à même de faire émerger de nouvelles représentations. En effet, les notions de classe, de genre ou d'ethnie pourraient devenir d’obsolètes preuves de l’altérité qui laisseraient la place au croisement de nouveaux critères comme les goûts, pratiques culturelles, mobilités, etc. Et peut-être que les sociétés s'en porteraient mieux.


----------
(1) Statactivisme. Comment lutter avec les nombres, Isabelle Bruno, Emmanuel Didier, Julien Prévieux, Editions La Découverte, Zones, Paris, 2014. http://www.editions-zones.fr/spip.php?page=lyberplayer&id_article=184

(2) "Statactivisme, comment lutter avec les nombres", 25 juin 2014, Blog J'ai du bon data sur LeMonde.fr, Alexandre Léchenet. http://data.blog.lemonde.fr/2014/06/25/statactivisme-comment-lutter-avec-les-nombres/

(3) "Statactivisme, comment lutter avec les nombres", juin 2014, Alternatives Economiques n° 336, Igor Martinache. http://www.alternatives-economiques.fr/stat-activisme--comment-lutter-avec-des-nombres_fr_art_1302_68422.html

(4) "Une société de données, ce n'est pas comme une société de statistiques", 26 juin 2014, France Culture. http://www.franceculture.fr/emission-ce-qui-nous-arrive-sur-la-toile-une-societe-de-donnees-ce-n-est-pas-comme-une-societe-de-st

mercredi 21 janvier 2015

Google modifie son Knowledge Graph et renforce sa domination sur les Linked Data

Le  16 décembre dernier, Google surprenait en annonçant la fermeture du service Freebase pour juin 2015 et le transfert des informations sur le site Wikidata [1]. La semaine passée, le géant mondial indiquait avoir complètement revu son outil de test d'affichage des données structurées et balises sémantiques [2]. Bien que difficilement lisibles, ces deux évolutions notables pour l'outil sémantique de Google, le Knowledge Graph, suggèrent une volonté hégémonique pour le web de données.


Disparition programmée de Freebase, base de données sémantique open source


Souvent méconnu, le Knowledge Graph est pourtant utilisé quotidiennement. Lancé aux Etats-Unis en mai 2012 (puis en France 8 mois plus tard), il s'agit d'un outil sémantique qui permet, grâce aux données liées, l'affichage d'une véritable fiche d'identification dès la page de résultats d'un moteur de recherche (SERP en anglais).


Exemple de Knowledge Graph :


Actuellement, le système repose sur diverses sources (CIA World Factbook, Banque Mondiale...) et sur le service Freebase, une base de données d'entités nommées acquise par Google en 2010 auprès de la société Metaweb. Constituée de métadonnées culturelles, cette base est libre d'accès et distribuée sous licence Creative Commons. De nombreux professionnels du référencement naturel (SEO) agissent sur le Knowledge Graph en éditant leurs données au travers de Freebase.

Le 16 décembre dernier, à la suprise quasi-générale, Google annonçait que Freebase allait transférer ses données sur Wikidata (via un import prévu pour mars 2015) puis fermer en juin 2015. Parallèlement, Google ouvrira l'accès à son Knowledge Graph via une API qui se substituera à celle de Freebase (propriétaire) et au widget de suggestions.


Wikidata, futur bénéficiaire des données Freebase

Lancé au printemps 2013 par la Wikimedia Foundation, Wikidata est une base de données collaborative, commune à toutes les déclinaisons de Wikipedia.

À l'inverse de DBpedia, qui extrait des données de Wikipedia pour en proposer une version structurée au format du web sémantique, les données de Wikidata proviennent de la communauté et de sources externes (par exemple VIAF ou ORCID). Wikidata offre ainsi des données normalisées pour enrichir Wikipedia et en faciliter la mise à jour [4]. Pour visualiser les potentialités de Wikidata, l'exemple des items de Wikidata pour "John Sebastian Bach" est particulièrement éclairant [5].

Si, dès l'origine, Google finançait un quart du projet (Paul Allen, le cofondateur de Microsoft, apportant la moitié des fonds), un tel rapprochement marque une forme de reconnaissance pour le projet communautaire. 

Pour Wikidata, l'ajout des 40 millions d'entités (topics) de Freebase aux 12 millions déjà disponibles posera sans doute de sérieuses difficultés. Et la différence de culture entre les deux structures, par exemple pour la validation des données, présente un risque non négligeable. À l'inverse, la disparition progressive de DBpedia semble quasi inéluctable. Bien que ses URI soient encore largement utilisés comme lien de référence, DBPedia ne pourra en effet guère lutter contre une source aussi vaste, riche et vivante que Wikidata.


Comment interpréter la stratégie de Google ?

Le calendrier très court pour la migration des données comme pour le lancement d'une nouvelle API a surpris de nombreux acteurs du web de données. Ceux-ci s'interrogent sur le rôle de chevalier blanc des Linked Data dont se pare Google, qui devient le premier contributeur et usager de Wikidata.

Dans un article publié sur son blog Data Liberate, Richard Wallis considère la manœuvre de Google comme un symptôme de la maturité du Knowledge Graph, désormais essentiel à l'infrastructure Google : "Ils ont utilisé Freebase pour fertiliser le Knowledge Graph. Les semences ont donné un jeune arbre alimenté par les sources jumelles des recherches Google et par les riches nutriments tirés des données structurées Schema.org intégrées à des millions de pages web. Pour suivre l'analogie, le semis Freebase, comme un projet/marque autonome, ne correspond plus à l'arbre unifié des connaissances que Google est en train de bâtir." [6]

Google semble entretenir le flou sur la future API. Sera-t-elle fondée sur Wikidata ou bien directement sur le Knowledge Graph ? Aura-t-elle un langage de requêtes propriétaire comme Freebase ?
On peut supposer que le classement (ranking) des entités constitue l'essentiel de la valeur ajoutée de l'API Freebase actuelle. Même si l'algorithme du score de pertinence pourra probablement être proposé dans une API Wikidata alternative, il faudra bien passer par l'API Google pour bénéficier du ranking lié au "popularity score" [7]. Ici, rien de nouveau : la valeur ajoutée de Google fleurira sur les données produites par d'autres.

D'autre part, malgré les efforts redoublés de Google pour favoriser la structuration des données [8], Wikidata est sans doute le "Wolfram Alpha killer" idéal sur lequel s'appuyer [9].

Au final, loin d'indiquer un désintérêt de Google pour les Linked Data, l'interruption de Freebase montre combien le web de données est au centre de sa stratégie, avec une ambition hégémonique renforcée. Don't be evil ?




[1] Jason Douglas. Announcement: From Freebase to Wikidata. Google [en ligne]. 16 décembre 2014. Disponible à l'adresse : https://groups.google.com/forum/#!topic/freebase-discuss/s_BPoL92edc

[2] New Structured Data Testing Tool, documentation, and more. Google [en ligne]. 15 janvier 2015. Disponible à l'adresse : http://googlewebmastercentral.blogspot.fr/2015/01/new-structured-data-testing-tool.html

[3] Olivier Andrieu. Knowledge Graph : Google lance son outil sémantique en France. Abondance [en ligne]. 5 décembre 2012. Disponible à l'adresse : http://www.abondance.com/actualites/20121205-12097-knowledge-graph-google-lance-son-outil-semantique-en-france.html

[4] Julien L. Wikidata veut faciliter la mise à jour de Wikipédia. Numérama [en ligne]. 31 mars 2012. Disponible à l'adresse : http://www.numerama.com/magazine/22208-wikidata-veut-faciliter-la-mise-a-jour-de-wikipedia.html

[5] Outil Reasonator. [en ligne]. Consulté le 21 janvier 2015. Disponible à l'adresse : http://fr.wikipedia.org/wiki/Wikip%C3%A9dia:Reasonator

[6] (Traduction par le rédacteur). Richard Wallis. Google Sunsets Freebase – Good News For Wikidata? Data Liberate [en ligne]. 17 décembre 2014. Disponible à l'adresse : http://dataliberate.com/2014/12/google-sunsets-freebase-good-news-for-wikidata/

[7] Freebase API Search Cookbook. [en ligne]. Consulté le 21 janvier 2015. Disponible à l'adresse : https://developers.google.com/freebase/v1/search-cookbook#scoring-and-ranking

[8] New Structured Data Testing Tool, documentation, and more. Google [en ligne]. 15 janvier 2015. Disponible à l'adresse : http://googlewebmastercentral.blogspot.fr/2015/01/new-structured-data-testing-tool.html

[9] Anne-Claire Norot. Les moteurs de recherche auront-ils bientôt réponse à tout ? Les Inrocks [en ligne]. 23 juin 2012. Disponible à l'adresse : http://www.lesinrocks.com/2012/06/23/medias/les-moteurs-de-recherche-auront-ils-reponse-tout-11269861/
 

Droit d'auteur: vers une législation plus ouverte?



L'eurodéputée du Parti Pirate Julia Reda, chargée par le Parlement Européen d'établir un rapport [1] concernant la mise en œuvre de la directive européenne 2001/29/CE sur l'harmonisation de certains aspects du droit d'auteur et des droits voisins dans la société de l'information, présente ce mardi le résultat de ses travaux en commission. Le texte est favorable à un assouplissement de la législation, notamment en faveur des entreprises, de l'éducation ou de la recherche. De manière générale, il préconise la limitation des barrières concernant les échanges de données (autorisation du Data Mining et du Text Mining sous certaines conditions) ou l'exploitation dans le cadre du domaine public.

Une directive controversée


Ces propositions correspondent globalement à la ligne politique prônée par le Parti Pirate, qui rejoint celle de la Quadrature du Net en France [2], qui considèrent toutes deux que la législation actuelle favorise trop les ayants droit. S'ils ne sont pas hostiles au droit d'auteur en soi, le Parti Pirate et la Quadrature du Net en défendent néanmoins une conception beaucoup plus ouverte, en lien avec une conception démocratique et égalitaire de la circulation de l'information Internet. Le texte de la directive est extrêmement large, et prévoit un certain nombre d'exceptions [3]. La manière dont le texte sera appliqué aura de nombreux impacts sur la circulation des données, et renvoie indirectement à des enjeux importants, en lien avec le Big Data ou l'Open Data.

Le Data Mining, enjeu principal


En effet, les propositions de Julia Reda vont directement dans le sens d'une réutilisation accrue des informations publiques, réutilisation pour le moment encadrée par une directive de 2013 [4]. Ces informations publiques pourraient être réutilisées  pour des usages dans le cadre du Data Mining, ce qui aurait un intérêt économique évident. Ces usages sont en effet limités par le droit d'auteur actuellement, et l'Union Européenne avait déjà pointé dans une étude la nécessité d'adopter plus de flexibilité [5] pour favoriser l'innovation. Toutefois, il s'agirait ici de limiter les exceptions au domaine de la recherche. Le Data Mining et le Big Data prennent une importance croissante dans la stratégie et le développement des entreprises, et ces données vont constituer un enjeu économique majeur dans les années à venir.







[1] Article "Droit d'auteur: les propositions du rapport de l'eurodéputée Julia Reda" publié sur Numerama.com, 19 janvier 2015. Lien:
http://www.numerama.com/magazine/31920-droit-d-auteur-les-propositions-du-rapport-de-l-eurodeputee-pirate-julia-reda.html

[2] "Réforme du droit d'auteur: le Parlement européen doit suivre le rapport Reda!", publié sur laquadrature.net, 20 janvier 2015. Lien:
https://www.laquadrature.net/fr/reforme-du-droit-dauteur-le-parlement-europeen-doit-suivre-le-rapport-reda

[3] "Droit d'auteur et droits voisins dans la société de l'information", synthèse de la directive publiée sur europa.eu, dernière modification le 4 juillet 2011. Lien:
http://europa.eu/legislation_summaries/information_society/data_protection/l26053_fr.htm

[4] "Réutilisation des informations publiques (Open Data): aspects juridiques", publié par Les Infostratèges, novembre 2014.
http://notre-offre.les-infostrateges.com/files/file/Ed-Extraits/Extraits-REU-PUB.pdf

[5] "Data Mining: une étude pointe les obstacles du droit d'auteur en Europe" paru dans Numerama.com, 11 avril 2014. Lien:
http://www.numerama.com/magazine/29061-data-mining-une-etude-pointe-les-obstacles-du-droit-d-auteur-en-europe.html

mardi 20 janvier 2015

Google Glass, c'est fini... ou pas !


Dans un communiqué de presse officiel diffusé sur Google + [1], la firme américaine annonce la fermeture de son "Explorer Program" le 19 janvier 2015.

En mettant en avant l'explosion du marché des objets connectés, Google déclare que les Google Glass ont désormais passé le stade de l'expérimentation et qu'elles doivent, aujourd'hui, passer du "concept à la réalité".

Le site internet Presse-Citron précise que Tony Fadell, fondateur et CEO de Nest (société rachetée par Google en 2014) devrait travailler sur une nouvelle version des Google Glass. Elle pourrait être lancée avant la fin de l'année 2015 [2].

Derrière cette nouvelle stratégie de développement se cachent plusieurs difficultés :

 L'opinion du grand public


Ce dernier n'a pas cerné l'utilité de cet objet connecté dans sa vie quotidienne et l'a jugé inesthétique.
Les personnes ont principalement retenu la possibilité d'être espionné par leur voisinage et sont, par conséquent, inquiètes sur la protection de leur vie privée comme l'explicite Daniel Ichbab (écrivain et journaliste, spécialisé dans les jeux vidéo, les nouvelles technologiques, la musique et la production musicale) dans une interview accordée au site internet Atlantico [3]. 

Quelques dysfonctionnements techniques :

 

Les Google Glass ne seraient pas techniquement optimisées. Selon Milan Boisgard, cofondateur du site GoGlasses.fr,  la durée de vie de la batterie serait limitée et  ne permettrait qu'une autonomie maximale d'une demi-journée. Il suggère, à titre d'exemple, "d'ajouter une led qui s’allume lorsque les Google Glass sont en train de filmer" [4]


Malgré la volonté affichée de Google de poursuivre l'aventure "Google Glass", une question reste en suspens pour les médias : "est-ce que le géant américain va réussir à relever ce nouveau défi ?".


[1] Communiqué de presse de Google. 19, janvier 2014. Disponible à l'adresse : https://plus.google.com/+GoogleGlass/posts/9uiwXY42tvc

[2] Fredzone. Google va mettre un terme au programme Glass Explorer. PresseCitron [en ligne]. 16 janvier 2015. Disponible à l'adresse : http://www.presse-citron.net/google-va-mettre-un-terme-au-programme-glass-explorer/

[3] Daniel Ichbab. Pourquoi les Google Glass ont fait un flop. Atlantico [en ligne]. 19 janvier 2015. Disponible à l'adresse : http://www.atlantico.fr/rdv/minute-tech/pourquoi-google-glass-ont-fait-flop-daniel-ichbiah-1962110.html/page/0/1

[4] Amandine Schmidt. Pourquoi Google retire ses Google Glass de la vente ?. Le Cahier des tendances de l'Obs [en ligne]. 20 janvier 2015. Disponible à l'adresse : http://obsession.nouvelobs.com/high-tech/20150119.OBS0293/pourquoi-google-retire-ses-google-glass-de-la-vente.html

mercredi 14 janvier 2015

Lutte contre le terrorisme et surveillance numérique


Suite aux attentats perpétrés la semaine dernière dans la capitale, plusieurs politiques réclament des moyens supplémentaires pour contrer et surveiller les réseaux terroristes présents sur Internet. Qu'en est-il de l'arsenal législatif aujourd'hui ?

Apologie du terrorisme sur Internet


Plusieurs milliers de messages publiés sur les réseaux sociaux soutenant les auteurs des attentats réalisés la semaine dernière, avec en particulier le hashtag #JesuisKouachi, ont été signalés sur la plateforme de signalement Pharos[1], gérée par la police nationale. Le Premier ministre Manuel Valls a déclaré au lendemain des attaques : "Je ne veux plus que, sur Internet, on puisse avoir ces mots effrayants de haine" [2]. Plusieurs auteurs de ces publications ont été arrêtés et condamnés cette semaine, dont un à un an de prison ferme, suite à une vidéo postée sur Facebook. En faisant l’apologie du terrorisme sur Internet, les auteurs risquent depuis la loi du 13 novembre 2014 sept ans de prison et 100 000 euros d’amende [3].

Blocage des sites


Concernant certains sites internet qui contiennent des contenus illicites (propagande, vidéos appelant à commettre des actes de terrorisme, ...), il est désormais possible de les bloquer sur demande d'une autorité administrative et ce, sans passer par un juge. Le fournisseur d'accès à internet devra alors s'exécuter sans délais. Le projet de décret de la loi d'orientation et de programmation pour la sécurité intérieure (LOPPSI 2) a été notifié en urgence à Bruxelles suite à "l’accélération des phénomènes constatés de radicalisation par l’usage d’internet". Ce décret sera publié au Journal Officiel prochainement, après avoir été lu par les autres États Européens [4].

Recueil des données de connexion


Il est également possible de recueillir des informations cruciales échangées par les personnes suspectées de terrorisme elles-mêmes. Suite à la publication du décret le 24 décembre 2014, la loi de programmation militaire (LPM) est entrée en application le 1er janvier 2015 [5].  Le controversé article 20 légalise la demande de données liées, entre autres, à la "prévention du terrorisme". Il s'agit de données concernant les données de connexion (identité de la personne, date et heure de communication, etc ...). Les données sont conservées pour une durée maximale de trois ans. Mais suite aux protestations de la CNIL, la DGSE, la DGSI ou tout autre service de renseignement n'auront pas la possibilité d'installer des logiciels d’espionnage de manière intensive sur les réseaux des opérateurs comme prévu dans un premier temps. Ces données seront d'abord recueillies par les opérateurs eux-mêmes, puis transmises aux services concernés.

Protestations et pistes


A travers le recueil de données personnelles et la suppression de contenus, plusieurs voix s'élèvent contre ce "Patriot Act à la française" [6] et dénoncent une atteinte aux libertés individuelles, voire une censure.
D'autres mettent en avant le fait que les auteurs des attentats terroristes commis sur le sol français ces dernières années auraient eu une utilisation restreinte d'Internet pour passer à l'acte, ces derniers ayant reçu avant tout une "formation" directe en prison au contact de co-détenus radicalisés [7]. De plus, le blocage des sites incriminés pourrait supprimer des informations potentiellement utiles aux policiers, qui s'infiltrent sur ces sites et récoltent ainsi de précieuses informations.
Enfin, plusieurs spécialistes lancent d'autres pistes permettant de lutter contre le terrorisme sur internet. Benoît Thieulin, président du Conseil national du numérique, souhaite une éducation civique numérique, pour apprendre aux jeunes à exercer un regard critique et citoyen envers les messages publiés sur les réseaux sociaux [8].

Sources


[1] Ministère de l'Intérieur. Portail officiel de signalement de contenus illicites de l'Internet.https://www.internet-signalement.gouv.fr/PortailWeb/planets/Accueil!input.action (consulté le 14/01/2015).

[2] Jean-Baptiste DIEBOLD. [en ligne le 13/01/2015]. La question de la surveillance du net à nouveau sur la table. http://www.challenges.fr/politique/20150112.CHA2156/la-question-de-la-surveillance-du-net-a-nouveau-sur-la-table.html?utm_content=buffer4cfc3&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer (consulté le 14/01/2015)
 
[3] LOI n° 2014-1353 du 13 novembre 2014 renforçant les dispositions relatives à la lutte contre le terrorisme (1)
http://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000029754374&dateTexte=&categorieLien=idhttp://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000029754374&dateTexte=&categorieLien=id (consulté le 14/01/2015)

[4] Marc REES. [en ligne le 9/01/2015]. Le blocage des sites administratifs est sur la rampe. http://www.nextinpact.com/news/91534-le-decret-l-article-20-lpm-publie-on-fait-point.htm (consulté le 14/01/2015).

[5] Pascal SAMAMA. [en ligne le 12/01/2015]. Terrorisme : les armes du gouvernement pour surveiller et filtrer Internet. http://pro.01net.com/editorial/640701/terrorisme-les-armes-du-gouvernement-pour-surveiller-et-filtrer-internet/ (consulté le 14/01/2015).

[6] William ANDUREAU. [en ligne  le 13/01/2015] . " Le Patriot Act à la française, on n'en est pas loin." http://www.lemonde.fr/pixels/article/2015/01/13/patriot-act-a-la-francaise-il-est-important-de-garder-la-tete-froide_4555146_4408996.html (consulté le 14/01/2015).

[7] Damien LELOUP. [en ligne le 12/01/2015] Paris, Bruxelles, Toulouse, la radicalisation des terroristes n'a pas eu lieu sur le web. http://www.lemonde.fr/pixels/article/2015/01/12/paris-bruxelles-toulouse-la-radicalisation-des-terroristes-n-a-pas-eu-lieu-sur-le-web_4554384_4408996.html?utm_source=dlvr.it&utm_medium=twitter#xtor=RSS-3208  (consulté le 14/01/2015).

[8] Le Décodeur du numérique. [en ligne le 12/01/2015] Benoit Thieulin : « Accuser internet, les réseaux sociaux ou les algorithmes de tous les maux n’avance pas à grand chose.

Le digital labor ou le travail exploité des internautes

Bien que le numérique soit de plus en plus important dans les lieux de travail, la plus grande partie de nos activités sur internet demeurent de type "personnel" et ludique. Pour la plupart des usagers, naviguer sur le net représente un moyen gratuit et rapide de satisfaire des exigences personnelles. Cette relation avec internet a permis de répandre l'image d'un "réseau" dans lequel la mise en commun de service primait sur la propriété privée et la centralisation du savoir.

Néanmoins cette "gratuité" et cette "mise en réseau" sont rendues possibles par des grandes sociétés du web qui voient leurs bénéfices s'accroître exponentiellement. Le développement du système de stockage et d'algorithmes de plus en plus puissants fait en sorte que chacun de nos gestes d'internaute devienne une donnée que nous fournissons gratuitement aux entreprises qui les exploitent pour continuer à faire augmenter leurs bénéfices. [1]
 
À partir de cette réflexion sur les big-data et leur exploitation marchande, en 2012, Trebor Scholz a commencé à parler de "digital labor". Or, si le cas de l'exploitation des données personnelles que l'on fournit spontanément est le plus évident, le "digital labor" fait référence à toutes ces activités des internautes dont les entreprises du numérique se servent pour créer de la valeur [2].

L'exemple le plus étonnant est celui du logiciel  Re-CAPTCHA. CAPTCHA est un système conçu par l'université Carnegie-Mellon afin de distinguer les opérateurs humains des machines. En demandant à l'utilisateur, lorsque celui-ci veut accéder à certains services, de retranscrire une série de signes indéchiffrables pour une machine, il évite la création automatique de messages commerciaux [3]. Le système est plutôt efficace, mais les machines peuvent être facilement entraînées à reconnaître des signes si on les déchiffre une première fois pour elles. Des sociétés indiennes ont ainsi commencé à employer des centaines d’humains pour déchiffrer des milliers de cryptogrammes afin de contourner CAPTCHA. En partant de ces expériences illégales, on a pensé qu’en collectant toutes les saisies réalisées par les utilisateurs sur le web il serait possible d'entraîner des logiciels à reconnaître tout type de signes. Cela a donné naissance à Re-CAPTCHA que le géant de la numérisation de livres, Google books, a immédiatement racheté. [3] 

Ainsi non seulement lorsqu’on fournit des informations, mais aussi lorsqu’on tape un cryptogramme ou lorsqu’on recherche un mot dans un livre numérisé, on crée de la valeur. Autrement dit, on travaille pour une entreprise, travail qui n’est toutefois ni rémunéré ni encadré. C’est à partir de cette réflexion que le sociologue Antonio Casilli parle d’une nouvelle forme d’exploitation. Mais il faut dire que celle-ci reste difficilement cernable puisque les activités dans lesquelles la valeur est confisquée sont inscrites dans la sociabilité quotidienne des individus [1]. Quels peuvent donc être les droits de cette activité productive inhérente à l’activité sociale ? [4]
 
En effet bien que certains acteurs du numérique soulignent la contrepartie de services gratuits, selon Casilli, au regard des énormes profits et de l'appauvrissement des classes moyennes, la redistribution de la valeur dans le numérique est très inégalitaire. À ce propos, certains auteurs proposent la mise en place de micro-royalties pour rémunérer nos clics, mais selon Casilli cela serait insuffisant puisque la valeur d'une donnée est indéterminable en absolu. [1] Le chercheur propose au contraire la mise en place d'un revenu inconditionnel universel qui détacherait définitivement le revenu de l'activité travail. 

Le "digital labor" avec son système de captation de la valeur dans les activités ludiques et sociales des individus, apparait donc comme le signe d'une plus large crise de la société salariale due à une perméabilité croissante entre activité productive et vie quotidienne.

Sources:
[1] X. Bonnefond et J. Chouraqui, «"Le digital labor est conçu pour ne pas avoir l'apparence d'un travail". L'exploitation du moindre clic par l'industrie numérique. Entretien avec Antonio Casilli », Jef Klak: critique sociale et expériences littéraires (en ligne), mis en ligne 15 janvier 2015, http://jefklak.org/?p=1467 (consulté le 14 janvier 2015)

[2] A. Casilli, "Qu'est-ce que le digital labor?, BodySpaceSociety (en ligne), mis en ligne 1 avril 2013, http://www.bodyspacesociety.eu/2013/03/26/slides-quest-ce-que-le-digital-labor/ (consulté le 14 janvier 2015)

[3] X. De la Porte, "ReCaptcha: nous travaillons tous pour google", Internet Actu.Net (en ligne), mis en ligne 24 février 2014, http://www.internetactu.net/2014/02/24/recaptcha-nous-travaillons-tous-pour-google/ (consulté le 14 janvier 2015) 

[4]  H. Guillaud, "Digital Labor: comment répondre à l'exploitation croissante du moindre de nos comportements?", Internet Actu.Net (en ligne), mis en ligne 12 novembre 2014, http://www.internetactu.net/2014/11/12/digital-labor-comment-repondre-a-lexploitation-croissante-du-moindre-de-nos-comportements/ (consulté le 14 janvier 2015)

lundi 12 janvier 2015

Facebook Copyright Hoax, simple hoax ou phénomène à prendre au sérieux


Dans son article du 10 janvier 2015, Lionel Maurel [1] aborde le sujet du Facebook Copyright Hoax. Le terme hoax désignant un "canular", auquel vous avez sûrement été confronté durant votre utilisation du fameux réseau social.

 Site :  http://scinfolex.com/

L'affaire, cependant, n'est pas récente : elle ressurgit périodiquement souvent en relation avec les évènements liés à l'activité du géant du web qu'est Facebook. Par exemple en Novembre 2012, lors de son changement de sa politique de confidentialité (respect de la vie privée) ou encore en septembre 2014 [2] et enfin en ce début d'année.

Un phénomène minimisé par les professionnels du droit

L'auteur de l'article [1] explique que beaucoup de juristes minimisent ce phénomène de résurgence. Or il serait, selon lui, le signe que les utilisateurs de Facebook accordent une plus grande importance au contrôle de leurs données personnelles. A travers la publication de ce message sur sa page personnelle, l'internaute souhaite indiquer clairement son droit d'auteur sur ce qu'il publie sur sa page. Or ce message n'a pas de poids au niveau légal car il ne s'agit que d'une décision impliquant l'utilisateur. Contrairement à la signature des conditions générales d'utilisation (CGU) signées lors de son inscription sur le réseau social.  

Mais qui pourrait constituer une évolution vers de nouveaux type de licences

A travers la démarche des internautes, on peut y voir une manière d'évoluer vers un type licence style Creative Commons [2]. En fixant les conditions d'exploitations de leurs données, ils pourraient ainsi mieux contrôler la réutilisation de leurs créations (photos et des vidéos publiées). Fortement lié à cette tendance, l'émergence du  « privacyleft »; en France cela s'est traduit par le projet  "Design Your Privacy" [3]. Cela pourrait être une alternative à creuser. Encore faut-il que Facebook puisse accepter une évolution pareille...

Bibliographie

[1] Lionel Maurel : "Pourquoi on devrait prendre au sérieux le « Facebook Copyright Hoax » [en ligne] 10/01/2015.
[Consulté le 12/01/2015]
http://scinfolex.com/2015/01/10/pourquoi-on-devrait-prendre-au-serieux-le-facebook-copyright-hoax/

[2] Xavier De La Porte,  "Tu t’es vu quand t’as signé les conditions générales d’utilisation de Facebook?" [en ligne] 24/09/2015.
[Consulté le 12/01/2015] : http://rue89.nouvelobs.com/2014/09/24/vu-quand-tas-signe-les-conditions-generales-dutilisation-facebook-255037

Pour aller plus lois sur le "Privacyleft" :

[3] Thomas Saint-Aubin : "Design your privacy : pour une licence de partage des données personnelles" [en ligne 22/06/2012]
[Consulté le 12/01/2015] http://www.internetactu.net/2012/06/22/design-your-privacy-pour-une-licence-de-partage-des-donnees-personnelles/

Le recrutement n'échappe pas à la mutation numérique


Les réseaux sociaux sont désormais incontournables pour trouver un emploi. Linkedin, Facebook, Twitter font jeu égal avec les sites d'offres d'emploi et de recrutement. 56 % des recruteurs utilisent les réseaux sociaux [1].
La concurrence entre les réseaux sociaux fait rage. Facebook envisage même de créer une version professionnelle de son site. Le projet "Espri" engagé par l'Agence Nationale de la Recherche (ANR) tente de cerner ce phénomène. Dans son étude l'ANR confirme l'influence  des réseaux sociaux et notamment de Facebook dans le processus de recrutement.

Le recrutement est aussi une affaire de prédiction algorithmique.
Le croisement des données personnelles avec celles de l’entreprise permet de gagner en efficacité. 34 % des recruteurs interrogés estiment leur efficacité "plutôt bonne" voire "excellente"[1].
Cette transformation répond aussi à une composante financière. Le coût du recrutement est allégé. Autre avantage, la qualité . Des sociétés comme L'Oréal ou Orange affirment que les candidatures sont mieux ciblées et en accord avec les offres de poste.
C’est avant tout un changement de stratégie : "Avant, on sélectionnait passivement des candidats en recherche active. Aujourd’hui, on sélectionne activement des candidats en recherche passive" (Hervé Bouche, Responsable Recrutement Poclain Hydraulics) [1].
Toutefois les entreprises devront faire preuve d’innovation pour recruter les meilleurs face à la concurrence.

Nouveauté : l’entretien d’embauche connecté
Pratique tout droit venue d’Amérique du Nord,  l’entretien « en vidéo différée » fait des émules en France .Il s’agit d’un pré entretien d’embauche réalisé en une seule prise. « La forme de l’entretien change, pas le fond »[2].
Encore plus vite, plus sélectif, alors préparez-vous !!

Pour finir les règles à retenir :
Parmi les «best practices »,  le choix pertinent des mots clés et l’actualisation continue de son profil sont indispensables.Enfin, tout ce que vous publiez intéresse votre futur employeur. Il pourra être le sujet d’un débat lors de votre entretien . Au mieux ou au pire vos avis ou commentaires pourront être un jour retenus pour ou contre vous.

[1]Christophe Bys : Recrutement : les réseaux sociaux, meilleurs amis des DRH [en ligne] 7 janvier 2015 [consulté le 12 janvier 2015]

Agence Nationale pour la recherche (ANR): "Vie privée et réseaux sociaux : le projet ESPRI analyse
l'influence de Facebook sur le recrutement" [en ligne] 03 décembre 2014 (consulté le 12 janvier 2015)

[2]Agnès Wojciechowicz : "La nouvelle tendance des entretiens d'embauche vidéo différés"[en ligne] 11 mars 2014 [consulté le 12 janvier 2015]

Dominique Perez : "
Cinq règles d'or pour doper sa carrière grâce aux réseaux sociaux" [en ligne] 05 septembre 2014 [consulté le 12 janvier 2015]

Pour aller plus loin
Fondeur Yannick, Lhermitte France, « Réseaux sociaux numériques et marché du travail », La Revue de l'Ires 3/ 2006 (n° 52), p. 101-131 www.cairn.info/revue-de-l-ires-2006-3-page-101.htm.  

mercredi 7 janvier 2015

La maison connectée et l'exploitation des données personnelles

 MaisonMix à Rennes : un "sprint de prototypage sur la maison de demain"


L'événement MaisonMix (1) qui devait initialement débuter demain à la Maison des Associations de Rennes est reporté aux dates du 26 au 28 mars 2015, la rénovation des locaux qui accueilleront les participants ayant pris plus de temps que prévu.

Si les réalités matérielles s'imposent encore parfois au monde virtuel, ce "sprint de prototypage sur la maison de demain", qui réunira des équipes pluridisciplinaires notamment composées d'experts du bâtiment et de l'habitat, de développeurs, de designers d'usage et d'expérience utilisateur, de spécialistes de la communication et de la diffusion ainsi que de "bricodeurs" et de "facilitateurs", sera l'occasion de nouvelles expérimentations d'applications de l'Internet des objets dans le secteur du BTP.

L'exploitation des données personnelles sera certainement au cœur des problématiques des équipes, comme le souligne la présentation du projet qui cite en exemple les débuts de commercialisation en France du détecteur de fumée "intelligent" développé par l'entreprise Nest récemment rachetée par Google:
"(...) ce qui n’était au départ qu’une alarme incendie devient potentiellement la centrale de gestion domestique de la maison (chauffage, intrusion, usages…), avec les garanties que l’on connaît au sujet de l’exploitation des données par la multinationale américaine. Le logiciel et le design prennent le pas sur le produit final, la réflexion des professionnels doit s’engager verticalement et horizontalement, en ouvrant les systèmes afin de les rendre interopérables, et en réformant son modèle en y intégrant de nouveaux services." (2)

 

Nest : la politique de confidentialité des données personnelles d'une entreprise Google


Le potentiel du marché français est en effet très important pour une entreprise telle que Nest : les détecteurs de fumée seront obligatoires dans les locaux d'habitation à partir du 8 mars 2015 (4) et peu de logements sont à ce jour équipés. Dans ce contexte, proposer un détecteur de fumée et de monoxyde de carbone contrôlable à distance et qui vous alerte sur votre smartphone en cas de danger à votre domicile peut séduire sur le volet sécuritaire mais pose la question des données collectées sur les habitudes de vie et leur exploitation, notamment celles concernant les rythmes d'occupation du logement, d'utilisation d'appareils de chauffage, etc.

Pour Nest, informer sur l'exploitation des données personnelles semble bien une des conditions pour réussir son entrée sur le marché français des objets connectés. En témoignent la mise en ligne sur leur site d'un "énoncé de confidentialité" qui détaille les données collectées par les capteurs (3) et les déclarations du directeur général de Nest Europe, Lionel Paillet, sur ses rapports avec Google :
"Google est un de nos développeurs et peut créer des produits compatibles avec Nest. Mais ils n’ont pas plus accès à nos données que les autres. Google obéit aux mêmes règles de sécurité des informations et de confidentialité." (4)

Dans un contexte de renforcement de la protection des données personnelles au niveau européen et de préoccupations fortes des Français sur la protection de leurs données personnelles (5), le développement du marché de la maison connectée nous informera sur les réalités de ces politiques de confidentialité, autant pour Nest que pour ses futurs concurrents tels que La Poste qui vient d'annoncer sont intention de développer "un pack comprenant une tablette et des objets connectés, dont une prise connectée, une mini-caméra, un détecteur de fumée. La tablette étant notamment destinée à piloter ses objets qui rendent la maison intelligente." (6)

 

Le compteur Linky : des pratiques encadrées par la CNIL


2015 sera également l'année du début du déploiement par ERDF des compteurs électriques communicants Linky qui permettront la réalisation d'opérations à distance et la mesure de la consommation électrique réelle des locaux équipés. Les données collectées par ces compteurs pourraient, comme pour le détecteur de fumée Nest protect, permettre d'en savoir long sur la vie privée des habitants : "une analyse approfondie des courbes de consommation pourrait permettre de déduire un grand nombre d'informations sur les habitudes de vie des occupants d’une habitation : heures de lever et de coucher, heures ou périodes d’absence, la présence d’invités dans le logement, les prises de douche, etc." (7) Le "pack de conformité" publié par la CNIL (8) pour définir les bonnes pratiques dans ce domaine permet de prendre conscience de l'ampleur des données personnelles collectées et exploitées par la maison connectée de demain.

 Pour de nouveaux développements de l'Internet des objets dans le secteur de l'habitat et du BTP, rendez-vous donc en mars à Rennes pour découvrir les prototypes qui seront réalisés par les équipes de MaisonMix ... Pour vous y rendre, à pied, en transports en commun ou en vélo, peut-être testerez-vous l'une des applications mobiles d'initiatives citoyennes labellisées par le service de transports de Rennes Métropole STAR, qui sont issues, quant à elles, de l'appropriation par les Rennais des données publiques ouvertes par la ville (9), preuve que l'Internet des objets est aussi un enjeu citoyen.

Sources

(Consulté le 7 janvier 2015)

(2) Blog MaisonMix. Maison connectée et secteur du bâtiment. (en ligne le 23 octobre 2014)
http://www.maisonmix.io/non-classe/maison-connectee-et-secteur-du-batiment/

(3) Nest. Énoncé de confidentialité - règles en vigueur à partir du 18 septembre 2014. (en ligne)
https://nest.com/ca/fr/legal/privacy-statement/
(Page consultée le 7 janvier 2015)

(4) Julie Guérineau. «La Google house, à présent, c’est nous », Lionel Paillet, Directeur général de Nest Europe. (en ligne le 30 septembre 2014) 
(Page consultée le 7 janvier 2015)

 (5) Fortinet. Fortinet révèle les résultats de l’étude " L’Internet des objets: la maison connectée ". (en ligne le 24 juin 2014)
http://www.fortinet.fr/images/Communiqu_de_presse/2014/IoT_Survey_final_-_vf_24.06.14.pdf
(Page consultée le 7 janvier 2015)

(6) Elsa Bembaron. La Poste se lance à la conquête de la maison connectée. (en ligne le  6 janvier 2015)
(Page consultée le 7 janvier 2015)

(7) CNIL. Énergie : 6 choses à savoir sur les compteurs communicants. (en ligne le 29 septembre 2014)
http://www.cnil.fr/les-themes/argent/article/article/energie-6-choses-a-savoir-sur-les-compteurs-communicants/
(Page consultée le 7 janvier 2015)

(8) CNIL. Pack de conformité : les compteurs communicants. (en ligne : mai 2014)
http://www.cnil.fr/fileadmin/documents/Vos_responsabilites/Packs/Compteurs/Pack_de_Conformite_COMPTEURS_COMMUNICANTS.pdf
(Page consultée le 7 janvier 2015)

(9) STAR. Le STAR et LE vélo STAR sur votre mobile. (en ligne)
http://www.star.fr/fr/services-en-ligne/le-star-en-mobilite/le-star-sur-votre-mobile-et-web.html
(Page consultée le 7 janvier 2015)


Plug in Labs Ouest, nouveau moteur de recherche des laboratoires publics bretons !

Le projet

Le 1er décembre 2014, l’Université Européenne de Bretagne (UEB) a lancé « Plug in labs Ouest», un nouveau moteur de recherche des compétences scientifiques.
Cet outil unique en France permet d’établir une connexion entre les laboratoires et les entreprises du territoire breton. Ce portail cartographie les compétences scientifiques et technologiques du territoire et facilite ainsi les mises en relation entre les partenaires sociaux-économiques et les experts scientifiques de la région. (1)
Une autre plateforme collaborative avait été mise en oeuvre par l'UEB et créée en 2009 : Technosciences (5). Plug in Labs en est le prolongement et propose une évolution par rapport à l'outil initial en proposant de nouvelles fiches de compétences associant les expertises scientifiques et les résultats de la recherche.

Les acteurs du projet

Ce projet innovant est né d’un travail collaboratif mené pendant plusieurs mois entre trois principaux acteurs :
- L’UEB
- La SATT (Société d’Accélération de Transfert de Technologies) Ouest Valorisation
- BDI (Bretagne Développement Innovation)
L’outil a été présenté le 9 décembre à Rennes par L’UEB et la SATT (1)
C’est un projet innovant et qui mobilise un grand nombre de personnes comme le montrent ces quelques chiffres : 123 labos, 327 équipes de recherche, plus de 3500 chercheurs, 155 plateformes technologiques.
Le projet est financé par la région Bretagne, par BDI et par la Délégation régionale à la recherche et à la technologie (DRRT) et la Direction régionale des entreprises, de la concurrence, de la consommation, du travail et de l'emploi de Bretagne (DIRECCTE).

Un outil simple et intuitif

La recherche se fait par mot-clé ou domaines d’innovation. L’administration des données se fait via la plateforme CRAFT (compétences régionales des acteurs par filières et thématiques). Cette plateforme mutualise les informations disponibles sur l’écosystème breton (formation, entreprises, recherche publiques). (2)
Les principales fonctionnalités de l’outil sont : (3)
- recherche simple par mots clés (combinaison possible de plusieurs mots clés) et affichage des résultats par pertinence ou recherche par domaines
- présentation des fiches labos dans « expertise scientifique »
- une gestion des labos « favoris » et un historique des recherches
- une communauté d’utilisateurs de l’outil
L'interface est pour l'instant en français mais va évoluer au cours de l'année 2015 en présentant une version en anglais.

Les objectifs

Pourquoi un tel outil ?  Plug in Labs permet tout d'abord de mutualiser la connaissance, de créer des synergies au service de l’innovation, de corréler les besoins des entreprises avec les formations proposées, de réunir les acteurs régionaux autour d’une thématique commune. C'est aussi un outil d’aide à la décision et un véritable outil de sourcing (par les ressources proposées). Enfin c’est un bon moyen de donner de la visibilité aux principaux acteurs, chercheurs, à la Recherche scientifique et ça permet de renforcer l’attractivité des filières et de rendre le territoire dynamique.

Encore une fois, la Bretagne est à la pointe de l’innovation ! Bon vent à ce nouvel outil !

Visitez le site :

Sources :

(1) Bretagne développement innovation. Plug in labs Ouest, le nouveau moteur de recherche des laboratoires de recherche publics de Bretagne [en ligne le 8 décembre 2014].
(Page consultée le 7 janvier 2015)

(2) Bretagne développement innovation. Lancement du site Plug in labs par l’université européenne de Bretagne [en ligne le 25 novembre 2014].
(Page consultée le 7 janvier 2015)

(3) Université européenne de Bretagne. Plug in Labs Ouest, le nouveau moteur de recherche des laboratoires de recherche publics de Bretagne est en ligne ! [en ligne]
(Page consultée le 7 janvier 2015)

(4) Ouest valorisation. Lancement de Plug in labs Ouest, dossier de presse. [en ligne]
(Page consultée le 7 janvier 2015)

(5) Rennes Atalante Technopole. Plug in Labs Ouest, moteur de recherche des laboratoires publics bretons [en ligne le 12 décembre 2014].
(Page consultée le 7 janvier 2015).