mardi 29 janvier 2019

Et si Windows Core ouvrait la fenêtre ?

Il n’y a pas si longtemps (quelques années), Microsoft menait ses troupes au combat (1) contre l’Open Source (2). Un temps qui semble révolu et un signal faible qui tend à prouver que la hache de guerre est en train de définitivement s’enterrer.


Libre pour usage commercial
Pas d'attribution requise
L’information est à prendre avec de grandes précautions, mais depuis quelques jours, le profil Linkedin de Corey Steward (3) arbore dans sa dernière expérience une amélioration des postures de sécurité des éléments Open Source exploités dans Windows Core OS.

Ce signal faible n’est pas le premier, en effet  thebear424  (4), un illustre inconnu de la toile, a posté sur le forum de Microsoft en janvier 2018 cette même information accompagnée de quelques précisions. Il explique notamment que ce nouvel OS serait le noyau nécessaire au déploiement de Windows sur n’importe quel périphérique (5) et ainsi, permettre à Microsoft de venir marcher sur les plates bandes d’Androïd (Google).

Ce virage semble tout à fait cohérent depuis l’arrivée de la nouvelle PDG de Microsoft  Satya Nadella (1) selon Raghu Ramakrishnan  (6), chercheur dans la gestion des bases de données et boursier technique de Microsoft. Ces propos ont d’ailleurs pu se vérifier par le rachat de GitHub par Microsoft en 2018 et suscité une grande inquiétude dans la communauté des utilisateurs de la plateforme (7).

Pas étonnant, à lire Les Echos, les avantages sont nombreux à exploiter ces solutions Open Source . Coût, personnalisation, sécurité, flexibilité (8)...
Un autre exemple concret de business avec de  l’Open Source  vient d’une célèbre application nommée  Waze . La carte utilisée pour programmer les trajets est produite par Openstreetmap , un logiciel Open Source  avec contribution communautaire qui supporte le succès de cette application. (9) Google s’est d’ailleurs emparé de la petite application pour 1.15 Milliards de dollars en 2013 (10). 

Openstreetmap est d’ailleurs un projet initialement financé par la Fondation Free, qui a également financé d’autres projets connus comme VLC  ou  Linuxfr  (11), Xavier Niel est derrière cette initiative et la Freebox n’est pas en reste pour exploiter les richesses de  l’Open Source  (12).

D’autres financements sont possibles, les participatifs tels que Liberapay (13), les contributions communautaires comme celles de Wikipédia ou public, indirectement par la Recherche Universitaire.

Nous l’avons vu, l’Open Source peut être rentable et, selon une étude de 2017 de Syntec Numérique, cette solution est deux fois plus dynamique que l’ensemble du marché numérique français avec un taux de croissance annuel moyen de 8,1%. Et cocorico, la France est leader, elle obtient 23% du marché Open Source  en Europe pour 4.46 milliards d’euros cette année-là (14).


Sources :

1. FÉVRIER 2018, Par Louis Adam | Mercredi 28. Pourquoi l’open source est si important pour Microsoft. ZDNet France [en ligne]. [Consulté le 24 janvier 2019]. Disponible à l’adresse : https://www.zdnet.fr/actualites/pourquoi-l-open-source-est-si-important-pour-microsoft-39864770.htm Le CTO Data de Microsoft nous a parlé de l’importance croissante de l’open source, sachant que Microsoft est aujourd’hui l’un de ses plus gros contributeurs.

2. Open source. Wikipédia [en ligne]. 2018. [Consulté le 24 janvier 2019]. Disponible à l’adresse : https://fr.wikipedia.org/w/index.php?title=Open_source&oldid=155121176Page Version ID: 155121176

3. Corey Steward | LinkedIn. [en ligne]. [Consulté le 24 janvier 2019]. Disponible à l’adresse : https://www.linkedin.com/in/corey-steward-b44b48162/

5. thebear424. Windows Core OS - an open-source operating system platform to beat AOSP. [en ligne]. [Consulté le 24 janvier 2019]. Disponible à l’adresse : https://answers.microsoft.com/en-us/windows/forum/all/windows-core-os-an-open-source-operating-system/425e8d20-b335-4977-9559-d33f0b188d52 As you know, Windows 10 is a « service », meaning that it is a version that will evolve overtime non-stop. It will receive feature updates semi-annually. Mainstream Support ends on 2020, while Extended

6. Raghu Ramakrishnan. Wikipedia [en ligne]. 2018. [Consulté le 24 janvier 2019]. Disponible à l’adresse : https://en.wikipedia.org/w/index.php?title=Raghu_Ramakrishnan&oldid=837295558Page Version ID: 837295558

7. SIGNORET, Perrine. Le rachat de GitHub par Microsoft suscite des inquiétudes chez les développeurs. [en ligne]. 4 juin 2018. [Consulté le 24 janvier 2019]. Disponible à l’adresse : https://www.lemonde.fr/pixels/article/2018/06/04/le-rachat-de-github-par-microsoft-suscite-des-inquietudes-chez-les-developpeurs_5309561_4408996.html Les développeurs craignent que la plate-forme, qui héberge le code source de nombreux logiciels libres, ne soit dénaturée par Microsoft.

8. TEXIER, Brice./ CTO. 5 raisons pour lesquelles l’avenir de l’Open Source est... open ! lesechos.fr [en ligne]. 30 mai 2018. [Consulté le 24 janvier 2019]. Disponible à l’adresse : https://www.lesechos.fr/idees-debats/cercle/cercle-183372-5-raisons-pour-lesquelles-lavenir-de-lopen-source-est-open-2179917.php#Xtor=AD-6000

9. Waze. Wikipédia [en ligne]. 2018. [Consulté le 24 janvier 2019]. Disponible à l’adresse : https://fr.wikipedia.org/w/index.php?title=Waze&oldid=155287769Page Version ID: 155287769

10. Waze a coûté 1,15 milliard de dollars à Google, son CEO affiche ses regrets. FrAndroid [en ligne]. 7 avril 2014. [Consulté le 24 janvier 2019]. Disponible à l’adresse : https://www.frandroid.com/marques/google/206886_waze-coute-115-milliard-dollars-google-ceo-affiche-ses-regrets Au vu des dernières folies de Google ou encore de Facebook, rivalisant d’enthousiasme pour racheter diverses startups dans des domaines aussi variés que

11. AUBIN, Hugues. Bienvenue à la Fondation Free parmi nos partenaires ! My Human Kit [en ligne]. 24 octobre 2018. [Consulté le 24 janvier 2019]. Disponible à l’adresse : https://myhumankit.org/actualite/bienvenue-a-la-fondation-free-parmi-nos-partenaires/ C’est à la suite d’un premier contact pris par Nicolas Huchet qu’un rendez-vous a été fixé au mois d’avril 2018 entre My Human Kit et la Fondation Free, représentée par Elodie Delboulbé. Nicolas s’y est rendu avec notre talentueuse bénévole Flavie Benizri, afin de partager le projet de l’association et…Lire la suite

12. Freebox Free/Libre and Open Source Software. [en ligne]. [Consulté le 24 janvier 2019]. Disponible à l’adresse : https://floss.freebox.fr/

13. Liberapay. [en ligne]. [Consulté le 24 janvier 2019]. Disponible à l’adresse : https://fr.liberapay.com/ Nous vous aidons à financer les créateurs et projets que vous appréciez.

14. FOUQUET, Caroline. Etude sur l’impact du logiciel libre / Open Source en France en 2017-2021. [en ligne]. [Consulté le 22 janvier 2019]. Disponible à l’adresse : https://syntec-numerique.fr/actu-informatique/etude-sur-impact-logiciel-libre-open-source-en-france-en-2017-2021 Un marché en forte croissance, un levier majeur d’innovation et une filière créatrice d’emplois.

jeudi 24 janvier 2019

De nouvelles valeurs "stratégiques" au sein des organisations

Aujourd’hui, les organisations se basent sur de nouvelles valeurs pour créer de la richesse et acquérir un patrimoine : le partage d’information, la transmission des savoirs en interne sont les nouveaux enjeux stratégiques des entreprises.

La gestion des connaissances est apparue  dans les années 2000. A cet effet, la profession de « knowledge manager » a vu le jour dans les organisations.  Ce gestionnaire a pour rôle de recueillir les différentes connaissances de l’entreprise, de les partager, mais aussi de les conserver afin de créer un patrimoine de connaissances. [1]

Certains auteurs, tels que Roberto Cerchione, Emilio Esposito et Maria Rosaria-Soprado du département de génie industriel de l'Université de Naples, notent que dans les PME, la transmission des connaissances se fait essentiellement en communiquant avec les personnes de son entreprise. [2]

Une nouvelle norme, adressée aux knowledge managers et à ceux qui s’occupent de la consolidation des connaissances en entreprise, apparaît en 2018.  Il s’agit de la norme ISO 30401, basée sur le management des connaissances dans les organisations.
Son objectif est de permettre aux organisations la mise en place d’un système de management solide, rigoureux, basé sur la préservation des connaissances, mais aussi sur leur diffusion et leur partage.[3]

Le  développement d’un système de gestion des connaissances est un réel objectif stratégique pour l’entreprise.
D’ailleurs certains auteurs : associent la gestion des connaissances internes à la « Compétitive Intelligence ». Ce domaine concerne l’analyse et la veille externes à l’entreprise, à savoir, la concurrence et l’ensemble de l’environnement et des parties prenantes.
Ainsi, « La connaissance est souvent considérée comme une source d’avantages concurrentiels. »
Peter Drucker, consultant américain en management d’entreprise, auteur et théoricien, disait : « Ce qui fait la différence entre les entreprises, ce n’est pas tant les capitaux, ni les personnes, ni non plus les ressources naturelles que les connaissances. » [4]



Sources :

[1] Nathalie Tessier et Isabelle Bourdon. Cairn. Le management des hommes : un défit pour la gestion des connaissances. Publié en 2009  : [Consulté le 24 janvier 2019].https://www-cairn-info.proxybib-pp.cnam.fr/revue-des-sciences-de-gestion-2009-3-page-35.htm 

[2] Pierre-Yves Debliquy. Euresis. Regard sur les pratiques de knowledge management en PME. Euresis.com. Publié le 18 décembre 2018 : [Consulté le 24 janvier 2018].
http://blog.euresis.com/index.php?/archives/1983-Regard-sur-les-pratiques-de-knowledge-management-en-PME.html

[3] ISO.  Club Gestion des connaissances. Systèmes de Management des connaissances — Exigences. http://www.club-gc.asso.fr. Publié en 2017: [Consulté le 24 janvier 2019].http://www.club-gc.asso.fr/sites/default/files/fichiers_attaches/evenement/enqu-te-publique-projet-norme-syst-mes-management-connaissances-exigences-pr-nf-iso-30401/iso-30401-version-fran-aise.pdf.


[4] Pierre-Yves Debliquy. Euresis. Intelligence économique, knowledge management, mission et vision. http://blog.euresis.com. Publié le 19 novembre 2018 : [Consulté le 24janvier 2018].


mardi 22 janvier 2019

Données publiques et big data

Consultant et président du cabinet Civitéo, Jacques Priol revient sur l'importance pour les collectivités de maîtriser leurs données et d'avoir accès à celles qui relèvent de l'intérêt général au sens de la loi pour une République numérique.

A la question le big data déstabilise-t-il les politiques publiques, l'auteur nous révèle comment dans le domaine du tourisme et des transports les plateformes telles que AirBnB, Waze, Uber pilotées par la donnée impactent la manière de concevoir et de mettre en oeuvre des politiques publiques. Waze, par exemple, disposant du signalement d'un accident plusieurs minutes avant les secours, il y aurait un intérêt général à disposer de données générées par ses activités. La ville de New York a élaboré une démarche intéressante avec Uber en récupérant l'ensemble des données des trajets effectués en Uber et les republie en open data. Toutefois, même si nous sommes loin de l'ubérisation du service public, précise-t-il, les collectivités ne doivent pas se faire déposséder de leurs données. La maîtrise de leurs données et le contrôle des usages qui peuvent en être fait deviennent des enjeux majeurs pour les collectivités. Des collectivités importantes comme (Paris, Dijon, Grenoble, Nantes) ont engagé une réflexion juridique sur la propriété et le contrôle des données produites dans le cadre de missions de service public ou plus largement d'intérêt général.

Pour aller plus loin, voir aussi l'article en lien avec le dossier : 
Open Data et réutilisation des données publiques : des promesses vertigineuses

Source : Fernandez Rodriguez, Laura. Les collectivités ne doivent pas se faire déposséder de leurs données. Publié le 18 décembre 2018. [Consulté le 21 janvier 2019].https://www.lagazettedescommunes.com/598178/les-collectivites-ne-doivent-pas-se-faire-deposseder-de-leurs-donnees/
 
 

Et demain ? Tous Robot Sapiens ?

Pour tous ceux qui croient encore que dans la Silicon Valley, la gestion des comptes Facebook, les tweets et autres animations de réseaux sociaux restent la préoccupation première, voilà une enquête au long cours, réalisée par Mark O'Connell (1) dans l'univers sondable de l'Intelligence Artificielle.


Le journaliste s'est immergé chez les transhumanistes aux Etats-Unis, dont le but est d'améliorer la condition humaine, corps et esprit, avec pour but ultime vaincre la mort. 
Cyborgs en devenir qui croient en la fusion des hommes et des machines, amateurs de cryogénisation, prêts à payer des fortunes pour une résurrection programmée, publics hétéroclites qui se précipitent aux compétitions de robotique comme à celles de sport et éprouvent de l'empathie pour la machine qui ne parvient pas à accomplir sa tâche, l'IA est de toutes les innovations et de tous les projets largement subventionnés par les GAFA.

Tout ceci pourrait paraître totalement absurde comme dans cette ubuesque traversée de l'Amérique profonde dans "le bus de l'immortalité" avec un futur et probable candidat à la présidence de la République, venu convaincre des électeurs potentiels sur le terrain et qui en trouve.
Mais rapidement on se rend compte à quel point ces réseaux sont organisés, bénéficient d'une couverture académique au niveau de l'Ivy League, sont confortablement financés par ceux qui en dénoncent les dangers et utilisent des laboratoires à la pointe de la technologie. On tremble même un peu quand on s'aperçoit que la DARPA ou Defense Advanced Research Project Agency y croit et joue un rôle moteur en matière d'innovation dans la guerre à distance.
Mark O' Connell a aussi rencontré tous ceux qui aujourd'hui inventent le monde de demain. Il les a suivi dans leur environnement professionnel comme personnel, leur réflexion philosophique, parfois à la limite de la pratique d'une nouvelle religion.
Avant la déferlante IA, qui n'est plus qu'une question de temps, et le temps ne compte pas pour les "immortels", ce reportage fouillé, impartial, permet de se poser les bonnes questions en terme de liberté, de qualité de vie et de quête de soi.


(1) Journaliste et écrivain irlandais qui publie dans le New York Times, le Guardian et l'Observer
(2) O'CONNELL, Marc, Aventures chez les transhumanistes, Paris : L'échappée, 2018, 261 p., ISBN 978-23730903-7-6

mercredi 16 janvier 2019

Le nouvel ordre documentaire : normes et systèmes de gestion des documents d'activité

En 2009, il y a 10 ans, la BNF et l'AFNOR organisaient une journée d'étude intitulée "A qui profite la normalisation documentaire ?"[1] Cette journée faisait le constat de l'extension des normes de documentation à l'industrie culturelle, au monde de l'entreprise et des nouveaux modèles économiques attenants à ce développement. Cette thématique a été traitée par l'archiviste Michel Cottin [2] et son équipe dans une série d'articles qui mirent au coeur de toute gestion documentaire, l'utilisation des normes ISO [3] liées au cycle de vie du document. Comment comprendre ce "nouvel ordre documentaire" ?

 

Le cycle de vie d'un document se définit "comme les étapes de l'existence d'un document, de sa
Source : <http://www.lgm-digit.fr/gestion_documentaire.aspx>
création à la mise en oeuvre de son sort final" 
[4].
Concrètement, en s'appuyant sur le contenu des normes ISO 15 489, ISO 30 300 et ISO 30 301, ces étapes du processus du cycle de vie du document peuvent se définir sous forme de liste à la Prévert qui serait : nom du document, responsable métier, description, format, contenu, régions couvertes (par l'utilisation du document), utilité-utilisateur/trice-utilisation, version/validation, indexation (métadonnées), outils numériques émetteurs, responsable de la direction des systèmes d'informations (DSI) du document, existence d'original papier, règles d'accès, volumétrie, valeur probatoire, DUA (durée d'utilisation administrative)... Il ne faut pas négliger l'expérience de chaque utilisateur-trice pour chacune de ces étapes ; pas plus que de compléter chaque fiche document ainsi constituée par des informations complémentaires de chacun-ne !  

Ce descriptif correspond à une fiche d'identité précieuse pour comprendre la place de chaque document dans l'ensemble du flux d'information d'une entreprise. Il permet de constituer un inventaire. Cet inventaire est sans cesse corrigé dans un processus itératif qui met à l'honneur le rôle et le travail du documentaliste. Cette identification permet donc de connaître la création, la modification, l'utilisation, la nécessité d'archivage et in fine, la nécessité de détruire le document. Ainsi, pour chaque type de document, le choix d'une solution de stockage est fait parmi celles disponibles au sein de l'entreprise. Et si l’archivage des documents est nécessaire (valeur probatoire pendant la DUA), il sera décidé de l'intégration du type de document dans le SAE (système d'archivage électronique) mis en place dans l'organisation. Pour faciliter le travail d'inventaire, les documents seront classés selon les processus métier. Chaque responsable métier pourra établir un tableau comportant à minima les informations suivantes :  nom type du document d’activité ; DUA : durée d’utilité administrative du document ; Références juridiques de la DUA ; Usage : application informatique unique d’utilisation du document d’activité.
Ce tableau permet de servir de référence unique pour la gestion des archives lors de la mise en place d’un SAE mais aussi de permettre à l’ensemble des collaborateurs de l’entreprise de retrouver un document d’activité rapidement. 

En considérant le document non plus comme un "élément isolé, mais comme un élément résultant d'un processus ou d'un ensemble de processus [5]", le cycle de vie du document devient le processus d'utilisation du document. Ainsi, l'analyse des processus est centrale pour mettre en place un système documentaire qui prend la forme d'un système de gestion des documents d'activité (SEGDA). La notion de système est importante pour comprendre que chaque étape du processus d'un document répond une étape similaire pour un autre document. De plus, le classement des documents s'organise autour des processus métiers. 

La prise en compte de ces différents paramètres et leur croisement, permet de mettre en place des logiciels de gestion documentaire (GED, SAE) afin d'obtenir une gouvernance de l'information réussie au sein d'un système documentaire à la gestion itérative !

[1] La présentation de cette journée d'étude est disponible à l'adresse : <http://www.bnf.fr/fr/professionnels/anx_journees_pro_2009/a.normalisation_documentaire.html>. 
[consulté le mercredi 16 janvier 2019].
[2] Michel Cottin a été maître de conférence associé au CNAM-INTD. Sur ses travaux avec son équipe, voir entre autres : 
KERN, Gilliane. HOLGADO, Sandra. COTTIN, Michel. Cinquante nuances de cycle de vie. Quelles évolutions possibles ? , Les Cahiers du numérique [en ligne], 2015/2 (Vol. 11), p. 37-76. Disponible à l'adresse : <https://www.cairn.info/revue-les-cahiers-du-numerique-2015-2-page-37.html>. [Consulté en janvier 2019].
COTTIN, Michel. DARGAUD, Stéphanie. Des archivistes et des normes. La Gazette des archives [en ligne]2012/4, n°228,  p. 23-31. Disponible à l'adresse : <www.persee.fr/doc/gazar_0016-5522_2012_num_228_4_4981>. [Consulté en janvier 2019].
COTTIN, Michel. DESSOLIN BAUMANN, Sylvie.  La famille des normes ISO sur le records management. La Gazette des archives [en ligne]2012/4, n°228, p. 119-133. Disponible à l'adresse: <www.persee.fr/doc/gazar_0016-5522_2012_num_228_4_4989>. [Consulté en janvier 2019].
[3] Voir les normes : ISO 15 489, ISO 30 000, ISO 30 301; et les Livres blancs sur ces normes.
[4] KERN, Gilliane. Op. Cit. p. 40. 
[5] Idem p. 61.

mardi 15 janvier 2019

Ces nouvelles méthodes pour redonner vie au passé

Les technologies de l’information que sont la navigation virtuelle et la réalité virtuelle permettent d’imaginer de nouvelles formes de médiation culturelle mais aussi d’assurer la conservation du patrimoine mondial. De la navigation à l’immersion complète dans un environnement créé ou reconstitué, l’utilisateur peut aujourd’hui avoir accès à des lieux lointains, inaccessibles ou même disparus. 

Photographie libre de droit
En septembre 2018, les collections du musée de Rio de Janeiro disparaissaient dans un incendie ravageur [1]. Une perte inestimable pour le peuple brésilien, les chercheurs et l’ensemble des acteurs culturels du monde. Trois mois plus tard, on apprend la mise en ligne par Google d’une version virtuelle du musée [2]. Ce projet était mené depuis 2016 par Google en collaboration avec l’Université fédérale de Rio et le Ministère de l’éducation. L’objectif était de donner accès aux collections au plus grand nombre depuis l’application Google Arts & Culture. La première version donne la possibilité de se déplacer dans les salles du musée grâce à la technologie street view, et le public à accès au détail de 164 œuvres parmi les plus importantes du musée [2]. 
Le travail de collecte de données des œuvres et des espaces, réalisé en amont, permet aujourd’hui une reconstitution minutieuse. Photographiées, les salles sont reproduites à l’identique de ce qu’était le musée peu de temps avant sa disparition. 

D’autres projets de reconstitution de monuments historiques ou même de ville voient le jour. Les sites antiques, dont la conservation n’est pas assurée dans le temps, sont particulièrement visés par ce type de projet [3].  
Le projet Rome Reborn, démarré à la fin des années 90 propose une immersion dans la ville antique de Rome. Ici la logique est différente, pas de reconstitution à l’identique : « 50 historiens, archéologues et informaticiens pendant 22 ans pour recréer 7000 édifices et monuments de la Rome de l’an 320, au moment où le développement urbain de la ville éternelle atteignait son apogée » [3]. La collaboration transdisciplinaire est essentielle car les outils technologiques doivent s’adapter à l’état de la recherche historique et archéologique et ne pas risquer de dépasser la connaissance à l’instant T ou laisser libre court à l’imagination. La "volonté de vérité" est une donnée fondamentale de ce type de projet.

Les reconstitutions virtuelles aujourd'hui en développement prennent un place à part dans la valorisation du patrimoine culturel. Elles permettent une nouvelle forme de médiation culturelle en mettant en valeur la recherche archéologique et historique. Elles viennent également combler le vide physique laissé par la disparition des œuvres patrimoniales. 


Pour une visite de Rome en 320, suivez le guide :  https://www.youtube.com/watch?v=pA4SG9amhTE#action=share


Sources :

[1] CONSEIL INTERNATIONAL DES MUSÉES. Communiqué à propos de l’incendie dévastateur au Musée National du Brésil - ICOM [en ligne]. 3 septembre 2018. [Consulté le 15 janvier 2019]. Disponible à l’adresse : https://icom.museum/fr/news/communique-a-propos-de-lincendie-devastateur-au-musee-national-du-bresil-en-rio-de-janeiro/

[2] PUECH, Benjamin. Google reconstitue virtuellement le musée national de Rio ravagé par un incendie [en ligne]. 17 décembre 2018. [Consulté le 15 janvier 2019]. Disponible à l’adresse : http://www.lefigaro.fr/arts-expositions/2018/12/17/03015-20181217ARTFIG00175-google-reconstitue-virtuellement-le-musee-national-de-rio-ravage-par-un-incendie.php

[3] BAILLARGEON, Stéphane. Archéologie et histoire virtuelles au service de la reconstitution des sites anciens. Dans : Le Devoir [en ligne]. 3 janvier 2019. [Consulté le 15 janvier 2019]. Disponible à l’adresse : https://www.ledevoir.com/societe/544656/archeologie-et-histoire-virtuelles-au-service-de-la-reconstitution-des-sites-anciens

mardi 8 janvier 2019

La justice « digitale », doit-on en avoir peur ?

L’intelligence artificielle appliquée au droit est aujourd’hui une réalité. Ce phénomène bouleverse tant les métiers juridiques que la relation citoyenne à la justice, et suscite de vifs débats. Quels en sont les applications, les enjeux, voire les risques pour la démocratie ?

Récemment Antoine Garapon, magistrat et secrétaire général de l’Institut des hautes études sur la justice (IHEJ), et Jean Lassègue, anthropologue et chercheur au CNRS attaché à l’Institut Marcel Mauss de l’EHESS, ont donné une définition à cette nouvelle justice liée au numérique. Ils parlent de « justice digitale » (1), terme qui recouvre la justice prédictive et les legaltech. Si le concept de justice prédictive n'est pas nouveau, l'utilisation des algorithmes en a modifié la portée. D'autant que, souligne Antoine Garapon (2), dorénavant les initiateurs des évolutions législatives ne sont plus des juristes, mais des développeurs, des entrepreneurs, animés par une logique de profit et non plus sociale.

Etat des lieux

Source : Village de la justice - LesEchos Start
Les legaltech – ces start-ups du droit en ligne qui essaiment en France depuis 2010 ont leur observatoire et leur salon – sont des plateformes qui compilent et analysent des millions de textes juridiques, facilitant ainsi l'accès à la doctrine. Les principales activités de service qu'elles proposent sont la rédaction d'actes ou de documents juridiques et l'information juridique, seulement 3 % de leurs activités touchent la justice prédictive (voir ci-contre). Et 62 % de leurs clients sont des cabinets d'avocats (3). Les maisons d'édition d'ouvrages juridiques ont bien compris le potentiel des legaltech – de même que le risque pour leurs publications traditionnelles –, et rares sont celles qui ne sont pas partenaires de telles plateformes.

Les algorithmes, de simples outils…

Louis Boré, président de l’ordre des avocats au Conseil d’Etat et à la Cour de cassation, rappelle que « constitutionnellement, la loi ne doit pas être trop précise » et doit adapter le général (le code) aux cas particuliers (4).
Pour lui, le travail effectué par les algorithmes facilite l’analyse des décisions de justice des juges du droit, mais le magistrat, l’humain, aura toujours ce pouvoir de contrôle des résultats proposés, donc de décision finale. Pour répondre aux craintes des avocats d’être remplacés par des machines, il prédit plutôt un déplacement de leurs missions vers davantage de conseil.

... Ou des substituts à l’intelligence humaine ?

Gain de temps dans le traitement des dossiers, optimisation du travail des juristes... Pourtant, le recours aux legaltech peut entraîner le remplacement de collaborateurs par des machines. Aux Etats-Unis, les cabinets d’avocats qui utilisent le logiciel Ross (développé par IBM) ont considérablement réduit leurs équipes (5). En France, l’un des objectifs du projet de loi de programmation 2018-2022 et de la réforme pour la Justice, toujours en cours d’examen est d’organiser la transformation numérique de la Justice pour la rendre plus accessible et plus efficace – et, bien entendu, de poser un cadre législatif à l’utilisation des données. Or, à ce titre, elle prévoit le recours à des algorithmes pour la résolution amiable de certains litiges, ce qui est déjà pratiqué en Amérique du Nord (6).
Un autre métier risque de faire les frais de ces innovations : celui de documentaliste juridique ou professionnel de l'information documentaire (7). En termes de rapidité de traitement, de veille et d'économies, les machines sont largement plus performantes, même si, pour le moment, ce que proposent les outils de l'IA, doit être vérifier et compléter... par l'homme.

La vigilance est de mise

Des chercheurs américains ont mené une étude comparant les décisions prises par des juges-robots et par des juges humains. Sur 8 cas sur 10 les décisions étaient similaires : des résultats qui peuvent paraître prometteurs. Cependant l'analyse des deux cas divergents doit avant tout être questionnée, insiste Boris Barraud, docteur en droit (8).
Car le risque majeur n'est-il pas la régression démocratique que peut entraîner ce traitement de la Justice ? C'est ce que pointe, après avoir détaillé les atouts des nouvelles technologies appliquées au droit, Antoine Garapon (9). En effet, d'une part, le recours systématique à l'IA promet une perte d'expérience, donc de pouvoir de contrôle sur les décisions ; d'autre part, la justice prédictive peut à la longue devenir trop normative et conservatrice. Il cite l'exemple, aux Etats-Unis, d'un système qui finalement reproduit les discriminations dont souffrent les Afro-Américains.

Il est encore tôt pour mesurer les conséquences du recours à l'intelligence artificielle appliquée à la justice, mais on ne doit pas en ignorer les dangers. Veillons aux garde-fous : Celui du règlement européen sur la protection des données personnelles, dont l'article 22 pose que toute personne « a le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire ». En outre, une charte européenne éthique européenne devrait encadrer le déploiement de l'IA liée à la justice (10)... 

 Sources :

(1) GARAPON, Antoine et LASSÈGUE, Jean. Justice digitale. Presses Universitaires de France-P.U.F. Paris : 978-2-13-073357-7, 2018. ISBN 978-2-13-073357-7.  Voir son interview : COUSTET, Thomas. Antoine Garapon : « le numérique est un remède à la lenteur de la justice » | Interview | Dalloz Actualité. [en ligne]. 4 mai 2018. [Consulté le 7 janvier 2019]. Disponible à l’adresse : https://www.dalloz-actualite.fr/interview/antoine-garapon-numerique-est-un-remede-lenteur-de-justice#.XDJiMi97TfY

(2) GARAPON, Antoine. Les enjeux de la justice prédictive. La semaine juridique [en ligne]. 9 janvier 2017. N° 1‑2, pp. 4. [Consulté le 7 janvier 2019]. Disponible à l’adresse : http://unedesrevues.lexisnexis.fr/unerevues/pdf/une/sjg1701.pdf

(3) Comprendre la LegalTech en 4 graphes. start.lesechos.fr [en ligne]. [Consulté le 7 janvier 2019]. Disponible à l’adresse : https://start.lesechos.fr/entreprendre/actu-startup/comprendre-la-legaltech-en-4-graphes-13504.php

(4) MATHIEU, Claire et ABITEBOUL, Serge. La justice prédictive et l’égalité devant la loi. Entretien avec Louis Boré, président de l’ordre des avocats au Conseil d’état et à la Cour de cassation. The Conversation [en ligne]. 26 avril 2018. [Consulté le 7 janvier 2019]. Disponible à l’adresse : http://theconversation.com/la-justice-predictive-et-legalite-devant-la-loi-95116

(5) BARRAUD, Boris. Un algorithme capable de prédire les décisions des juges : vers une robotisation de la justice ? Les Cahiers de la justice [en ligne]. mars 2017. N° 1, pp. 121‑139. [Consulté le 7 janvier 2019]. Disponible à l’adresse : https://hal.archives-ouvertes.fr/hal-01404518

(6) RACINE, Jean-Baptiste. La résolution amiable des différends en ligne ou la figure de l’algorithme médiateur. Recueil Dalloz, 13 septembre 2018, n°31, p. 1700.

(7) BARTHE, Emmanuel. L’intelligence artificielle et le droit. I2D – Information, données & documents [en ligne]. 3 juillet 2017. Vol. Volume 54, n° 2, pp. 23‑24. [Consulté le 7 janvier 2019]. Disponible à l’adresse : https://www.cairn.info/revue-i2d-information-donnees-et-documents-2017-2.htm

(8) BARRAUD, Boris. Op. cit.

(9) GARAPON, Antoine. Les enjeux de la justice prédictive. Op. cit.

(10) MARRAUD DES GROTTES, Gaëlle. Justice et intelligence artificielle : une charte éthique européenne pour organiser son déploiement | Actualités du droit | Wolters Kluwer France. [en ligne]. 5 décembre 2018. [Consulté le 7 janvier 2019]. Disponible à l’adresse : https://www.actualitesdudroit.fr/browse/tech-droit/start-up/18146/justice-et-intelligence-artificielle-une-charte-ethique-europeenne-pour-organiser-son-deploiement