lundi 5 décembre 2016

La difficile adoption de l'IA

Alors que l'on vit dans une époque où l'on est assisté par la technologie (Siri, Google Assistant, Cortana), où, en conséquence, nous produisons une importante masse de données exploitables par des sciences comme la biométrie; l'intelligence artificielle peine à être adoptée par l'homme. C'est ce que la multitude d'articles qui paraissent sur le sujet laissent à entendre.

Certains journalistes (1) tentent d'analyser cette techno-phobie en listant les facteurs qui entravent le développement - aujourd'hui - possible de l'IA. Parmi ces facteurs, on parle : 
  • d'une pénurie de cerveaux dans la communauté de chercheurs spécialisés dans le domaine,
  • d'un usage peu fonctionnel et utile de cette technologie, la reléguant au rang de gadget,
  • d'une réticence au changement, entre peur et fascination. 
Il semblerait que la dernière de ces trois raisons soit la plus pertinente (2), comme en témoignent les fictions d'anticipation qui traitent de ce sujet (Cf. les films Her et I Robot notamment), ou l'actuelle prolifération d'articles de la presse scientifique et généraliste qui parviennent avec difficulté à analyser rationnellement cette technologie sans approximations ou fantasmes.   

Cette anxiété lisible dans la presse se ressent dans l'opinion publique puisque 50% de la population française considère l'IA comme une menace. Cette anxiété trouverait son origine dans le cinéma de science-fiction hollywoodien, le repli sur soi culturel et religieux, les craintes sociales face à une IA qui va supprimer le travail et l’emploi. 

Mais surtout cette peur a été accentuée par la publication, le 28 juillet 2015, d'une lettre ouverte sur le site du FHI (Future of Humanity Institut de l'Université d'Oxford) qui met en garde contre l’utilisation de l’IA dans le domaine militaire. Cette pétition a été signée par de nombreuses personnalités scientifiques dont Elon Musk et le physicien Stephen Hawking. Elle marquerait une séparation nette entre les partisans d'une IA réglementée et ceux d'un libre développement de l’IA, les transhumanistes américains, dont les GAFA.

Thierry Berthier, l'auteur de l'article "Une dérive malveillante de l’intelligence artificielle est-elle possible?" se demande dans quelle mesure l'IA peut représenter un danger. Avec une équipe de chercheurs, il a élaboré des scénarios d'utilisation problématique de l'IA dans une situation de crise militaire. Ses hypothèses sur la question le mènent à la conclusion suivante : 
"Nous sommes convaincus que le risque (et le danger) de dérive malveillante s’incarne dans des séquences de mécanismes relevant de l’intelligence artificielle, de systèmes d’apprentissage qui, associés ou mis bout à bout, deviennent potentiellement dangereux sans que chacun de ces mécanismes pris individuellement le soit. Le risque naît ainsi de l’association de ces mécanismes humains ou numériques et peut effectivement conduire à l’établissement d’un contexte de crise. La complexité croissante des systèmes experts, des plate-formes d’aide à la décision s’appuyant sur des processus d’apprentissage rend aujourd’hui possible des «mises en résonance» conduisant potentiellement à des situations critiques. Il s’agit alors bien d’une forme faible de l’alerte lancée par Hawking et Musk…"

Sources :  

(1) "3 facteurs qui freinent la démocratisation de l’intelligence artificielle" publié sur le FrenchWeb.fr, le 05/12/2016, par Thomas Sabatier, http://www.frenchweb.fr/3-facteurs-qui-freinent-la-democratisation-de-lintelligence-artificielle/268495
(2) "Une dérive malveillante de l’intelligence artificielle est-elle possible?" publié sur slate.fr, le 02/12/2016, par Thierry Berthier, http://www.slate.fr/story/130235/derive-malveillante-intelligence-artificielle-possible


Aucun commentaire:

Enregistrer un commentaire