mardi 17 février 2015

Le Prêt Numérique en Bibliothèque (PNB)

 

Depuis septembre 2014, le service de Prêt Numérique en bibliothèque a démarré pour le grand public. Cela concerne pour l'instant les  médiathèques des agglomérations de Montpellier, Grenoble et Aulnay sous Bois. Les usagers pourront ainsi profiter d'une offre de livres numériques "en streaming à l’intérieur de la bibliothèques ou en téléchargement du titre avec un DRM sur place ou à domicile"
il faut néanmoins télécharger au préalable Adobe Digital Reader pour que le transfert du livre numérique se fasse.[1]

Ce qu'il faut savoir c’est qu'à ce jour les ebooks ne sont pas achetés par les bibliothèques comme pour les versions papiers mais loués pour "une durée déterminée, via une licence de prêt" et la durée et les conditions varient selon les éditeurs. Ces livres sont achetés à l'unité et non sous forme de bouquet ce qui implique "un coût potentiel de plusieurs millions d'euros, sachant que le prix moyen d'un livre numérique du catalogue PNB est de 17,55 euros, chaque bibliothèque publique devrait débourser environ 175 000 euros pour le proposer à ses usagers. Or le budget moyen consacré aux ressources numériques par les villes de plus de 100 000 habitants et de 33 325 euros. Encore moins pour les plus petites villes."[2]

The British Library
La British Library (Steve Cadman, CC BY-SA 2.0)


De plus le cadre juridique autour du PNB reste encore un véritable problème malgré "la signature [en décembre 2014] d’un protocole d’accord entre l’État, les bibliothèques, les éditeurs, les auteurs, les libraires et les élus culturels concernant la  diffusion du livre numérique par les bibliothèques publiques".
En effet ces recommandations ne modifient en rien la loi sur le prêt en bibliothèque qui existe depuis 2003 en France et qui repose sur le mécanisme de licence légale. Il est dit dans ces "12 recommandations" que "les ayants droits définissent exclusivement les offres et les conditions d’accès aux livres numériques en bibliothèque publique. Le Ministère a souhaité que ces recommandations ne portent donc que sur le seul cadre légal possible, celui de la voie contractuelle." Ce que critiquent certains bibliothécaires dont l'association des bibliothèques de France (ABF) c'est le manque d’engagement réel du gouvernement pour une vraie modification de la loi sur le prêt en bibliothèque.  Quatre nouvelles lois sont apparues ces dernières années autour du livre numérique ( la loi sur le prix unique du livre numérique, la loi sur les livres indisponibles du XXème siècle, la loi anti-amazon en faveur de la gratuité des frais de port et le code de la propriété intellectuelle vient d'être modifier et d’adapter le contrat d’édition à l'environnement numérique) et pourtant seul "12 recommandations" viennent de voir le jour.
QUID alors du prêt numérique en bibliothèque qui ne semble pas aller dans le même sens ?  A ce jour les bibliothèques françaises doivent passer par le système de licence imposé par les éditeurs et force est de constater que 98% des bibliothèques en France ne proposaient pas de livres numériques en prêt en 2013, alors que 95% des bibliothèques américaines le font. [3]Sans oublier que chaque année les bibliothèques devront renouveler ces licences auprès des éditeurs et les prêts par les usagers ne seront téléchargeables qu'une trentaine de fois. Ce seront des prêts qui s’autodétruiront.

Il reste aussi le problème épineux des éditeurs : on sait qu'aujourd'hui en bibliothèque les achats sur les nouvelles parutions se font en même temps que les sorties en librairies puisque la loi sur le prêt papier en bibliothèque le permet, or il n'en est pas de même pour les ebooks car les éditeurs pensent que les ventes risquent d'être "cannibalisés par l'accès en bibliothèque".  Mais le protocole signé en décembre précise pour empêcher ce blocage que l'intégralité de l'offre éditoriale doit être proposée aux bibliothèques.

Enfin, autre sujet d'inquiétude pour l'ABF : la collecte des données personnelles car les éditeurs imposent l'usage du DRM pour la diffusion des livres numériques auprès des usagers or l'on sait que Adobe collecte massivement les données pour connaitre les usages des lecteurs.

Ce projet de PNB en place depuis septembre et dont les "12 recommandations" viennent d'être signé en décembre 2014, montre une réelle volonté de faire avancer les choses mais les contraintes restent nombreuses tant sur la politique tarifaire que sur le contenu des livres ou  le moyen de télécharger les fichiers.


Sources :
[1] Le service de Prêt Numérique en Bibliothèque (PNB) est ouvert
jeudi 04 septembre 2014

[2] Garcia, Victor :  Prêt numérique en bibliothèque: à peine acté, déjà critiqué, 19 décembre 2014

[3]Maurel Lionel : Livre numérique en bibliothèque : une démission de la politique de lecture publique
S.I.Lex, 12 décembre 2014

Focus : vinyls et patrimoine, un projet documentaire inédit


Huma-Num est une très grande infrastructure (TGRI) qui vise à faciliter le tournant numérique de la recherche en sciences humaines et sociales.
Pour cela elle met en oeuvre à travers un important réseau de partenaires humains et technologiques, un  partage des connaissances et des expériences à l’échelle nationale et européenne (1).
Cette organisation diffuse un blog (2) dans lequel contribuent plusieurs consortiums. Dont celui qui nous intéresse aujourd’hui, le consortium Archives des Mondes Contemporains Inventaires et Documents numériques (3).

Suite à un appel lancé par celui-ci pour que perdure un échange de réflexion entre les chercheurs sur leurs expériences respectives, est présenté ici un projet documentaire original, aux résonances sociales inédites : numériser des collections de disques des immigrés dans l’Est de la France, dans les années 60-90 (4). Oanagiota Aganostour (docteur sciences politiques) et Didier Francfort (prof.histoire contemporaine), de l’Institut d’Histoire Culturelle Européenne (IHCE), centre de recherche et université active (5), présentent leur projet documentaire sur les phénomènes sociaux liés aux pratiques musicales.

Les techniques numériques pour un lien social

Dans ce billet, les chercheurs souhaitent être le relais d’information sur « la situation de petits groupes de recherche et laboratoires, disposant de ressources budgétaires limitées face aux défis du passage au numérique ».
Dans leur cas, la recherche de sources sonores et visuelles vise à redonner la place à la mémoire et donc au lien social vivant. D’où un certain nombre d’interventions humaines animées dans des centres pour retraités, des établissements scolaires, des accueils touristiques etc.
Les possibilité du numérique sont au service d’un travail sur le terrain. C’est l’idée d’une interaction entre la société et les chercheurs à travers un projet commun. Le numérique n’étant qu’un moyen pour faciliter le lien.
« l’individu n’est pas un cobaye mais une personne associée à la compréhension et à la construction de son histoire ».

Un projet documentaire : disque et exil

Ce projet est le fruit d’un travail de collecte auprès de personnes ayant conservé des disques et ayant un lien avec « l’histoire de l’immigration » avant la dispersion ou la disparition de ceux-ci.
La re-constitution sous forme numérique des collections de disques privés des immigrés dans l’Est de la France, dans les années 60-90, retraçant le « goût musical du XXe siècle à partir des discothèques ».
L’idée sous-jacente est celle d’une efficacité sociale de certaine musique et de leur inscription dans les mémoires.
En premier lieu, la nécessité d’une logique de collection de discothèque à numériser est un moyen de resserrer les liens avec la population locale. Les ayant-droits repartent avec une collection de MP3, reflétant le contenu de leur bibliothèque musicale. Une petite partie est accessible en ligne, et le reste étant uniquement accessible aux chercheurs.
Une phase « pilote » a été établie, permettant de repérer les difficultés et écueils à éviter.
La masse des stocks, l’énormité des données et des méta-données ont conduit les chercheurs  à réduire cette collection aux musiques ayant un lien direct avec l’histoire des migrations. Le seul critère étant une « conscience explicite » avec ce lien. 
En deuxième lieu  il s’agit de repérer les critères de classements musicaux, encore un fois, ce sera les critères « d’identifications assumés » qui dicteront la politique d’archivage.
La question n’est pas de sauver le contenu des disques eux-mêmes mais bien de sauver  la mémoire de « l’appropriation personnelle » des migrants. Des « références complexes » qui sont le reflet de la construction individuelle.


Le tournant numérique est aussi une affaire participative

Ce projet met en avant l’idée positive qu’on ne peut se passer d’un relais humain, dans un monde numérique, et que la recherche s’accompagne d’une dimension expérimentale sur le terrain.
En amont de la phase de numérisation il y a la rencontre : les moyens humains dégagés pour la numérisation  et  les échanges avec les témoins et leur histoire.
Préparons-nous à « l’ère post-numérique où les pratiques culturelles vivantes et participatives soient autant de sources que les pratiques stockées sur des supports fixes ».


Pour aller plus loin:

(1) Huma-Num. Le carnet de la TGRI des humanités numériques. En ligne : http://www.huma-num.fr/
(2) Huma-Num Blog. En ligne : http://humanum.hypotheses.org/
(3) Archives des Mondes Contemporains Inventaires et Documents numériques. En ligne : http://arcmc.hypotheses.org/
(4) Billet « Cultures et recherche :vers un moment post-numérique ? ». Archives des Mondes Contemporains Inventaires et Documents numériques. Oanagiota Aganostour et Didier Francfort. 19/01/2015. En ligne : http://arcmc.hypotheses.org/2002
(5) Institut d’Histoire Culturelle Européenne (IHCE). En ligne : http://www.ihce.eu/fr/l-institut.html

lundi 16 février 2015

Signature d'un accord entre Google et Twitter.

Le 5 février 2015, Google et Twitter ont signé un accord afin de rendre les tweets accessibles au moteur de recherche et visibles dans la page de résultats. Cette fonctionnalité devrait voir le jour au cours du premier semestre 2015 (1).

Une expérience similaire avait déjà été menée entre 2009 et 2011 mais n'avait pourtant pas été reconduite au terme de l'accord entre ces deux sociétés (2) : la plus-value amenée par Twitter se révélant mince compte tenu des caractéristiques mêmes des tweets : volatils et éphémères (3). D'autant plus qu'à la même époque,  la firme de Mountain View lançait  son réseau social Google+ (4)

Pourquoi alors dans ces conditions tenter à nouveau l'expérience ?

Twitter, en dépit de résultats opérationnels satisfaisants : doublement du chiffre d'affaires au troisième trimestre 2014 (+ 114% à 361 millions de dollars), augmentation de 23% du nombre d'utilisateurs actifs par mois à 284 millions par rapport à l'an passé à la même période, augmentation de l'excédent brut d'exploitation (multiplié par sept à 68 millions)...  n'en déplore pas moins un triplement de sa perte nette (à 175 millions de $), une diminution du nombre des connections de ses utilisateurs à leur TimeLine (5) dans un contexte global de ralentissement de l'augmentation du nombre d'utilisateurs.
Cette constatation, lourde de conséquences en matière de revenus publicitaires a été sévèrement sanctionnée par les marchés à l'occasion de la publication des chiffres du troisième trimestre 2014.

Aussi, le CEO en titre, Dick Costolo, multiplie-t-il les initiatives afin d'engranger de nouveaux utilisateurs et de rendre les Twittos plus assidus, parmi lesquelles la possibilité de poster des vidéos et de créer des groupes de conversations privés. De plus, une nouvelle page d'accueil pour les utilisateurs non encore dotés de compte serait en cours d'expérimentation (6).
Twitter semble ainsi réaliser une opération financière intéressante dans la mesure où il vend, sans contreparties publicitaires, une licence d'utilisation des données de ses 284 millions d'abonnés.

Pour Google,  l'avantage retiré semble plus difficile à percevoir, même si l'accès aux tweets en temps réel va sensiblement augmenter le nombre de résultats obtenus au titre des recherches et vraisemblablement générer du  contenu (7).
Ainsi, et au-delà de l'effet d'annonce, il conviendra d'observer attentivement la mise en œuvre de l'accord sur la partie technique duquel, et sans attendre les Twittos, les ingénieurs œuvrent déjà (8).

Sources

1. Sarah Frier - Twitter Reaches Deal to Show Tweets in Google Search Results - Bloomberg.com - publié le 05/02/2015.

2. Olivier Andrieux - Google : le contrat avec Twitter s'arrête, la recherche en temps réel aussi - Abondance.com - Publié le 07/07/2011.

3. Olivier Andrieux - Twitter se rapproche de Google : bientôt des tweets à nouveau dans les SERP ? - Abondance.com - Publié le 06/02/2015.

4. Lazlo Perelstein - Twitter et Google vont faire apparaître les tweets dans le moteur de recherche - Latribune.fr - Publié le 05/02/2015.

5. Delphine Cuny - Twittos moins actifs, moins "engagés" ? L'action Twitter chute lourdement en Bourse - Latribune.fr - Publié le 28/10/2014.

6. Kurt Wagner - Another Twitter Update! This One’s a New Homepage, Designed to Lure New Users - Recode.net - Publié le 03/02/2015.

7. Sarah Frier - Twitter Reaches Deal to Show Tweets in Google Search Results - Bloomberg.com - publié le 05/02/2015.

8. Sarah Frier - Twitter Reaches Deal to Show Tweets in Google Search Results - Bloomberg.com - publié le 05/02/2015.

Une nouvelle solution pour taxer les géants du web ... la taxe sur la bande passante ?

Selon le Canard Enchaîné du 11 février 2015, Bercy étudierait, sur une proposition de la Ministre de la Culture, Fleur Pellerin, une taxation sur la bande passante. Cette taxe a notamment pour objectif de faire payer les géants du web qui à l'heure actuelle par un savant jeu d'optimisation fiscale parviennent à ne payer que peu d'impôt en France.

Comment cela fonctionne ?

 

Cette taxe serait calculée en fonction de la consommation d'octet d'une entreprise. Plus une entreprise serait gourmande en bande passante, plus elle devrait payer à l’État une taxe élevée. Mais cette taxation ne serait douloureuse que pour les entreprises étrangères.
" Pour les entreprises françaises, cette nouvelle imposition serait déductible de l’impôt sur les sociétés. Ce serait donc neutre pour elle " (1)
L'argent récupéré grâce à cette taxe servirait à financer l'exception culturelle française. A l'origine cette exception culturelle était financée par les chaînes de télévision. Le payement d'une taxe à l’État leur permettait l'attribution de fréquence hertzienne gratuite. Mais à l'heure d'Internet, du replay et du streaming les chaînes diffusent de moins en moins de contenu par hertzien et ont donc de moins en moins besoin de fréquence. C'est pour cela que le gouvernement réfléchit activement à une nouvelle source de financement.

Cette idée de taxer la bande passante n'est pas nouvelle. En 2013, Fleur Pellerin alors Secrétaire d’État du numérique avait déjà proposé cette taxe (1).  Et avant elle de nombreuses propositions autour de la fiscalité du net ont vu le jour :

Quel cadre juridique ?

 

Mais ce projet avant de voir le jour doit tout d'abord être étudié par Bercy pour en mesurer la viabilité et son respect du droit européen et français (2). Si les tests s'avèrent concluants, il semblerait que la France aimerait déployer ce dispositif au niveau européen (1). Mais selon l'Association Française Des Éditeurs de Logiciels et Solutions Internet (AFDEL) cette taxe est en contradiction avec les jurisprudences françaises et européennes car
"on ne peut pas créer de taxe sur mesure pour viser un acteur du marché ou un business model. Gageons donc qu’il n’y aura pas plus de taxe Netflix qu’il n’y a eu de taxe Google et que les usages du numérique continueront de se déployer !" (3)

Quelles conséquences ?  

 

Taxer les plus gros consommateurs de bande passante sans affecter les entreprises françaises est une bonne idée dans l'absolu. Cela permettrait de taxer les entreprises qui échappent actuellement à la fiscalité française. Mais cela entraînera également des conséquences comme le rappel l'AFDEL sur Numerama (3). En effet, cette taxe toucherait indistinctement les GAFA et les grosses sociétés du web et les start-ups du web, qui vu leur taille ne payent pas d’impôt sur les bénéfices. Ces dernières serait donc directement affectées par la taxe.
Le délégué général de l'AFDEL indique également que :
"Les services de vidéo [...] sont aujourd'hui parmi ceux qui coûtent les plus chers à mettre en place et qui consomment le plus de bande passante, mais ce ne sont pas du tout les plus rentables." (3)
Loïc Rivière, le délégué général de l'AFDEL, estime également que suite à  la mise en place de cette taxe la France deviendrait une zone de transit de données à éviter. En effet, les entreprises essayeront par tous les moyens d'éviter de payer cette taxe et le plus simple sera pour elle d'éviter de consommer de la bande passante en France... Enfin, l'AFDEL met également en garde le consommateur car rappel t-il :
"Les taxes sont toujours payées par le consommateur, il suffit de regarder le cas de la Copie privée" (3)
 Il faut également rappeler que cette taxation rentre en contradiction avec un des principe fondamentaux d'Internet qu'est la Neutralité du Net, qui garantit un libre et égal accès aux données circulant sur Internet (4).

 ______________________________

 Pour en savoir plus :

(1) Taxe sur la bande passante : Fleur Pellerin y croit encore, Jean-Philippe Louis. Les Echos. 11/02/2015. En ligne : http://www.lesechos.fr/tech-medias/hightech/0204151866085-taxe-sur-la-bande-passante-fleur-pellerin-y-croit-encore-1092364.php?iQK3XLsW2iCz0azQ.99 (Consulté le 16 février 2015)
(2) Fleur Pellerin propose (encore) de taxer la bande passante, Marc Rees. NextImpact. 11/02/2015. En ligne :  http://www.nextinpact.com/news/93034-fleur-pellerin-propose-encore-taxer-bande-passante.htm (Consulté le 16 février 2015)
(3) Taxer la bande passante "ferait de la France une zone à éviter", Guillaume Champeau. Numerama. 12/02/2015. En ligne : http://www.numerama.com/magazine/32196-taxer-la-bande-passante-ferait-de-la-france-une-zone-a-eviter.html (Consulté le 16 février 2015)
(4) Neutralité du Net, La Quadrature du Net. En ligne : http://www.laquadrature.net/fr/neutralite_du_Net (Consulté le 16 février 2015)

jeudi 12 février 2015

#Digital SNCF, le plan d'une stratégie digitale


La numérisation de la SNCF a pris un nouveau tournant le 10 février 2015 avec la présentation par Guillaume Pépy, président de la SNCF et Yves Tyrode, directeur digital et communication (CDO) du plan #DigitalSNCF. Ce projet concrétise les expérimentations déjà lancées par l'entreprise depuis 2011 en matières d'initiatives open data : plateformes (data.sncf.com), concours (Datasciences.net), applications, rencontres... (1).

Le programme doit se dérouler sur les 18 prochains mois et développe deux axes principaux.

Le premier concerne l'accès internet sur l'ensemble du réseau. La technologie 4G a été préférée à la Wi-Fi. Nous sommes d'ors et déjà avertis que celle-ci ne concernera par l'ensemble des gares et des trains mais se cantonnera aux principales à forte concentration et aux TGV. Pour le reste du réseau le projet net.SNCF travaille à assurer la couverture 3G et 4G sur l'ensemble des lignes.

L'ouverture et la vente des données de la SNCF est de loin le plus riche des axes du plan #DigitalSNCF. Il comprend les projets Open Data, Open API et Open Innovation (2), la collecte et l'analyse des données avec FluxSNCF, et la création d'une communauté baptisée les 574, en référence à la vitesse maximale atteinte par les TGV (3).

Transparence et innovation sont les maîtres mots de la mise à disposition des données de l'entreprise. La SNCF souhaite devenir une plateforme sur laquelle pourront s'appuyer tous les acteurs de l'innovation (startups, pôles de compétitivité, datascientists, designers...). Au travers d'API, de la mise en ligne des ressources en format exploitable, d'applications, de datavisualisations, toutes entreprises pourra créer de nouveaux services digitaux. L'objectif est clairement : le service pour la mobilité des usagers et l'investissement dans l'innovation.

Les données ouvertes ou vendues concernent les horaires d'ouvertures des gares, les horaires théoriques et réels des trains, ainsi que les correspondances. Store.sncf sera l'outil principal pour développer et être guider dans le design d'application et la navigation dans les API. Enfin le projet FluxSNCF élargira le traitement et la valorisation des données en s’intéressant à celles concernant le déplacement des clients. Il assurera uniquement leurs collectes et leurs analyses.

Du point de vue économique le plan #DigitalSNCF participera aux rapports de force déjà éprouvés avec les GAFA (Google, Apple, Facebook et Amazon) d'internet dans d'autres domaines. La SNCF est tout à fait consciente que l'ouverture de ses données est une aubaine pour eux et principalement Google, ciblé depuis longtemps comme leur principal concurrent. Guillaume Pepy espère éviter tous risques d'être désintermédié, (que l'on s'immisce entre son entreprise et les clients en proposant d'autres solutions de transports...) en faisant le choix d'un modèle économique de type Freemium.

«L'accès à ces API se fera avec un modèle économique clair et vertueux. Les start-up et les petits utilisateurs ne paieront pas ou très peu, les multinationales du Net paieront davantage », a ajouté Yves Tyrode. (4)

La création d'un fond d'investissement pour prendre des parts dans les stratups qui travailleront sur leurs données est un atout assumé de la stratégie du Groupe SNCF. Un budget de 30 millions d'euros sur trois ans y a été alloué. Les API, quant à elles, sont le troisième rempart élevés contre les géants du Web, puisque cette solution technique comme interface d'échange n'est habituellement pas choisi par ces entreprises.

Sources :

Usine Digitale, publié le 02/09/2014

Sncf.com, publié le 09/02/2015

Usine Digitale, publié le 10/02/2015

La Tribune, publié le 12/02/2015

SKOS Play: une nouvelle application de visualisation des thésaurus SKOS (1)


C'est une application gratuite de visualisation de thésaurus, taxonomies ou vocabulaires contrôlés exprimés en SKOS. 

SKOS ?
SKOS (Simple Knowledge Organization System) est une recommandation du W3C pour représenter des thésaurus, classifications ou d'autres types de vocabulaires contrôlés. Il s'appuie sur un modèle RDF afin de permettre la publication des vocabulaires structurés pour leur utilisation dans le cadre du web sémantique (2).

SKOS Play propose de faire des index alphabétiques, des arbres hiérarchiques, des tables de traduction en HTML ou PDF cliquables (3). Ci-dessous, un exemple de la vue hiérarchique étendue du thésaurus de l'Unesco.


(source: http://blog.sparna.fr)


Cette  application a plusieurs fonctions:
- vérification des vocabulaires en phase de création
- les faire valider par les gens du métier en phase de validation
-  les publier en phase de diffusion

Cette application peut traiter jusqu'à 5000 concepts grâce à la capacité du mini serveur qui l’héberge.
Cette application est utilisée par plusieurs portails de publication de données notamment en France par le ministre de la culture pour générer des thésaurus de la désignation des œuvres architecturales et des espaces aménagés et le thésaurus de la désignation des objets mobiliers.

Récemment, plusieurs évolutions (4) ont été apportées à cette application.

Parmi ces évolutions, on distingue:
- affichage et impression d'alignement de thésaurus
- conversion d'une hiérarchie de classe OWL en SKOS pour pouvoir l'imprimer

Cette application a été créée par Thomas FRANCART qui l'a présenté lors de la conférence web sémantique en novembre 2014 à Paris.



(1) Thomas Francart, SKOS Play : publier et visualiser des thesaurus SKO, Zotero, publié le 5/01/2014
(2) Wikipédia, SKOS, dernière modification le 9/12/2014
(3) Thomas Francart, SKOS Play ,Slideshare, publié le 10/11/2014
(4) Thomas Francart, SKOS Play : alignments, SKOS-XL, autocomplete search fields, and more !, blog Sparna, publié le 5/01/2015

Les sources ci-dessus ont été consultées le 12 février 2015

Handicap et Internet des objets


La date buttoir du 1er janvier 2015 fixée par la loi "handicap" du 11 février 2005 sur la mise en conformité des ERP (Établissements Recevant du Public) n'a pas été respectée dans la plupart des villes en France . Pour mémoire, selon l'INSEE, 10 millions d’individus sont  en situation de handicap dans notre pays. Aussi, une ordonnance, présentée en conseil des ministres du 25 septembre 2014, donne des délais supplémentaires pour la mise en accessibilité des ERP. Les agendas d'accessibilité programmée (Ad'Ap) permettront à ces derniers de bénéficier d’un délai supplémentaire de 3 à 9 ans.(1)


Le quotidien des personnes atteintes par un handicap n’est pas simple, c’est pour cela que la prise en compte du handicap dans la politique d’une ville, de manière individuelle et collective est importante.(2)

Par ailleurs, il existe des projets d’aménagements et de changements pour "une ville du futur"  qui n'ont rien à voir avec la loi de 2005 mais qui pourraient être utiles à l'aménagement de mobiliers urbains. La ville de Paris, par exemple, a mis en place (depuis 2009) des projets d’expérimentation pour la ville du futur. A ce jour 40 projets (3),(4) ont été expérimentés mais pas une de ces idées n'est tournée vers "l'accessibilité pour tous".

Le projet de 2014 qui s'intitule "Le meilleur futur urbain" énonce la problématique suivante : 

"Le projet doit mettre en valeur une excellence ou une innovation pouvant servir de modèle  sur l’une ou plusieurs des thématiques suivantes : Impact social, Impact économique, Impact sur l'environnement, Impact sur les mobilités" (5) ... Là encore, il n'y aucune réponse à l'accessibilité pour tous.


Pourtant la "ville connectée et accessible pour tous" n'est pas une utopie. 
 L'internet des objets appelé aussi IoT pour "Internet of Things" (6) est une évolution d'internet en terme d'accessibilité. Ce que font certains objets connectés  en sont une preuve flagrante, en voici quelques exemples :
Dans un environnement connecté, les personnes aveugles peuvent être aidées dans leur orientation par la mise en place de diverses puces RFID sur leur chemin. Les cannes blanches peuvent par ailleurs être munies d’un lecteur de puces RFID. Le lecteur permet d’enregistrer des parcours.Les obstacles peuvent être évités.
Les dispositifs physiques connectés qui peuvent être installés dans tout le mobilier urbain.
Voir le schéma : L’architecture de l’Internet des Objets selon Mari Carmen Domingo. (7)

En poussant plus loin la vision de l'accessibilité sur la voie de la communication, il existe un HandTalk (8) qui est un gant capable de reconnaitre le langage des signes et le transforme en une voix via une application smartphone.

L'IoT est lié à la réalité augmentée. A ce sujet l'ergonome Pierre Fazon appelle un "environnement capacitant [...] c’est-à-dire un environnement qui permet aux personnes qui évoluent en son sein d’élargir leurs possibilités d’actions, de connaissances, d’autonomie, et plus largement un environnement dans lequel tout le monde, peu importe son âge ou son handicap, expérimente la même participation, la même intégration, la même indépendance. Plus qu’une potentialité, la création d’environnements capacitants pourraient même être l’enjeu principal de l’IoT."...(9)


(2) Baromètre APF de l’accessibilité 2013 : AVIS DE TEMPÊTE !

(7) Accessibilités de l'internet des objets

(8) HandTalk communication glove

(9) Le concept d'environnement capacitant, son origine et ses implications