jeudi 17 décembre 2009

Le Text Mining : pour une meilleure visibilité et une gestion intelligente de l’information en métadonnées

Pour de nombreuses entreprises, institutions et particuliers du milieu de l’information, le traitement de grands corpus pose souvent un problème de gestion du point de vue du traitement des données. Outre, les nombreux outils mis à dispositions des utilisateurs pour pallier les besoins de la gestion des flux informationnels réguliers, le Text Mining fait partie des outils simples du Knowledge Management pour un traitement de l’information sémantique pertinent.

Le Text Mining™ ou Text Data Mining ou KTD (Knowledge Discovery in texts), outil largement utilisé en ligne ou en intranet, comprend l’ensemble des techniques issues du traitement automatique de données en langage naturel.

Il permet le traitement de données textuelles en données codées, tout en facilitant la recherche d’information et l’extraction de l’information ainsi que son traitement, qu’elle soit structurée ou non. Il est capable d’identifier la ponctuation, le formatage, ainsi que les variations de syntaxe, de langue, le plagiat et la lemmatisation. Le dispositif procède à une analyse lexicographique et multilingue, en recensant le nombre de mots et leur fréquence d’utilisation. A la fois moteur de recherche, il est également utilisé pour faire de la veille, de l’archivage et contribue à enrichir un index.


Les unités de langue tels que les textes ou les phrases découpés sont traduites en segments de manière à rendre visible l’information avant son traitement. Voici un exemple de découpage par ponctuation : sauf aujourd’hui/ U.-S.-A/ 3/14159/ post-chirurgicale/, ce que l’on qualifie de « tokenisation ».


Les outils de Text Mining sont des logiciels simples d’utilisation, accessibles en ligne selon des modalités variables. Calliope, logiciel payant de l’INPI, élargit le travail « de fouille de textes », selon sa dénomination anglaise, aux cartes thématiques, avec une classification en trois domaines : termes émergents, stables ou déclinants. Text Mining Tool (version 1.1.42 téléchargeable gratuitement sur la plateforme 01.net : Text Mining Tool) permet d’effectuer un travail préparatoire, utile pour des documents importants – sachant que tous les formats sont autorisés - en amont, sur l’extraction des différentes thématiques, mots clés ou descripteurs qui pourraient être utilisés pour une éventuelle indexation.

Autre programme : le portail Arisem, créée par la Thales Company. Une gamme de composants est proposée à l’utilisateur, en fonction des processeurs, de ce que l’on souhaite faire de l’information : la mettre en évidence, la catégoriser, l’explorer ou l’extraire. Autre modèle de fonctionnement, le système UIMA (Unstructured Information Management Architecture) d’IBM, accessible en open source. Il procède de la manière suivante :



http://www.christian-faure.net/2007/05/30/introduction-au-text-mining/

Outil sémantique multifonctionnel, le dispositif Text Mining permet un traitement simple des données en méta‑information, sans modification de contenu. Derrière ce travail d’analyse, le séquencement s’établit intelligemment à partir des différentes parties d’un document. Il procède à une extraction de mots clés, procurant plus de visibilité au texte, comme un relais virtuel de formulaires descriptifs.

La sémantique fait partie des nouvelles technologies, avec tout un panorama d’outils de plus en plus perfectionnés qui facilitent le traitement de l’information en amont à son analyse. L’utilisateur est assisté au travail préparatoire et identifie aisément les points essentiels de l’information.

Droit au non numérique et Facebook : la sécurité des informations

Le 12 novembre dernier s’est tenu à l’Institut de Sciences politiques à Paris un atelier portant sur le droit au non numérique animé par la secrétaire d’état N.KOSCIUSKO-MORIZET. Le droit au non-numérique n’est pas une nouvelle idéologique réactionnaire refusant toute innovation technologique mais un projet de sécurisation des informations personnelles des utilisateurs. Il s’appuie sur la loi de 1978 sur les données informatiques. Dorénavant, une limitation de la durée des informations sur le web devra être instaurée et tout internaute pourra exiger qu’elles soient supprimées. Par ailleurs, les employeurs ne pourront plus enquêter sur la vie personnelle des candidats comme cela se fait fréquemment de nos jours ! Qui plus est, grâce aux cookies et autres spywares, nous sommes constamment surveillés sur Internet, il n’y a pas d’anonymat et les sociétés en profitent pour matraquer les surfeurs du web de publicité. Il devient même franchement pénible de lire un site web tant les pop up polluent l’écran. Le projet du droit au non-numérique prévoir également de légiférer à ce niveau.

Avec 350 millions d’utilisateurs de par le monde, Facebook est un des réseaux sociaux les plus populaires. Il y a environ une semaine, Le fondateur, Marck ZUCKERBERG a récemment entrepris de modifier les paramètres de confidentialité de son site mais les multiples effets ont provoqué la foudre des Facebookers. En effet, au lieu de sécuriser certaines données, le nouveau Facebook rend publiques beaucoup plus d’informations qu’auparavant. Les internautes peuvent avoir accès à des renseignements sur les utilisateurs sans qu’ils aient besoin d’être inscrits sur le site ! Les paramètres de sécurité de l’info ont été modifiés et les membres doivent gérer eux-mêmes l’accès de leurs informations à la sphère publique ou privée. Une belle manière de la part des fondateurs de se déresponsabiliser !!!

Force est de constater qu’il est plus facile de légiférer que d’appliquer les lois. Il appartient donc à chacun d’être vigilant et d’avoir conscience de sa pratique de l’Internet.

mardi 15 décembre 2009

Chasse aux trésors

Un sésame pour ceux qui souhaitent effectuer des recherches universitaires ou à titre personnel sur des documents Parisiens anciens vient de s'ouvrir.

Dès aujourd'hui 15 décembre 2009, les archives de Paris permettent un accès en ligne à un immense fonds de documents, désormais disponible, tant iconographique (+ de 5 millions de références concernant les seules images) que textuel.

Il s'agit en fait de documents ayant subi une numérisation depuis 9 ans maintenant qui comprennent : l'état civil parisien jusqu'en 1902, les dénombrements de population (1926-1946), les tables des états signalétiques et des services militaires militaires (1875-1930), les répertoires d'admission des enfants assistés (1742-1917), les ordonnances de restitution des biens spoliés pendant la seconde guerre mondiale (1945-1976), enfin les plans parcellaires parisiens du XIXe siècle ainsi que des collections photographiques (1860-1940).

Comment rechercher ? La thématique Etat civil, par exemple, est organisée en deux périodes (avant 1860 et après 1860 - reconstituée partiellement à cause des destructions lors de La Commune) et intègre un moteur de recherche par tables décennales, registres d'actes, ou encore fichier alphabétique ou par noms.

Des fonctions de zoom par zone de texte, de déplacement au sein des registres, de feuilletage en ligne, de commande d'actes à distance et d'impression sont disponibles. L'accès se fait en texte intégral ou par listes.

Pour en savoir plus:

http://canadp-archivesenligne.paris.fr

Intelligence territoriale, un nouvel eldorado pour les professionnels de l'Info-Doc ?

Depuis plusieurs années, la plupart des acteurs territoriaux entreprennent des démarches d'intelligence territoriale où les méthodes d'acquisition et de diffusion de l'information ont un rôle essentiel.

L'intelligence territoriale peut être considérée comme l'application des principes de l'intelligence économique au service du développement économique d'un territoire. Les collectivités territoriales développent des stratégies d’intelligence économique prometteuses et se dotent d'outils d'analyse très performant. Dans cette même dynamique, les pôles de compétitivité s'adressent aux professionnels de la veille pour collecter l’information, la capitaliser et mutualiser les connaissances. On comprend aisément que les enjeux et les intérêts territoriaux sont liés à l'utilisation d'outils adaptés et à la capacité à se coordonner pour maîtriser de l’information stratégique.

Devenue incontournable, l'intelligence territoriale implique donc de nouveaux usages sociaux et fait émerger de nouvelles fonctions liées à l'ingénierie documentaire. Les professionnels de l'info-doc peuvent se positionner au sein de ces dispositifs de veille stratégique et faire valoir leurs compétences et savoir-faire.

Dans ce cadre l'INTD et le CNFPT ont organisé le 10 novembre 2009 un séminaire s'adressant aux documentalistes et bibliothécaires territoriaux. De nombreux intervenants tels que Christian Bourret, Maître de Conférences en Sciences de l'Information et de la Communication, et Jean-Jacques Duffourc, directeur de l'ENACT de Nancy, sont intervenus sur ces questions de développement de la fonction information-documentation dans les collectivités territoriales.

jeudi 10 décembre 2009

Green IT

Lorsqu’on évoque le terme "informatique verte" on se confronte à plusieurs types d’enjeux, repartis sur tout le cycle de vie d’un produit informatique.

Tout d’abord, il faut prendre en compte l’impact écologique de conception et de production. Ce dernier est particulièrement important, à cause des substances toxiques employées dans le processus de fabrication. Selon le rapport "Comment se diriger vers une informatique durable" réalisé par Greenpeace en 2007, le secteur informatique consommerait à lui seul un quart de la consommation mondiale de mercure.


Il faut penser, ensuite, à la consommation énergétique et à la pollution engendrée par l’utilisation quotidienne des infrastructures informatiques. On parle d’un milliard d’ordinateurs en 2008 et on en prévoit 2 milliards en 2015. Lorsque le produit arrive en fin de vie, il se pose enfin le problème du recyclage, ou d’une éventuelle réutilisation ou « seconde vie ». Ce problème devient de plus en plus d’actualité, si on considère que la durée de vie moyenne d’un ordinateur est passée, depuis 1997, de 6 ans à 2 ans.
 
Au-delà de la prise de conscience au niveau législatif ou international (voir Climate Change Conference, Copenhague), il y a plusieurs axes de progrès possibles, notamment en terme d’éco-conception et de labellisation. Si aujourd’hui le label principal est le très critiqué EnergyStar (Agence américaine pour la protection de l’environnement) on envisage la création d’un label alternatif, au niveau européen, qui prendrait davantage en compte la nature des matériaux utilisés, ainsi que leur facilité de recyclage.

 
En tout cas, l'informatique verte est désormais considérée comme un enjeu majeur pour les années à venir, dans toute entreprise ou organisation et elle représente un sujet important de réflexion, lors de la mise en place ou  le renouvellement d’une infrastructure informatique.



OpenStreetMap, une alternative à Google Maps

L'objectif d'OpenStreetMap, projet de cartographie libre, est de mettre en partage gratuit les données géographiques de la planète.

Selon ses concepteurs, les informations cartographiques relèvent de la propriété publique et non de celle des agences qui les ont relevées pour les exploiter commercialement comme l'Institut Géographique National. Ainsi l'idée maîtresse est de se positionner aux antipodes de la démarche appliquée par Google Maps se situant dans une stratégie mercantile qui conduit ce service à protéger des contenus dont la reproduction est strictement interdite.

La contribution et la gratuité sont donc les principales valeurs avancées par OpenStreetMap.

L'exploitation d'un tel outil est vaste, elle touche une multiplicité de domaines d'application. OpenStreetMap a généré une base de données utilisée par des sites Internet qui en font un usage étendu. La cartographie est désormais découpée par thèmes spécifiques, des pistes cyclables au balisage maritime.

Projet ambitieux, OpenStreetMap utilise des méthodes élémentaires telles que le déplacement de petites équipes mobiles munies de GPS. Après l'enregistrement du parcours, les coordonnées sont transférées sur un ordinateur, le résultat est converti en itinéraire routier en agrégeant les informations nominatives relatives aux lieux.

Dans cette optique, le projet invite les internautes à publier leurs propres tracés sous licence CC by-sa.

Passer de 100 000 contributeurs à un million : telle est l’ambition du projet OpenStreetMap proposé lors de la 3ème édition du State of the Map qui s’est déroulée à Amsterdam du 10 au 12 Juillet 2009.

Forces de frappe d'OpenStreetMap, les contributions des participants connaissent une croissance régulière et les créateurs envisagent un rapide développement sur la toile.

mardi 8 décembre 2009

Zakta, le moteur 2.0

"Find exactly what you are searching for". Telle est l'accroche prometteuse affichée par le dernier né des moteurs de recherche, Zakta.

Une promesse tenant en quatre points : trouver, personnaliser, partager, découvrir.

Trouver. L'affichage des résultats de recherches se fait par catégories (cent au total, parmi lesquelles: Reference, Web Sites, Books & Articles, Educational, Professional organizations and activities...) ce qui permet un accès plus rapide à un type particulier de ressource. Ainsi, les articles issus de wikipédia se trouveront sous "Reference", alors que les suggestions d'ouvrages (liant vers Amazon.com) seront accessibles sous "Books & Articles". Avec le "Zakta Best Bet", le moteur de recherche affiche en tête des résultats le site web lui paraissant le plus pertinent (fonction similaire à "J'ai de la chance" sur Google). Les suggestions de termes sémantiquement proches sont également au menu de ce moteur qui apporte à un secteur déjà bien encombré une couche Web 2.0 à la recherche sur internet.

Personnaliser. Supprimer des résultats, en modifier l'ordre (par un simple "glisser-déposer"), les annoter et les sauvegarder dans un espace personnel, sont autant de fonctions permettant au visiteur de se créer sa propre page de résultats, selon ses propres critères de pertinence.

Partager. Une fonction intéressante de Zakta réside dans la possibilité offerte à un internaute de créer ses "Zakta Guides", faisant ainsi profiter l'ensemble des visiteurs de ses résultats de recherches sur des thèmes précis. A titre d'exemple, un internaute propose un guide au sujet de la ville de Berlin, permettant de retrouver des liens organisés par rubriques vers des sites traitant de la géographie de la ville, de son économie ou bien encore de son actualité politique. Les internautes peuvent être invités à commenter les liens proposés dans ces guides et à en proposer de nouveaux.


Découvrir. Les possibilités de connexion se multiplient à mesure que s'agrandit la communauté des "Zaktanautes" : les membres se retrouvent autour de leurs centres d'intérêts, découvrent de nouveaux sites web et les font partager à leurs "suiveurs" (les "followers" dans le langage Twitter). Pour un site internet, cette mécanique peut être bénéfique car s'il est mis en avant par un internaute reconnu comme étant un expert dans son domaine, il gagnera alors en crédibilité.

Enfin, Zakta est un moteur qui apprend des recherches de ses visiteurs. Des sites mis en avant dans les "Zakta Guides" ou fréquemment partagés entre membres s'afficheront plus facilement en tête de liste de résultats.
Néanmoins, comme tout site "social", le succès et la pertinence de Zakta sont conditionnés par l'élargissement de sa communauté de membres et l'atteinte d'une masse critique de contributeurs.

Raz de marée

Poursuivant sans relâche son effort d'expansion, Google se dote d'un nouvel outil baptisé Google Wave dont l'ambition est de centraliser toutes les communications électroniques des internautes. Le principal atout de ce nouvel outil repose sur la faculté d'échange en temps réel des informations. Ainsi, à la manière Etherpad, l'utilisateur voit sur son écran s'afficher progressivement les contributions de ses partenaires et peut intervenir directement dessus. Il existe également une fonction historique présentée sous la forme d'une timeline. Avec cette barre temporelle, semblable à celles que l'on retrouve pour le visionnage d'un film ou d'un fichier audio, l'utilisateur peut retourner à un état antérieur d'une discussion, ou de composition d'un document.
Dans cet espace, l'utilisateur peut donc non seulement travailler avec des collaborateurs, et stocker ses documents, mais encore chatter, comme sur Gmail, ou partager des photos et des vidéos avec ses contacts. De nombreuses fonctions permettent également d'étendre ses moyens de communication au moyen de robots de traduction de langues, ou en intégrant un service de sms.
L'utilité de Google Wave, au regard de son interface riche et colorée se veut donc à la fois ludique et professionnelle. Elle mise sur l'intuitivité avec, notamment, les fonctions de glisser/déposer. Voici un apercu de son interface:

Dévoilée le 28 mai dernier, Google Wave est testée depuis le 30 septembre dernier par une poignée d'internautes qui a reçu des invitations. Il est possible de s'en procurer, à condition d'être patient, en suivant ce lien :
https://services.google.com/fb/forms/wavesignup/

Ou de visionner la video réalisée lors du lancement officiel :
http://www.youtube.com/watch?v=v_UyVmITiYQ&feature=player_embedded

Le raz-de-marée Google a donc encore de beaux jours devant lui...




lundi 7 décembre 2009

Numérisation des œuvres orphelines: les solutions préconisées par l'IABD

Les œuvres orphelines sont un obstacle majeur au développement de la numérisation. Pour l'Interassociation archives-bibliothèques-documentation (IABD), "le défi consiste à trouver, en concertation avec tous les acteurs concernés, le système juridique adéquat qui permettra de numériser rapidement ces fonds, en conciliant le respect du droit d’auteur avec l’exigence d’accès à la culture et au savoir"(1).

Pour numériser et communiquer les œuvres orphelines en toute légalité, y compris sur Internet, les quatorze associations signataires préconisent :
  • des accords-cadre définissant le seuil minimum de recherche avérée et sérieuse et les grilles tarifaires des redevances à acquitter ;
  • une société de gestion collective agréée faisant office de guichet unique ;
  • une licence en échange d’une compensation financière raisonnable, laquelle servira notamment à indemniser les ayants droit qui se manifesteraient.
Cette déclaration s'appuie sur une synthèse juridique rédigée par Michèle Battisti, mise à disposition sur son nouveau blog, Paralipomènes, "Les oeuvres orphelines, le défi lancé par Google".

(1) Déclaration du 2 décembre 2009: http://www.iabd.fr/spip.php?article91


Un comité des sages européen face à Google

Les grands projets de bibliothèques numériques telles qu'Europeana ont pour ambition d'offrir aux chercheurs et aux consommateurs de toute l'Europe de nouveaux moyens d’accéder aux connaissances. Une politique volontaire de numérisation du patrimoine culturel est engagée tant dans l'Union européenne qu'en France. La BNF et la bibliothèque de Lyon ont notamment lancé des projets de numérisation de grande envergure.
Google a bien évidemment répondu présent et est tout a fait en capacité de relever les défis de la numérisation des fonds patrimoniaux français. La mairie de Lyon a signé un contrat de numérisation avec Google qui vient d'être rendu public sur la demande de LivreHebdo qui , pour cela, a dû saisir la CADA (Commission d'Accès aux Documents Administratifs). La BNF étudie également la possibilité de contracter avec Google, parallèlement aux projets qu'elle mène dans le cadre européen. Les fonds sont tellement conséquents que le partenariat avec Google parait inévitable pour que le projet se réalise à court ou moyen terme.
Ce qui inquiète, c'est qu'il semble être actuellement le seul à avoir les moyens de le faire comme le montre Dominique Lahary sur son Dlog : Google va t-il tout dévorer ?. Une partie importante du contenu du patrimoine français ou européen pourrait alors se retrouver entre les mains du géant américain.
Google, en position de force, cherche actuellement à négocier des accords avec les éditeurs anglo-saxons. Or, pour encadrer la numérisation de son patrimoine, ni la France, ni l'Europe n'entendent se laisser dicter la loi par Google. C'est pourquoi, les ministres de la Culture de l'Union européenne ont décidé, le 27 novembre, de créer un comité des sages chargé d'encadrer les partenariats public-privé, l'objectif poursuivi étant notamment de trouver un consensus européen face à Google.
La mission de ce comité sera de "développer une doctrine commune et lisible sur les conditions du partenariat public-privé" pour 2010.
Le ministre français de la Culture, Frédéric Mitterand, est à l'origine de cette proposition qui a reçu le soutien de plusieurs états membres. En France, la commission sur la numérisation des fonds patrimoniaux des Bibliothèques sous tutelle du ministère de la Culture et de la Communication, présidée par Marc Tessier, est chargée d’étudier l’opportunité et les modalités d’un éventuel accord avec un opérateur privé, pour numériser ou mettre en ligne les fonds des bibliothèques. Elle doit rendre ses conclusions à la mi-décembre.

jeudi 3 décembre 2009

Tag et thésaurus

À l'heure où folksonomie et autres indexations soulèvent intérêt ou inquiétude, Antonin Benoît Diouf propose sur son blog aux documentalistes et aux professionnels de l'information de se détacher de "de l’amateurisme qui se manifeste généralement dans la liberté de description de contenu permise par les médias sociaux".

Il présente ainsi une liste de dix thésaurus consultables en ligne, couvrant des domaines aussi variés que le développement économique et social, les institutions européennes, l'agriculture, la santé, l'eau ou encore la culture et l'éducation. Une sélection utile de thésaurus de qualité.

On signalera par ailleurs l'arbre (encore en pleine croissance) de Tard-Bourrichon, annuaire de thésaurus francophones et gratuits en ligne.

Créer, nommer ; penser, classer. Ces opérations, certes hautement symboliques, sont aussi une part intégrante de notre métier. Si l'ampleur et la prolifération des connaissances rendent aujourd'hui caduque l'ambition initiale des classifications universelles, le savoir-faire des documentalistes reste une valeur qu'il ne faudrait pas sous-exploiter.

Un OVNI dans les moteurs de recherche

Quelques jours avant Halloween un bien curieux moteur de recherche a fait son apparition sur la toile : "Mystery Google" (www.mysteryggogle.com).
D'apparence, ce site ressemble à celui de Google mais son apparence esthétique plutôt moyenne (une pleine Lune sur fond noir) le rend lugubre et un rien... mystérieux. Pourtant on peut vite se rendre compte que ce moteur n'est pas dénué d'humour. Tentez une requête et ce "Google mystère" vous envoie vers des réponses totalement insolites.
En fait, ce moteur a la particularité de ne pas répondre à la question que vous lui posez. Il vous oriente vers les réponses d'un utilisateur précédent ! Cela peut donner des situations très cocasses. Ainsi, en tapant "Barak Obama" vous pouvez vous retrouver au Syndicat d'Initiative de La Rochelle, "Nicolas Sarkozy" peut vous envoyer sur une pizzeria à Montpellier, la "BNF" vers un restaurant chinois à Sydney...

Si vous êtes amateur du surréalisme cet outil est pour vous ! Vous êtes sûr de ne pas trouver de réponse à vos questions.

Plus drôle, quelques mots provoquent des comportements surprenants.
Ainsi, si vous tapez "Hello" il vous répond "Hi !" ("salut !), le mot "test" donnera le message : "It works !" ("ça marche !"), la requête "Google" vous donnera "No, mystery Google" et "Mystery Google" donnera "that is the site you are on" ("c'est le site ou vous êtes").
Par contre, si vous tapez "Facebook" vous arriverez sur la page d'accueil de... Facebook. C'est à ne rien y comprendre !
Il doit exister une dizaine de mots clés capables de le faire réagir. Les trouver par jeu est bien le seul intérêt de ce produit.
Reste une question à aborder. Qui se cache derrière cet interface ? Google ? Mauvaise pioche ! Il y a quelques jours ce moteur à changé de nom. Il se nomme dorénavant "Mystery Seeker" et la surprenante référence "Google is a trademark of Google.Inc" a laissé la place à "copyright mystery seeker 2009". On peut légitimement supposer que Google a moyennement apprécié la plaisanterie. Il semblerait qu'un mystérieux site "Topinternets.com" se cache derrière tout cela.

A voir... En fait, "Mystery google" pardon "Mystery Seeker" ne serait rien d'autre que du "marketing teasing". Vous voulez savoir ce que c'est ? A vous de trouver le bon moteur de recherche...

mardi 1 décembre 2009

Intelligence ambiante

Voilà une expression qui ne va pas de soi, si on regarde ce qui nous entoure... Qu’est-ce que l’intelligence ambiante ? Cela désigne une tendance actuelle de l’informatique dont on nous prédit le complet développement en 2010 donc très prochainement. Le concept recouvre l’introduction d’internet et de l’informatique dans tous les objets de la vie quotidienne (on parle aussi d’ « internet des objets ») grâce aux avancées des nanotechnologies. Ainsi le web devient omniprésent : tout le monde accède au réseau de n’importe où, par n’importe quel moyen et à tout moment. Par ailleurs, les objets communiquent entre eux de manière autonome sans passer par l’intermédiaire d’un utilisateur : l’exemple fréquemment cité est celui d’un réfrigérateur qui proposerait un menu à partir des ingrédients qu'il contient, signalerait la date de péremption des aliments et commanderait directement ceux en rupture de stock…

La conception classique de l'informatique centrée sur le couple utilisateur/ordinateur est remise en question : l’informatique serait alors diluée dans l’environnement des individus.




Pervasion=la pénétration de l'électronique dans des produits non électroniques
(Source: Wikipedia, "Intelligence ambiante")


Pour résumer, l’intelligence ambiante repose sur trois domaines :
- L’Ubiquitous Computing : on intègre des microprocesseurs dans les objets de la vie quotidienne.
- L’Ubiquitous Communication : les objets communiquent entre eux et avec l'utilisateur.
- L’ Intelligent User Interface : les usagers contrôlent et interagissent avec ces objets de manière intuitive.

Déjà très ancrée dans les programmes de Recherche et Développement des entreprises concernées et aussi dans ceux de l'Union Européenne, ce domaine représente un secteur clé des nouvelles technologies d’un point de vue économique car les applications sont extrêmement larges: équipement de la maison, télécommunication, équipement des entreprises, etc. (voir la maison du futur - en passant c'est toujours la mère qui range la vaisselle... - présenté par le projet européen Amigo - Ambient Intelligence for the networked home environment auxquel ont participé 16 sociétés européennes, instituts de recherche scientifique et universités). Quant aux conséquences dans le domaine éthique, les questions sont nombreuses et notamment celle des possibilités de traçage des utilisateurs.

jn.marie