L’Internet des Objets fut la star du Web’12, ou du Consumer Electronics Show 2013 ; dont les portes se sont refermées récemment, à Paris ou à Las Vegas. Il est essentiellement représenté par trois univers relativement cloisonnés. Le premier, orienté grand-public, est issu du monde de l’électronique : Withings, Hapilabs, Bubblino… sont autant de fabricants de dispositifs connectés aux réseaux sociaux ou à des applications sur Smartphones. Des éditeurs de plateformes collaboratives matérielles et logicielles permettent l’interconnexion de ces dispositifs afin d’en combiner les usages : Pachube (Cosm), Sen.se, Arduino, ThingWorx , etc. forment le deuxième univers. Enfin, dans un domaine plus professionnel, les acteurs issus du monde de l’auto-ID (identification automatique des objets) d’Internet ou du Machine-2-Machine (semi-conducteurs, équipementiers et opérateurs de télécommunications) : Orange Business Services, Alcatel-Lucent, Cisco, Tales of Things, GS1, Touchatag, Sigfox… œuvrent à l’interconnexion des objets physiques et d’un monde virtuel parallèle, accessible via Internet.

L’idée consistant à appréhender la réalité par l’intermédiaire de capteurs ou de supports d’identifiants d’objets, afin d’agir en retour sur cette réalité, fut déjà théorisée dans les années 80 par divers intervenants (Pr Sakamura de l’université de Tokyo, Mark Weiser du laboratoire Ubicomp, etc.). Les travaux sur ces environnements ubiquitaires ont ouvert la voie à l’idée de Kevin Ashton qui inventa le terme d’Internet des Objets, alors qu’il travaillait chez Procter & Gamble, avant de cofonder l’Auto-ID center au Massachussetts Institute of Technology. La généralisation d’étiquettes électroniques à radiofréquence (RFID) apposées sur les objets de grande consommation devait en permettre l’association avec des services à valeur ajoutée. Internet était LE media pressenti pour assurer le lien avec les utilisateurs. Ce concept d’origine a évolué, la généralisation des réseaux mobiles ayant rendu possible l’accès à de tels services en toutes circonstances. Les perspectives sont désormais vertigineuses : il est estimé que vers 2020, notre planète hébergera sept milliards d’humains… mais aussi soixante-dix mille milliards de choses, dont un pourcentage important sera connecté en réseau.

Trop, c’est trop…

Cependant, en multipliant les capteurs ou en octroyant une capacité de communication accrue aux objets, le nombre et la nature des informations à traiter dans les systèmes informatiques existants vont exploser. Or, les Systèmes d’information de gestion sont pour la plupart déterministes et inspirés de l’analyse fonctionnelle Cartésienne. Programmer signifie souvent essayer de tout prévoir à l’avance, pour modéliser de la façon la plus exhaustive possible ce que devrait être la réalité et non pas la gérer telle qu’elle est. De la même façon, nos modèles usuels en matière d’organisation – économie, management… - reposent sur ce socle analytique théorique, pertinent dès lors que le périmètre traité est restreint. Ce n’est plus le cas lorsqu’il s’ouvre et que de multiples acteurs sont à prendre en compte. La récente période, dite du Web 2.0, est caractérisée par cette logique d’ouverture, communautaire et collaborative. Tous les acteurs – entreprises, citoyens consommateurs… – sont désormais à l’intersection de différentes sphères organisationnelles : privée, publique, économique,… dont les frontières sont devenues floues. Dans ce contexte, des systèmes informatiques déterministes et ultra-performants connectés les uns aux autres, parfois à l’échelle mondiale, catalysent la propagation de petits dysfonctionnements, sans possibilité de contrôle humain, selon ce que Lorenz décrit comme l’effet papillon (théorie du chaos).

Pour autant, la biologie nous enseigne qu’ouverture nécessite de l’adaptation, et qu’adaptation requiert de l’autonomie… L’autonomie n’est pas la capacité à fonctionner de façon indépendante, mais l’aptitude à s’adapter aux évolutions de l’environnement. Les systèmes Informatiques actuels ne sont pas autonomes, donc ils ne savent ni s’adapter, ni s’ouvrir. L’humain reste ainsi le seul acteur autonome des organisations modernes capable, face à l’incertitude ou l’imprévu, de s’adapter et d’établir un comportement intelligible, si besoin dans le cadre de mécanismes d’auto-apprentissage. Le Web 2.0 se définit donc comme la période pendant laquelle les humains-acteurs se sont approprié la toile en tant qu’entités autonomes rationnelles, tandis que les systèmes informatiques ont révélé leurs limites. Dans les années 50/60, l’école sociotechnique s’est pourtant attachée à démontrer que la technologie impactait son organisation d’accueil et son évolution dans le temps. Selon ce courant de pensée, ne pas considérer cette double nature sociale ET technique de l’organisation mène à des impasses… que nous expérimentons au quotidien : l’humain reste seul responsable (et victime) face à la rigidité opérationnelle des organisations les plus complexes. Les pires exemples sont ces crises financières, catalysées par des logiciels de trading à haute fréquence qui décident sur des cycles de quelques microsecondes, bien en deçà de ce que nous pouvons percevoir… donc contrôler.

Dans ce contexte, l’Internet des Objets ne va rien arranger. Augmenter les capacités sensorielles ou réactives de nos logiciels ou nos objets ne va pas les rendre plus intelligents : une grenouille, même équipée de prothèses électroniques, reste une grenouille dans un monde de grenouilles… Ce qui est valable pour elle l’est pour les objets communicants. Reste que cette invasion technologique est une réalité et que ne rien faire nous précipitera plus vite dans le chaos numérique. L’autonomie des systèmes informatiques est la voie la plus prometteuse et passe par de vieilles idées, oubliées de beaucoup d’informaticiens. Elles se nomment Intelligence artificielle ou encore Cybernétique… Dans tous les cas, l’Internet des Objets représente ce seuil à franchir, cette opportunité de redéfinir notre rapport à l’automate au sein de nouvelles approches. Nous sommes face à un paradoxe : notre société de l’information est immature et nous nous apprêtons pourtant à franchir un nouveau cap dans l’«empowerment» de nos artéfacts, qui pourrait s’avérer fatal.

L’avatar du minerai de viande de cheval regarda sa montre et s’inquiéta…

Appréhender l’Internet des Objets nécessite d’être transdisciplinaire et d’opérer de façon systémique : Il faut être capable d’analyser un même problème sous plusieurs angles, procéder de façon récursive et le replacer dans des contextes plus globaux. Ce type d’analyse permet de constater que pour que les réponses données soient les plus efficaces et performantes possibles, il faut qu’elles puissent traiter les problèmes aux niveaux d'intelligence les plus subsidiaires … C'est-à-dire le plus souvent celui des objets qui vivent dans les processus incriminés.

Dans la pratique, cela revient à leur associer une intelligence logicielle, notamment ceux qui ne disposent pas de capacité cognitive embarquée (ex : ordinateur de bord dans une auto). Comme il est économiquement aberrant d’embarquer une telle intelligence dans un pack de yaourts, elle sera déportée dans les nuages (Cloud) ou sur un serveur dédié. Elle s’alimentera de lectures évènementielles opérées sur son code à barres ou son étiquette RFID. Cette intelligence, ou AVATAR de l’objet, sera couplée à l’objet physique et le représentera dans un monde virtuel, via Internet. À l’instar des humains, elle ne pourra pas anticiper tous les scenarii possibles : elle ne contrôlera donc pas l’objet mais le pilotera selon les évolutions du contexte opérationnel… comme le ferait un conducteur pour une voiture. Pour adapter son pilotage, elle appréhendera ces évolutions (capteurs, géolocalisation…), les interprétera dans le contexte de ses objectifs, et recréera continuellement les bonnes conditions de cette compréhension par auto-apprentissage. Le couple formé par l’avatar logiciel et l’objet physique – appelé CyberObjet - est un automate capable d’opérer des décisions dans la conduite des processus réels, sous délégation humaine. L’avatar forme une boucle de rétroaction avec son double physique : réel et virtuel coexistant… jusqu’à se co-fonder.

Dans de nombreux métiers, les CyberObjets pourraient ainsi devenir des acteurs ou agents économiques à part entière, que ce soit au niveau des objets physiques mais aussi d’objets composites dont les avatars représenteraient : des services, des entreprises, etc. Avec les humains, acteurs du Web 2.0, ils contribueraient ainsi à généraliser un Internet des acteurs où chaque entité (homme – objet – automate) serait autonome et capable, par auto-organisation, de capitaliser sur le retour d’expérience, de réagir de façon intelligible, de s’adapter aux situations nouvelles et de s’auto-finaliser (sous contrôle humain).

Faut-il coloniser d’autres planètes ?

Que l’intelligence des objets soit centralisée ou distribuée, l’engorgement actuel d’Internet ne va pas s’arranger. Il est cependant probable qu’Internet va évoluer et ne sera, à terme, pas le même qu’aujourd’hui. En effet, dans les organismes vivants sophistiqués, les terminaisons nerveuses, les glandes, les organes ou le cerveau ne produisent pas la même nature ni les mêmes quantités de données. Des traitements sont faits à des niveaux subsidiaires (ex : réflexe spinal lorsque la main se brûle sur une flamme) et les structures qui les permettent sont décentralisées, spécialisées, savent parfois se reconstruire ou peuvent même se substituer les unes aux autres. De façon similaire, de nombreux protocoles ou architectures réseaux sont aujourd’hui poussés par une industrie ultra-spécialisée qui cherche à multiplier la nature et la quantité de tuyaux disponibles pour l’Internet des objets. Il s’agit de connecter des petits équipements électroniques, des interrupteurs… via des solutions bas-débit, peu énergivores, voire capables de produire elles-mêmes l’énergie qu’elles consomment.

L’énergie nécessaire pour faire fonctionner ces réseaux, ces appareils électroniques ou ces systèmes d’information est également un problème. En 2012, « Les datacenters <…> auraient utilisé <…> près de 30 milliards de watts d'électricité, soit l'équivalent de la puissance de 30 centrales nucléaires »… mais ils sont souvent alimentés par des centrales à charbon et leurs générateurs fonctionnent au diesel ! La demande mondiale en énergie électrique n’est pas couverte par les ressources productives disponibles ; qui ne peuvent suivre en cas de pic de consommation : de nombreuses coupures de courant ont lieu, y compris dans les grands pays industrialisés. Il est donc pertinent de se poser la question de l’adéquation économique ou écologique d’un Internet des objets : il y a de la valeur ajoutée à ce que l’avatar d’un pack de yaourts oublié au fond d’un linéaire se mette lui-même en promotion, sept jours avant sa date limite de consommation. En se connectant au système de fidélisation du magasin, il récupère les numéros de GSM des clients participant à ce programme de fidélisation et qui sont présents dans le magasin à cet instant. Il propose ensuite, via une campagne SMS, une remise en caisse sur son achat sur la base du premier arrivé, premier servi. Parallèlement, il se connecte au système de caisse et fait appliquer cette remise immédiate. Ce pack de yaourts évite ainsi la benne à ordures et sauve la part qui lui revient des consommations énergétiques et efforts nécessaires à sa fabrication et sa commercialisation…
Mais d’un autre point de vue, l’ensemble des consommations et efforts nécessaires à la création, l’hébergement et l’utilisation de son avatar logiciel, ainsi que des échanges avec d’autres systèmes d’information, ce tout au long de son cycle de vie, ne représente-t-il pas une dépense équivalente ou supérieure ?... C’est indémontrable.

La question du stockage est tout aussi préoccupante. Comment supporter l’incommensurable quantité de données que cet Internet des Objets s’apprête à produire, alors même qu’ "1,8 zettaoctet de données ont été produites et répliquées en 2011" , et que ce chiffre double en moyenne tous les deux ans (1 zettaoctet = 10^21 octet) ? La dépense énergétique et l’espace de stockage nécessaires obligent certains à concevoir de nouveaux supports de stockage peu gourmands en énergie, comme par exemple l’ADN biologique, qui non seulement permet une conservation longue durée de l’information (plusieurs milliers d’années si les conditions sont bonnes) ; mais permet d’encoder des quantités gigantesques d’information : « un seul gramme d’acide nucléique peut contenir plus de 455 milliards de gigabits »…

Qu’en penser ? Dans la culture occidentale, l’homme est voué à domestiquer son écosystème. Son propre développement passe par celui, concomitant, de la science. La technologie qui en est issue doit donc permettre de résoudre les problèmes posés. À défaut, il reste possible de trouver ailleurs les ressources nécessaires (ex : colonisation spatiale). À l’opposé, les tenants de la décroissance prônent l’autorégulation et dénoncent les fantasmes du tout-technologique : l’homme étant interdépendant avec son écosystème, il convient d’économiser des ressources terrestres limitées. De façon plus pragmatique, étendre toujours plus nos possibilités technologiques n’est viable sur le long terme qu’en prenant soin d’optimiser l’existant (économie des moyens). Le problème n’est pas tant de construire de nouvelles routes ou d’étendre celles qui existent, que d’améliorer les véhicules qui les utilisent. Concevoir différemment nos systèmes informatiques s’inscrit dans ce cadre : rendre acteurs des objets aujourd’hui inertes, dont la gestion centralisée et déterministe serait bien plus coûteuse autrement.

Comment s’appelle mon pantalon ?

Cette question n’est pas anodine car il fut selon les cas : un champ de coton, une bobine de fil, un carré de tissu, une marchandise, un bon de commande, etc. Dans l’Internet des Objets la question du nommage est essentielle : distinguer une bouteille d’eau d’une autre bouteille d’eau, etc. On trouve déjà aujourd’hui des identifiants d’objets de toutes sortes : classes d’objets sur les codes à barres de la grande distribution, SIM des opérateurs de téléphonie mobile, adresses IP des ordinateurs, coordonnées GPS des points géographiques, etc. Nommer un objet, c’est le distinguer parmi plusieurs catégories ou concepts, lui donner un rôle dans un processus donné ou lui associer des caractéristiques spécifiques. Dans toute communication, il est aussi nécessaire de pouvoir identifier les émetteurs comme les récepteurs.

Mais la question du nommage n’est pas uniquement liée à celle de l’identification. Un objet (chose, être, concept, idée, service, ressource…) ne peut être défini de façon univoque que dans le contexte d’un échange, d’une situation donnée ou de buts poursuivis : le même gobelet sera l’outil permettant de se désaltérer pour Lucky Luke, et un moyen pour creuser un tunnel afin de s’échapper pour Joe Dalton. Cette prise en compte de la situation n’est possible qu’au niveau le plus subsidiaire, celui des acteurs autonomes engagés dans l’échange ou la situation. Nommer une chose n’est donc pas tant l’intégrer dans des ontologies ou ensembles de concepts, que la penser dans un contexte ou processus donné… lui octroyer un rôle (me protéger du froid pour mon pantalon)... et un rôle est souvent joué par un acteur.

Les codes à barres font déjà partie de notre quotidien. Des supports d’identifiants nouveaux sont apparus plus récemment : étiquettes RFID, codes à barres 2D , 3D, etc (Flashcode, QR code, Mobile Tag, Ubleam, etc). Ils permettent de contenir plus d’informations sur des surfaces plus petites (ex : médicaments à l’unité), de lier un produit ou des coordonnées GPS avec une adresse sur le Web (qui présentera ses caractéristiques ou offrira des services associés), ou encore d’être lus en grande quantité et à une certaine distance. Il existe aussi de nombreux vocabulaires ou syntaxes formels utilisant ces identifiants, qui permettent des échanges intelligibles sur les réseaux informatiques sous réserve que les entités communicantes se mettent préalablement d’accord sur la forme (format) et le fond (sémantique) des messages échangés.

Systèmes de nommage, supports d’identifiants et standards de communication sont donc liés dans une même problématique, dont l’enjeu économique est l’identification unitaire de tous les objets de la planète... L’occasion, pour de nombreux acteurs, de faire-valoir leur propres solutions. Chez certains industriels ou distributeurs (grande consommation, logistique, automobile, aéronautique, …), le système EPC, repris du MIT par l’organisme paritaire GS1 (qui codifie les codes à barres sur les produits de grande consommation), est en cours d’étude ou d’adoption. Il présente l’intérêt d’être lié à l’identité du fabricant de l’objet, donc de la nature de ce dernier ; mais nécessite le protocole IP pour fonctionner. D’autres acteurs : équipementiers (Cisco, Huawei, Alcatel…), chercheurs, entreprises, ... cherchent à promouvoir le protocole IPV6. Son intérêt est d’étendre un adressage largement diffusé sur Internet, mais saturé : IPv4. Il permet d’affecter trois cent quarante milliards de milliards de milliards de milliards d’adresses à tout objet : « Si on recouvrait la surface de la terre d'une couche de sable de cinquante kilomètres d'épaisseur <…> et que l'on attribue une adresse IPv6 à chaque grain de sable, on n'utiliserait qu'environ deux cents milliardièmes des adresses disponibles » dit Jean-Michel Cornu . Mais IPv6 ne permet pas d’établir un lien entre l’objet qu’il identifie et sa nature ou son origine. En outre, il présente deux inconvénients majeurs : il est bavard (structure de messages élaborée qui nécessite une certaine taille de tuyaux/bande passante)... ce qui le rend énergivore. Dans un Internet des Objets déployé jusqu’à des niveaux élémentaires de notre environnement (réseau électrique, vêtements, électroménager, interrupteurs,...) son utilisation systématique est impensable ; au point qu'une version allégée fut préconisée : 6LoWPAN.
Il existe d’autres systèmes de nommage : gratuits, payants, plus ou moins structurés… Nous n’irons pas plus loin dans les comparaisons car la question de l’identification des objets, souvent traitée sous l’égide de lobbyistes et de leurs luttes d’influence (Le contrôle des serveurs racines d’Internet est un sujet lié ; aujourd’hui sous influence nord-américaine), n’est pas réductible au choix du meilleur système sur le papier. Tous les systèmes ont leur intérêt propre et devront inter-opérer, sous peine de ne constituer qu’un ensemble d’Intranets des Objets, hermétiquement fermés les uns aux autres. En outre, un bon système permettra à un objet de changer d’identifiant selon les écosystèmes qu’il traversera au cours de son cycle de vie : fabrication, distribution, achat, possession privée et recyclage. La traçabilité sur l’ensemble de la chaine de valeur peut avoir un sens pour des raisons économiques ou sanitaires – voir l’exemple récent des lasagnes de cheval - mais doit rester sujette à autorisations préalables. L’acteur qui possède ou utilise l’objet au moment de la requête concernant l’ensemble du cycle de vie de l’objet incriminé doit, quelle qu’en soit la raison, garder une possibilité de contrôle : a-t-on envie que tout le monde puisse potentiellement savoir que l’on détient un sex-toy ? Même s’il doit être rappelé pour cause de présence de bisphénol-A ?...

Blâmer l’évolution technologique que représente l’Internet des Objets sur la base des dangers que feraient poser aux sociétés humaines une identification généralisée des objets est également un faux-sujet. En soi, une technologie n’est que l’instrument de mauvaises intentions qui, elles, restent humaines. En outre ce problème est plus complexe qu’il n’en a l’air : un service marketing pourra se contenter, pour identifier nommément un consommateur, de sa signature numérique, basée sur l’association des identifiants uniques attachés aux objets qu’il porte ou transporte.

Des objets en marinière Monsieur Montebourg ?…

Internet est un ensemble de ressources, ou valeurs, qui se définissent selon deux critères usuels en économie : l’utilité et la rareté. L’utilité d’une chose est liée à son efficacité pour aider à poursuivre tel ou tel but ou sa polyvalence. Il y a autant d’utilités que d’acteurs l’utilisant : selon les finalités poursuivies ou les moments, le service rendu sera différent. L’utilité est donc une notion subjective qui ne peut s’apprécier qu’en situation et selon l’acteur concerné. La rareté est directement liée à la notion de disponibilité : une chose abondante peut être rare si son obtention ou l’accès à son usage est difficile (extraction, fabrication, commercialisation, contraintes règlementaires, etc.). Internet est, selon les cas, une ressource utile et abondante (Europe de l’ouest, 3/4G, ADSL, WIFI, etc.), utile et rare (campagnes isolées…), etc. Ces conditions peuvent en outre changer dans le temps. Aujourd’hui, dans beaucoup de pays, les infrastructures d’Internet, abondantes, permettent un accès Anywhere, Anytime, Anyhow et disposent donc d’une faible valeur économique. Gagner de l’argent sur les seuls tuyaux n’est donc pas viable pour les opérateurs d’infrastructure ; qui doivent muter en offreurs de services (utilité) et multiplier les offres dans ce domaine (contenus, services en ligne) afin de stimuler la demande solvable. En parallèle, afin de rétablir les pôles de rareté, ils segmentent les offres d’infrastructure : les débits garantis sont différents selon le prix payé par le consommateur.

Le prix d’un objet utile correspond à son coût d’acquisition pour le posséder. L’économie actuelle est majoritairement basée sur la propriété des biens. Pour une raison simple : la meilleure façon d’accéder à un objet utile dont on a besoin régulièrement (sans savoir à l’avance quand on en aura besoin) est qu’il soit disponible en permanence. Le posséder permet donc de répondre à la problématique de rareté. Certains objets coûteux sont cependant disponibles en partage, moyennant une organisation préalable complexe et contraignante : auto-partage, vélo-partage, location immobilière, transports en commun, etc. Le prix de l’objet est alors son coût de location - ou coût d’usage (utilité) - pour une période donnée. La mise en place de cette organisation préalable est aujourd’hui trop contraignante pour généraliser de ce principe à des objets de moindre valeur. Mais si l’on rend les objets capables - à leur niveau et pour un faible coût - de s’auto-organiser pour gérer eux-mêmes leurs propres conditions d’accès et de partage, la nécessité de posséder ces objets devient relativisée. L’enjeu est donc de pouvoir déléguer aux objets autonomes cette capacité à se gérer eux-mêmes, en temps réel, selon les finalités ou contraintes diverses de leurs utilisateurs. In fine, cela implique d’industrialiser l’intelligence logicielle nécessaire afin d’en permettre la diffusion à des objets aussi triviaux qu’un pack de yaourts en supermarché. En généralisant les objets-acteurs, agents économiques à part entière ; il ne sera plus besoin de posséder une échelle sachant s’auto-partager. Les CyberObjets contribueront ainsi à transformer dans un premier temps une économie de consommation de masse pour une économie de l’usage.

Un CyberObjet capable de s’auto-organiser peut aussi apprendre de son retour d’expérience…si l’intelligence qui lui a été dispensée le permet. Cet apprentissage permet de formaliser des savoir-faire nouveaux qu’il peut diffuser, moyennant finance, aux CyberObjets qui seront confrontés à des expériences similaires pendant leur cycle de vie. Ainsi, d’agents économiques simples, les CyberObjets deviendront progressivement créateurs de valeur ajoutée. Ils pourront s’acheter et se revendre des savoir-faire acquis dans des bourses d’échange en ligne sur Internet, généralisant ainsi une économie des savoirs. Ce sera la deuxième étape de cette révolution économique. En généralisant progressivement cette dualité bien/service, les CyberObjets vont spécialiser leurs comportements en fonction des écosystèmes qui les accueilleront. Or, la question comportementale est liée avec celle des systèmes de valeurs, codes et règles en vigueur… c’est-à-dire à la culture de l’écosystème cible. Produire un CyberObjet ne consistera donc plus seulement à le fabriquer physiquement ; mais également à programmer et maintenir son avatar logiciel dans son futur environnement d’accueil. La valeur économique globale du CyberObjet dépendra ainsi non seulement sa capacité à répondre à un ensemble de fonctions ou rendre service (utilité) ; mais aussi à coexister et partager avec une communauté humaine donnée, en adéquation avec les règles locales d’éthique (rareté). Les fabricants de ces CyberObjets devront donc disposer d’une bonne connaissance des écosystèmes d’accueil. Cela implique qu’ils y soient aussi immergés eux-mêmes : les CyberObjets favoriseront ainsi la relocalisation des moyens de production. Cerise sur le gâteau, un CyberObjet peut aussi s’avérer être un facteur de lien social : en cas d’arbitrage difficile, la tondeuse auto-partagée du quartier me demandera de discuter directement avec mon voisin pour régler le problème « entre hommes ».

Il convient cependant de se poser ici la question de l'obsolescence programmée, fondement sous-jacent de notre économie actuelle. Des CyberObjets évolutifs dont la capacité à gérer eux-mêmes les conditions de leurs propres accès et propres partages, incluant si besoin une capacité à s'auto-dépanner, sont-ils compatibles avec les intérêts actuels des manufacturiers de la planète ? Ces derniers seront certainement les premiers résistants à ce changement.

La gouvernance dans l’Internet des Objets

Le terme Neutralité du Net est souvent confondu avec « liberté d’accès » ou encore « respect de la vie privée et de l’anonymat ». La question de la généralisation des identifiants par puces RFID (cf. "droit au silence des puces") sur les objets alimente en outre beaucoup d’inquiétudes. Dans l’Internet des Objets, de nouvelles ressources latentes vont apparaître tandis que d’autres vont disparaître. Les rapports de force qui régissent l’organisation actuelle des acteurs pour accéder au partage des ressources seront amplifiés par l’arrivée des CyberObjets. De nouvelles formes d’organisation – basées sur de nouveaux comportements ou systèmes de valeurs - vont ainsi émerger et viendront supplanter celles, déjà existantes. Il est cependant difficile de prévoir ces évolutions qui ne pourront être interprétées, d’un point de vue éthique, qu’une fois leurs effets constatés et non a priori. Cette approche jurisprudentielle des choses est usuelle avec Internet : les autorités régulatrices y légifèrent toujours après coup.

La question de la gouvernance relève donc de l’organisation à mettre en place s’agissant des conditions d’accès et de partage à un ensemble de ressources en constante évolution. Cela reviendra donc à juger de la neutralité des intentions, des comportements ou des systèmes de valeur des acteurs émergents. Cette question permet de poser un cahier des charges ambitieux :

  • Quel système de valeur/déontologie pour l’Internet des Objets (on rejoint ici le débat sur l'éthique en robotique) ?
  • Comment assurer le libre-arbitre des acteurs dans ce système de valeurs sans que celui-ci ne se transforme en laisser-faire ?
  • Quelle autorité pour s’en porter garante (états-nations, entreprises privées (Exemple des négociations actuelles entre certains états Européens et Google) , collectif citoyen, haute-autorité transdisciplinaire « d’élites »…) ?
  • Quels moyens d’observation, d’analyse, d’action ou de coercition donner à cette autorité ?
  • Etc.

Quelle que soit la réponse, il faudra préférer le mot pilotage au mot contrôle, tout en prenant soin d’éviter la formation de situations hégémoniques. Chaque CyberObjet devra sans aussi être capable d’adapter son comportement en fonction de l’écosystème traversé, sous peine de se voir interdire l’accès à certains d’entre eux (la sphère privée du citoyen par exemple).
Standardiser, pour réguler, est une réponse souvent mise en avant. Cela fonctionne à peu près sur des systèmes fermés ou peu ouverts, mais il est vain d’édicter des règles générales de comportement ou d’interopérabilité face à l’incertitude, au changement opérationnel permanent et à la discontinuité des processus. Cela revient à tenter de définir une finalité commune à l’ensemble des acteurs et modéliser ce que sera la réalité dans tout ce qu’elle a de complexe et de chaotique. Standardiser restera un facteur d’efficience opérationnelle dans certaines niches fonctionnelles mais ne pourra être utile à une échelle globale. En réalité, il n’est pas plus facile de traiter le problème de la gouvernance de l’Internet des Objets que celui, plus général, de la gouvernance des sociétés humaines.

« Objets inanimés, avez-vous donc une âme ? » (Alphonse de Lamartine)

Les CyberObjets les plus sophistiqués seront des entités conscientes de leur comment (règles comportementales), de leurs préférences (face à plusieurs problèmes, la capacité à prioriser les comportements) et de leur raison d’être (l’ensemble des finalités qu’ils poursuivent et la capacité à s’autodéterminer si besoin). L’autonomie comportementale des CyberObjets (innée ou acquise par le retour d’expérience) est une notion qui n’est pas anodine et qui doit donner matière à réflexion. Dans l’acception existentialiste, Sartre explique que, pour les objets inertes, «l’essence précède l’existence». Le coupe-papier est un concept (archétype) que manipule l’artisan qui doit le fabriquer, ce, avant même que le coupe-papier ne soit produit (qu’il existe). Les objets inertes devenant associés à des avatars logiciels, ils deviennent acteurs (CyberObjets), c’est-à-dire potentiellement capables d’inventer eux-mêmes leur histoire. Ils se définiront ainsi dynamiquement tout au cours de leur cycle de vie ; et renverseront leur condition d’objet pour se coller à celle, humaine, selon laquelle «l’existence précède l’essence» ; et qui constitue pour Sartre le fondement de la notion de liberté. Comment ne pas évoquer aussi cet autre concept de Singularité technologique, parfois appelé "mur du temps" , c'est-à-dire ce moment dans l’histoire de l’humanité où la technologie produite par l’homme permet des transformations sociales et techniques qu’il ne peut plus appréhender ou comprendre. En promouvant sa propre création technique ; en partageant avec elle cette caractéristique unique à s’auto-définir, l’homme ne commet-il pas l’hybris ?

En tout état de cause, la rupture ontologique induite par l’Internet des Objets met en exergue des concepts qui ne sont ni nouveaux (Antiquité, Renaissance) ni inconnus de religions ou philosophies orientales : selon la vision shintoïste, tout objet dispose d’un esprit. Mais il faut aussi bien comprendre qu’elle enterre définitivement l’idée selon laquelle l’homme est voué, grâce à la technique, au savoir absolu (idée sous-jacente des courants positivistes ou transhumanistes). En effet, en s’attachant à modéliser l’intelligence artificielle pour la dispenser aux objets inertes, "l’homo informaticus" comprend toute la complexité et la profondeur de ces notions d’intelligence, de conscience ou même de savoir. Tenter de faire les objets à notre image, c’est porter sur nous-même un regard introspectif mais aussi nous faire rentrer dans une boucle étrange ou l’observateur est l’observé… C’est aussi l’occasion de replacer ces CyberObjets dans une perspective plus vaste : « L’évolution majeure que nous sommes en train de vivre réside dans la mutation des différentes formes d’intelligence collective vers une « intelligence interconnectée globale à l’échelle de la Terre. » (Gilles Berhault, « Développement durable 2.0 – L’Internet peut-il sauver la planète ? », Edition de l’Aube, 2008). Vernadsky et Theilard de Chardin ne sont pas loin… Le Cybionte de Joël de Rosnay non plus. Pour reprendre en main le pilotage de sa propre histoire, au sens Sartrien, l’humain doit donc s’adapter au nouvel écosystème qu’il contribue à créer. Et, comme le souligne Jeremy Rifkin, cette adaptation passe par une évolution de ses schémas mentaux : à l’échelle individuelle mais surtout collective. Dans l’ouvrage "Devenez sorciers, devenez savants", Charpak et Broch écrivaient : « Des décisions d’une importance capitale doivent être prises par nos sociétés pour faire face aux conséquences inévitables de la présence humaine sur notre planète. Le capital génétique de l’homme des cavernes n’a sans doute pas évolué pendant les centaines de milliers d’années qui nous séparent… » (Odile Jacob, 2002). Ainsi, le véritable enjeu est l’élévation collective de nos consciences, sans quoi notre science ne sera que « ruine de nos âmes ». Les CyberObjets sont ces miroirs de nos consciences qui peuvent nous aider à nous améliorer, nous sublimer… ou nous faciliter la perte de notre condition humaine.

Cet article est aussi disponible en Anglais.

Copyright Philippe Gautier 2013 - tout ou partie de ce texte peut être repris, sous réserve d'en mentionner l'auteur et la source.
Copyright : Cet article est protégé par la licence GNU Free Documentation License (GFDL). Vous pouvez télécharger ce texte soumis aux conditions de copyright ci-dessus et disponibles ici, à l'adresse : L'Internet des Objets expliqué à mon BossL'Internet des Objets expliqué à mon Boss.

Philippe Gautier dirige la société Business2Any, spécialisée dans la conception de systèmes à intelligence distribuée. Cette société, référence du secteur de l'Internet des Objets, fut la première à introduire la notion "d'objets-acteurs" – ou CyberObjets -, reprise depuis par bon nombre de leaders d'opinion de ce domaine.
Il dispose d’une longue expérience de directeur des systèmes d’information qui lui a, entre autres, permis d’être le premier en Europe à implémenter l’ensemble des technologies standardisées EPCGlobal pour l’Internet des marchandises.
Il a obtenu tour à tour le prix GS1 2005 de l’innovation, le trophée PME 2006 du Monde Informatique et deux trophées des DSI 2007 de 01 Informatique : Lauréat PME et Prix spécial du jury.
Il est spécialiste de la méthode systémique B-ADSc et l’auteur de nombreux articles (presse, Web, livres blancs, revues universitaires, etc.).
Il intervient régulièrement lors de conférences, tables rondes, interviews ou débats radiodiffusés, etc.
Enfin, il est membre fondateur de la SEI (IES France : Internet European Society) et l’auteur principal de « l’Internet des Objets… Internet, mais en mieux » paru aux éditions AFNOR en 2011 (ISBN : 978-2-12-465316-4).
Revue de presse : http://www.i-o-t.org/pages/Community-manager
Mail : pgautier (at) no-log.org