Selon la définition de l’Internet des Objets que je donne depuis des années et qui est désormais reprise par de nombreux leaders d’opinion (il suffit d’écouter certaines interventions du récent évènement « Le WEB 2013 »), le terme Internet des Objets n’illustre pas la faculté des objets à communiquer (idée maîtresse du M2M) ; mais il s’attache à appréhender un écosystème dans lequel les objets deviennent des acteurs autonomes.

Cela signifie que, grâce à l’association de différentes technologies complémentaires : media Internet, technologies sans fil, supports d’identification (codes à barres, RFID, NFC…), lecteurs ou scanners, capteurs, actuateurs, etc., ils deviennent capables de percevoir, analyser et agir par eux-mêmes dans les contextes des processus dans lesquels ils sont engagés et dans lesquels ils sont, aujourd’hui, considérés comme des objets inertes.

Nous définissons ainsi, au sein de ma société (Business2Any), le couple "objet physique" / "Intelligence virtuelle associée" (qu'elle soit embarquée, centralisée, distribuée ou hébergée dans le Cloud) comme formant une seule et même entité actrice de l’Internet des Objets que l’on peut appeler un "CyberObjet". « Les CyberObjets sont donc des acteurs potentiels des chaines de valeurs qui agissent sous le contrôle des opérationnels ou en partenariat avec eux. » (contribution à Wikipedia, septembre 2011). L’Internet des Objets est donc l’extension de l’écosystème Internet existant, comprenant le Web, où les acteurs sont désormais les Humains, les systèmes d’information et les CyberObjets.

Remémorons-nous cependant l’étape précédente : le Web 2.0. Il fut caractérisé par la généralisation des « individus-acteurs » (Consommateurs, citoyens, militants, etc.) grâce aux réseaux sociaux, outils collaboratifs, applications de moi-quantifié (quantified-self), …

Le constat principal que l’on peut tirer de cette expérience du Web 2.0 est qu’il n’est pas possible de prévoir, a priori, tous les comportements d’acteurs autonomes quels que soient les contextes ou les processus. Le Web 2.0 est ainsi un florilège d’expériences sociotechniques cloisonnées, « en silos », où chaque communauté vit selon ses propres standards et règles, et dans lesquelles l’interopérabilité est impossible, où, à tout le moins, compliquée à établir. Il n’empêche que ce Web 2.0 fut prolifique et permit de découvrir de nouveaux horizons : ces expériences sociotechniques, même limitées, ont largement contribué à créer de la valeur.

Ce retour d’expérience du Web 2.0 permet cependant de poser la question de la « Standardisation ». C’est la réponse évidente la plus fréquemment donnée aux problématiques d’interconnexion, de communication et d’interopérabilité dans nos organisations. Les travaux existants de standardisation, qui ont clairement démontré leurs limites avec le Web 2.0, ne sont en effet peut-être pas (au sens où nous l’entendons aujourd’hui) les seules solutions pour adresser les enjeux que pose l’Internet des Objets.

Standardiser consiste notamment à définir des règles pertinentes et communément acceptables en matière de savoir-faire, d’organisation ou de communication ; s’agissant des accès à des ressources (ou moyens) et à leur partage au sein d’un écosystème donné. Définir de telles règles dans des organisations « complexes » (où plusieurs acteurs autonomes sont capables de s’auto-organiser en fonction de finalités communes) ou des environnements « chaotiques » (où les acteurs sont en divergence de buts), est très difficile : c’est un travail sans fin car l’écosystème traité est en perpétuelle évolution et le moindre changement peut engendrer des transformations imprévisibles à grande échelle (effet papillon ou http://fr.wikipedia.org/wiki/Th%C3%A9orie_du_chaos#Sensibilit.C3.A9_aux_conditions_initiales).

Il est donc vain de prédéfinir des modèles déterministes et exhaustifs, censés représenter ce que sera la réalité dans tout ce qu’elle a de complexe et d’incertain... La standardisation GS1/EPCGlobal en matière d’Internet des Objets trouve là une partie de ses limites. Donner un sens universel à un type d’évènement donné est illusoire : « il pleut » n’a pas la même signification que je veuille arroser la pelouse ou partir me promener en forêt.

Nous l’avons maintes fois répété ici : avec la généralisation de l’utilisation des technologies sensorielles (capteurs, actuateurs, tags RFID, NFC, GPS, etc.) et le traitement massif et parallèle de données évènementielles dans les systèmes d’information interconnectés en place, l’Internet des Objets pose ainsi de façon plus évidente qu’auparavant un problème latent : celui lié à la question de l’adéquation de notre façon de penser l’organisation moderne par des schémas très analytiques et fonctionnels.

Il faut noter ici que ces derniers sont un héritage du cartésianisme et des courants de pensée scientifiques prégnants jusqu’à la seconde partie du XIXème (ex : positivisme) et, même s’ils ont été largement supplantés dans le domaine scientifique, ils restent majoritaires dans nos schémas de pensée. L’approche fonctionnelle est en effet suffisante pour les processus relativement contrôlés et restreints mais ne l’est plus pour la réalité d’un écosystème ouvert et interconnecté. Il faut comprendre ici cet écosystème comme un vaste ensemble sociotechnique (http://fr.wikipedia.org/wiki/Sociologie_des_organisations#L.27.C3.A9cole_socio-technique) complexe ou chaotique (selon le niveau d’analyse), où les chaînes de décision concernent aussi bien les hommes, que les automates (systèmes d’information compris).

Or, désormais, les CyberObjets sont des potentiellement acteurs à part entière des organisations et sont donc, à ce titre, des éléments essentiels de ces chaines de décision. Ne pas les considérer comme tels relève de l’impasse conceptuelle !

En matière d’Internet des Objets, de « Web 3.0 / Web 4.0 », de « Web sémantique » ou encore de « Web symbiotique » (tous ces termes évoquent une même évolution et leur utilisation dépend de la culture de celui qui les emploie) ; et, plus synthétiquement, d’appréhension des organisations complexes ou des environnements chaotiques, les bonnes approches sont d’inspiration systémique et n’ont que peu d’à-priori sur les systèmes opérants : la réalité des processus ou des chaines de valeurs… elles ciblent « la vraie vie ».

Ces approches considèrent notamment que les systèmes opérants, même s’ils répondent parfois à des règles généralement admises, se structurent en réalité de façon dynamique et récursive, y compris à des niveaux très subsidiaires : réactions en contexte, auto-organisation de groupes d’objets, interopérabilité à des niveaux plus collectifs, stratégie, etc.

L’Internet des Objets (je n’utiliserai que ce terme pour la suite du propos) symbolise donc cette étape historique à franchir, où un changement de paradigme est nécessaire. Par analogie, il est de même nature que celui qui nous a fait passer du modèle physique simplifié de Newton à ceux (en évolution constante) proposés par Einstein (dans l’infiniment grand) ou Planck (dans l’infiniment petit)…

Le précédent modèle Newtonien ne s’est en effet révélé finalement utile qu’à notre niveau d’abstraction, de perception et d’action (donc d’organisation). Les choses ou objets s’y intègrent dans un cadre pré-structuré dont les règles sont immuables et s’appliquent partout (espace euclidien, temps universel). De même, tant que l’organisation reste limitée et perméable, le consultant en organisation ou le concepteur informatique n’ont besoin que d’un modèle approximatif. Ce modèle est rassurant, il permet (en théorie) une certaine prévision. Enfin, les modèles les plus simples sont aussi ceux que nous retenons, souvent par paresse intellectuelle, manque de moyens d’analyse ou de vision d’ensemble : « Le demi-savoir triomphe plus facilement que le savoir complet: il conçoit les choses plus simples qu’elles ne sont, et en forme par suite une idée plus saisissable et plus convaincante (Humain, trop humain (1878-1879) - Friedrich Wilhelm Nietzsche) ».

Dans les modèles physiques modernes, il n’y a pas d’organisation « a priori ». La structure de l’espace change (y compris dans sa dimension temporelle) et évolue en fonction de l’auto-organisation des objets (petits ou grands) qui le peuplent. Les règles n’y sont pas nécessairement immuables : certains modèles cosmologiques récents considèrent notamment que l’Univers n’est pas un milieu homogène et isotrope, c’est-à-dire qui n’a pas nécessairement les mêmes propriétés physiques selon les contextes d’observation (lieu et temps). Toute analyse est donc nécessairement récursive et évolutive, sujette à révision permanente.

Par analogie, l’organisation devenant complexe ou l’environnement chaotique, le consultant en organisation ou le concepteur informatique devront utiliser des modèles dynamiques nécessitant un apprentissage permanent afin de s’adapter aux changements perpétuels (ce que fait le cerveau humain). De tels modèles intègrent l’incertitude comme composante fondamentale de la démarche et mettent en exergue la primauté du pilotage sur le contrôle ou la prévision. La mise en œuvre de ce type de démarche implique cependant de sortir du cloisonnement technique dans lequel un siècle d’enseignement nous a plongé : l’appréhension des organisations complexes ou des environnements chaotiques nécessite une transdisciplinarité qui, historiquement, caractérise l’époque antique ou la Renaissance. En outre, le pilotage face à l’incertitude, à part en sociologie, n’est pas une notion communément enseignée dans nos cursus usuels : économie, organisation, finance, informatique, etc.

Avec l’ouverture généralisée des chaînes de valeurs et l’avènement de l’Internet des Objets, les acteurs (humains, groupes, communautés, entreprises, cyberobjets, communautés ou groupes de CyberObjets…) vont plus que jamais disposer de caractéristiques propres, mais leur finalités – celles qui déterminent leurs comportements - vont se construire au fur et à mesure de leur cycle de vie et parfois être divergentes : rien n’y sera définitif ou pleinement prévisible « a priori ».

Dans un tel contexte, il est donc illusoire de vouloir anticiper tous les comportements, les savoirs faire ou échanges possibles : tous vont évoluer, souvent de façon fortuite, selon les contraintes rencontrées, le retour d’expérience et les interactions. Le maître-mot en la matière est donc « adaptabilité » !

Un travail vraiment utile de standardisation consisterait donc, non plus à proposer des modèles préétablis (voir par exemple en informatique : http://fr.wikipedia.org/wiki/Model_driven_architecture), mais à proposer des approches et des outils standardisés permettant de modéliser les dynamiques intrinsèques aux organisations complexes (étudiées en tant que systèmes sociotechniques) ou aux environnements chaotiques. Ce que nous faisons par exemple au sein de Business2Any pour nos clients.

Il s’agit donc ici de favoriser des approches systémiques qui permettent des appréhensions, à la fois globales et situées, avec des tendances communes mais des réponses différentes selon le système, l’environnement traité ou étudié, le moment de l’étude. Dans mon dernier ouvrage sur l’Internet des Objets (l’Internet des Objets… Internet, mais en mieux », Éditions AFNOR (ISBN 978-2-12-465316-4), j’illustre ce point en faisant le parallèle entre ces « nouveaux standards » et les « attracteurs étranges » de la théorie du chaos. Cette analogie m’est apparue en effet troublante et digne d’intérêt.

La réalité opérationnelle évoluant selon des dynamiques d’apparence capricieuses, la question de la gouvernance deviendra également centrale pour les questions de standardisation. L’humain restant au cœur de l’organisation sociotechnique, ses règles de perception, de pilotage, d’action ou encore d’adaptation devront lui permettre de piloter efficacement les transformations de l’organisation dont il a la charge. C’est sur ce point que les principaux standards à venir démontreront leur pertinence. Quelques standards « classiques » (au sens où nous les comprenons aujourd’hui) et spécifiques subsisteront néanmoins : « ciblant des typologies d’objets et d’architectures plus restreintes selon les secteurs d’activité, ils seront facteurs de productivité dans les chaînes de valeurs « fermées » ou « semi-ouvertes » (In « l’Internet des Objets… Internet, mais en mieux », Éditions AFNOR (ISBN 978-2-12-465316-4). À ce titre, GS1, en toute clairvoyance, n’a-t-elle pas rebaptisé EPCGlobal en « Intranet des marchandises » ?

Philippe GAUTIER

Texte adapté d’un article paru précédemment dans la lettre de l’AFEIT (http://91.121.31.27/afeit2/images/Lettre/lettre_20.pdf)