Internet des Objets et standardisation…



Selon la définition de l’Internet des Objets que je donne depuis des années et qui est désormais reprise par de nombreux leaders d’opinion (il suffit d’écouter certaines interventions du récent évènement « Le WEB 2013 »), le terme Internet des Objets n’illustre pas la faculté des objets à communiquer (idée maîtresse du M2M) ; mais il s’attache à appréhender un écosystème dans lequel les objets deviennent des acteurs autonomes.
Cela signifie que, grâce à l’association de différentes technologies complémentaires : media Internet, technologies sans fil, supports d’identification (codes à barres, RFID, NFC…), lecteurs ou scanners, capteurs, actuateurs, etc., ils deviennent capables de percevoir, analyser et agir par eux-mêmes dans les contextes des processus dans lesquels ils sont engagés et dans lesquels ils sont, aujourd’hui, considérés comme des objets inertes.
Nous définissons ainsi, au sein de ma société (Business2Any), le couple "objet physique" / "Intelligence virtuelle associée" (qu'elle soit embarquée, centralisée, distribuée ou hébergée dans le Cloud) comme formant une seule et même entité actrice de l’Internet des Objets que l’on peut appeler un "CyberObjet". « Les CyberObjets sont donc des acteurs potentiels des chaines de valeurs qui agissent sous le contrôle des opérationnels ou en partenariat avec eux. » (contribution à Wikipédia, septembre 2011). L’Internet des Objets est donc l’extension de l’écosystème Internet existant, comprenant le Web, où les acteurs sont désormais les Humains, les systèmes d’information et les CyberObjets.
Remémorons-nous cependant l’étape précédente : le Web 2.0. Il fut caractérisé par la généralisation des « individus-acteurs » (Consommateurs, citoyens, militants, etc.) grâce aux réseaux sociaux, outils collaboratifs, applications de moi-quantifié (quantified-self), …
Le constat principal que l’on peut tirer de cette expérience du Web 2.0 est qu’il n’est pas possible de prévoir, a priori, tous les comportements d’acteurs autonomes quels que soient les contextes ou les processus. Le Web 2.0 est ainsi un florilège d’expériences sociotechniques cloisonnées, « en silos », où chaque communauté vit selon ses propres standards et règles, et dans lesquelles l’interopérabilité est impossible, où, à tout le moins, compliquée à établir. Il n’empêche que ce Web 2.0 fut prolifique et permit de découvrir de nouveaux horizons : ces expériences sociotechniques, même limitées, ont largement contribué à créer de la valeur.
Ce retour d’expérience du Web 2.0 permet cependant de poser la question de la « Standardisation ». C’est la réponse évidente la plus fréquemment donnée aux problématiques d’interconnexion, de communication et d’interopérabilité dans nos organisations. Les travaux existants de standardisation, qui ont clairement démontré leurs limites avec le Web 2.0, ne sont en effet peut-être pas (au sens où nous l’entendons aujourd’hui) les seules solutions pour adresser les enjeux que pose l’Internet des Objets.
Standardiser consiste notamment à définir des règles pertinentes et communément acceptables en matière de savoir-faire, d’organisation ou de communication ; s’agissant des accès à des ressources (ou moyens) et à leur partage au sein d’un écosystème donné. Définir de telles règles dans des organisations « complexes » (où plusieurs acteurs autonomes sont capables de s’autoorganiser en fonction de finalités communes) ou des environnements « chaotiques » (où les acteurs sont en divergence de buts), est très difficile : c’est un travail sans fin car l’écosystème traité est en perpétuelle évolution et le moindre changement peut engendrer des transformations imprévisibles à grande échelle (voir : effet papillon ou http://fr.wikipedia.org/wiki/Th%C3%A9orie_du_chaos#Sensibilit.C3.A9_aux_conditions_initiales).
Il est donc vain de prédéfinir des modèles déterministes et exhaustifs, censés représenter ce que sera la réalité dans tout ce qu’elle a de complexe et d’incertain... La standardisation GS1/EPCGlobal en matière d’Internet des Objets trouve là une partie de ses limites, comme d’autres initiatives de la même veine. Donner un sens universel à un type d’évènement donné est illusoire : « il pleut » n’a pas la même signification que je veuille arroser la pelouse ou partir me promener en forêt.
Ce fut maintes fois répété ici : avec la généralisation de l’utilisation des technologies sensorielles (capteurs, actuateurs, tags RFID, NFC, GPS, etc.) et le traitement massif et parallèle de données évènementielles dans les systèmes d’information interconnectés en place, l’Internet des Objets pose ainsi de façon plus évidente qu’auparavant un problème latent : celui lié à la question de l’adéquation de notre façon de penser l’organisation moderne par des schémas très analytiques et fonctionnels.
Il faut rappeler que ces derniers sont un héritage du cartésianisme et des courants de pensée scientifiques prégnants jusqu’à la seconde partie du XIXème (ex : positivisme) et, même s’ils ont été largement supplantés dans le domaine scientifique, ils restent majoritaires dans nos schémas de pensée. L’approche fonctionnelle est en effet suffisante pour les processus relativement contrôlés et restreints mais ne l’est plus pour la réalité d’un écosystème ouvert et interconnecté. Il faut comprendre ici cet écosystème comme un vaste ensemble sociotechnique (http://fr.wikipedia.org/wiki/Sociologie_des_organisations#L.27.C3.A9cole_socio-technique) complexe ou chaotique (selon le niveau d’analyse), où les chaînes de décision concernent aussi bien les hommes, que les automates (systèmes d’information compris).
Or, désormais, les CyberObjets sont des potentiellement acteurs à part entière des organisations et sont donc, à ce titre, des éléments essentiels de ces chaines de décision. Ne pas les considérer comme tels relève de l’impasse conceptuelle !
En matière d’Internet des Objets, de « Web 3.0 / Web 4.0 », de « Web sémantique » ou encore de « Web symbiotique » (tous ces termes évoquent une même évolution et leur utilisation dépend de la culture de celui qui les emploie) ; et, plus synthétiquement, d’appréhension des organisations complexes ou des environnements chaotiques, les bonnes approches sont d’inspiration systémique et n’ont que peu d’apriori sur les systèmes opérants : la réalité des processus ou des chaines de valeurs… elles ciblent « la vraie vie ».
Ces approches considèrent notamment que les systèmes opérants, même s’ils répondent parfois à des règles généralement admises, se structurent en réalité de façon dynamique et récursive, y compris à des niveaux très subsidiaires : réactions en contexte, auto-organisation de groupes d’objets, interopérabilité à des niveaux plus collectifs, stratégie, etc.
L’Internet des Objets (je n’utiliserai que ce terme pour la suite du propos) symbolise donc cette étape historique à franchir, où un changement de paradigme est nécessaire. Par analogie, il est de même nature que celui qui nous a fait passer du modèle physique simplifié de Newton à ceux (en évolution constante) proposés par Einstein (dans l’infiniment grand) ou Planck (dans l’infiniment petit) …
Le précédent modèle Newtonien ne s’est en effet révélé finalement utile qu’à notre niveau d’abstraction, de perception et d’action (donc d’organisation). Les choses ou objets s’y intègrent dans un cadre préstructuré dont les règles sont immuables et s’appliquent partout (espace euclidien, temps universel). De même, tant que l’organisation reste limitée et perméable, le consultant en organisation ou le concepteur d’applications logicielles n’ont besoin que d’un modèle approximatif. Ce modèle est rassurant, il permet (en théorie) une certaine prévision. Enfin, les modèles les plus simples sont aussi ceux que nous retenons, souvent par paresse intellectuelle, manque de moyens d’analyse ou de vision d’ensemble : « Le demi-savoir triomphe plus facilement que le savoir complet: il conçoit les choses plus simples qu’elles ne sont, et en forme par suite une idée plus saisissable et plus convaincante (Humain, trop humain (1878-1879) - Friedrich Wilhelm Nietzsche) ».
Dans les modèles physiques modernes, il n’y a pas d’organisation « chapeau », a priori. La structure de l’espace change (y compris dans sa dimension temporelle) et évolue en fonction de l’auto-organisation des objets (petits ou grands) qui le peuplent. Les règles n’y sont pas nécessairement immuables : certains modèles cosmologiques récents considèrent notamment que l’Univers n’est pas un milieu homogène et isotrope, c’est-à-dire qui n’a pas nécessairement les mêmes propriétés physiques selon les contextes d’observation (lieu et temps). Toute analyse est donc nécessairement récursive et évolutive, sujette à révision permanente.
Par analogie, l’organisation devenant complexe ou l’environnement chaotique, le consultant en organisation ou le concepteur d’applications logicielles devront utiliser des modèles dynamiques nécessitant un apprentissage permanent afin de s’adapter aux changements perpétuels (ce que font les systèmes nerveux, dont le cerveau humain). De tels modèles intègrent l’incertitude comme composante fondamentale de la démarche et mettent en exergue la primauté du pilotage sur le contrôle ou la prévision. La mise en œuvre de ce type de démarche implique cependant de sortir du cloisonnement technique dans lequel un siècle d’enseignement nous a plongé : l’appréhension des organisations complexes ou des environnements chaotiques nécessite une transdisciplinarité qui, historiquement, semble plus caractéristique de l’époque antique ou de la Renaissance. En outre, le pilotage face à l’incertitude, à part peut-être en sociologie, n’est pas une notion communément enseignée – au-delà des outils mathématiques que sont les statistiques et les probabilités, réducteurs - dans nos cursus usuels : économie, organisation, finance, informatique, etc.
Avec l’ouverture généralisée des chaînes de valeurs et l’avènement de l’Internet des Objets, les acteurs (humains, groupes, communautés, entreprises, cyberobjets, communautés ou groupes de CyberObjets…) vont plus que jamais disposer de caractéristiques propres, mais leur finalités – celles qui déterminent leurs comportements - vont se construire au fur et à mesure de leur cycle de vie et parfois être divergentes : rien n’y sera définitif ou pleinement prévisible « a priori ».
Dans un tel contexte, il est donc illusoire de vouloir anticiper tous les comportements, les savoirs faire ou échanges possibles : tous vont évoluer, souvent de façon fortuite, selon les contraintes rencontrées, le retour d’expérience et les interactions. Le maître-mot en la matière est donc « adaptabilité » !
Un travail vraiment utile de standardisation consisterait donc, non plus à proposer des modèles préétablis (voir par exemple en informatique : http://fr.wikipedia.org/wiki/Model_driven_architecture), mais à proposer des approches et des outils standardisés permettant de modéliser les dynamiques intrinsèques aux organisations complexes (étudiées en tant que systèmes sociotechniques) ou aux environnements chaotiques. Ce que nous faisons par exemple au sein de Business2Any pour nos clients.
Il s’agit donc ici de favoriser des approches systémiques qui permettent des appréhensions, à la fois globales et situées, avec des tendances communes mais des réponses différentes selon le système, l’environnement traité ou étudié, le moment de l’étude. Dans mon dernier ouvrage sur l’Internet des Objets (l’Internet des Objets… Internet, mais en mieux », Éditions AFNOR (ISBN 978-2-12-465316-4), j’illustre ce point en faisant le parallèle entre ces « nouveaux standards » et les « attracteurs étranges » de la théorie du chaos.
La réalité opérationnelle évoluant selon des dynamiques d’apparence capricieuses, la question de la gouvernance deviendra également centrale pour les questions de standardisation. L’humain restant au cœur de l’organisation sociotechnique, ses règles de perception, de pilotage, d’action ou encore d’adaptation devront lui permettre de piloter efficacement les transformations de l’organisation dont il a la charge. C’est sur ce point que les principaux standards à venir démontreront leur pertinence. Quelques standards « classiques » (au sens où nous les comprenons aujourd’hui) et spécifiques subsisteront néanmoins : « ciblant des typologies d’objets et d’architectures plus restreintes selon les secteurs d’activité,  ils seront facteurs de productivité dans les chaînes de valeurs « fermées » ou « semi-ouvertes » (In « l’Internet des Objets… Internet, mais en mieux », Éditions AFNOR (ISBN 978-2-12-465316-4). À ce titre, GS1, en toute clairvoyance, n’a-t-elle pas rebaptisé EPCGlobal en « Intranet des marchandises » ?
Philippe GAUTIER
Texte adapté d’un article paru précédemment dans la lettre de l’AFEIT (http://91.121.31.27/afeit2/images/Lettre/lettre_20.pdf)
Comments1.2.
I'm definitely with you when IoT means lower CO2 expenses etc. But how to get there is (sadly enough) only a question of money. So, either IoT means "savings" or it means "irrelevant".3.
Only autonomous and intelligent entities can give an information a meaning since this information will be analysed by them throughout their ongoing pursued target.
Hence our approach that is to give any physical object an associated software intelligence (embedded / cloud / etc.) able to make such an analysis.
The IoT will include that semantic dimension when objects will be intelligent enough to understand how things are going on VS their own aims (or at least the ones we will delegate to them).
On the other hand, any Semantic Web based on general ontologies (such as the W3C ones) is, for me, a real dead end.
I also fully agree with your last statement regarding feasibility VS economical relevance.4.IIRC (and I know I'm overly simplistic), your view is one of "avatars" existing in a virtual world, parallel to the one of the real things. It makes sense, but the 'real'-'virtual'-'real' interface is too complex/too fragile for me to support this kind of infrastructure. I'm more in favor of "augmented reality" where microcontrollers/SOC are embedded in real things/containers and sporadically report information to their "owners".5.
On Sunday 30 December 2012, 20:09 by OlivierAuber
Il faudrait que l'on prenne un moment pour parler de la "perspective numérique" et de sa "construction légitime"... Bon 2013 !
On Monday 31 December 2012, 14:17 by Christophe Vermeulen
You surely get a part of the idea when you say that "it's raining" means different things for your walk or your grass watering.
BUT semantic web is (unfortunately ?) a dead end. There just isn't any way to define meaning without value. This means the capitalists (evil or not) will be the first on the ball.
On Monday 31 December 2012, 14:18 by Philippe GAUTIER
Well, I would say : There just isn't any way to define meaning without "aim/target" instead.
On Monday 31 December 2012, 14:20 by Christophe Vermeulen
As sad as it can be, the IoT "problem" is an existentialist one. IoT for IoT's sake is useless, and arguing about IoT's existence/future/past is fruitless.
On Monday 31 December 2012, 14:23 by Philippe GAUTIER
I do agree, "AVATARS" can be of many different kind. Some will always interact, some will mainly sleep, some will be less intelligent, some will only be limited software... and some objects will not need those "AVATARS". Just like in biology, there will be many different declinations : cells, bacteria, trees, worms, birds, dogs... and humans.


Commentaires

Posts les plus consultés de ce blog

Réflexion socio-économique autour de l'Intelligence Artificielle

B-ADSc, Bucki-Analyse Décisionnelle des Systèmes complexes

France : 5G or not 5G ?