Pour ce 59e numéro, nous avons eu l’immense privilège d’échanger avec l’une des personnalités les plus inspirantes qui soit. Bertrand Piccard fait aujourd’hui partie de ces légendes qui ont façonné le monde de l’exploration et qui se battent sans relâche pour repousser un peu plus loin les limites humaines. Premier homme à réaliser le tour du monde en ballon sans escale puis en avion solaire sans carburant, il est désormais engagé dans un défi bien plus immense encore celui de tout mettre en œuvre pour concilier écologie et développement des Nations Unies pour l’Environnement et conseiller spécial auprès de la Commission européenne, via sa Fondation Solar Impulse, il cherche à promouvoir des solutions durables et économiquement rentables nous permettant d’être à la fois plus responsables vis-à-vis de l’environnement tout en assurant des retombées économiques. Cette croissance qualitative », comme il la nomme, est selon lui la seule issue possible pour l’avenir de l’humanité, sans quoi cette dernière devra faire face à de très grandes catastrophes. Chaque voie est unique et notre devoir est de cultiver les différences. Loin d’être resigné et malgré un regard parfois désabusé sur l’Homme l’être humain a peur de l’inconnu et du changement » et ceux qui le dirigent il est important que les gouvernements prennent leurs responsabilités », l’aventurier suisse aimerait que nous comprenions une fois pour toute que la transition écologique est en réalité un avantage économique ». Et qu’on change pour de bon le narratif écologique » en une action enthousiasmante ». Avec, en premier lieu, les étudiants, leur rappelant que nous sommes face à des défis extraordinaires et qu’on a besoin d’eux », en particulier les ingénieurs. Cette pénurie, nous en avons pleine conscience au sein du Groupe et chaque année, nous avons justement le plaisir d’y répondre en formant de nouveaux diplômés issus de nos quatre écoles d’ingénieurs ESME, EPITA, IPSA et Sup’Biotech. Ceux de la promotion 2021 étaient justement réunis, au même titre que les diplômés de l’ensemble de nos écoles, au Palais des Congrès de Paris pour une cérémonie de remise des titres exceptionnelle. Un moment unique qui, chaque fois, nous rappelle combien nous avons le privilège de pouvoir transmettre les meilleures armes à tant de jeunes potentiels afin de les voir s’épanouir. Comme le rappelle Bertrand Piccard, si on choisit bien sa voie, il n’y a pas de souci à se faire pour trouver un emploi ». C’est précisément l’une de nos responsabilités chaque voie est unique et notre devoir est de cultiver les différences qui font que le tout est toujours plus grand que la somme des lecture !Marc Drillech, directeur général de IONIS Education Group
Cetteetude dresse un profil epidemiologique de la prevalence du tabagisme et de sa relation a l’usage et a l’usage episodique excessif d’alcool dans la population canadienne et dans quelques sous-groupes de cette population. Nous avons analyse des donnees de l’Enquete sur la sante dans les collectivites canadiennes – cycle 2.1 (ESCC, 2003), menee aupres d’un echantillon
J'ai toujours été agacé par la maxime Le tout est plus que la somme de ses parties» due au grand Aristote. Elle a été commentée mille fois et presque toujours applaudie sans beaucoup de sens critique. La raison de cette agacement est que je ne voyais pas à quoi pouvait correspondre sérieusement —c'est-à-dire mathématiquement ou logiquement— ce "plus" que posséderait toujours le tout sur la somme de ses parties. Pour donner à la maxime un sens intéressant —et si possible démontrable—, il faut fixer une notion de valeur, et constater —ou mieux prouver— que celle du "tout" est plus grande que la somme des valeurs des "parties". Pour faire une somme, il faut dépasser les idées vagues et définir une mesure. Il faut donc associer un nombre au "tout" et d'autres à chaque "partie". La maxime avec peut-être des hypothèses restrictives à formuler doit pouvoir devenir un théorème. Il semble assez naturel de rechercher cette valeur sous la forme d'une mesure de complexité ou de contenu en information car ce plus» évoqué est vraisemblablement un enrichissement, ce qu'aujourd'hui nous cherchons à comprendre en employant les mots information et complexité. En résumé, pour tirer quelque chose de formel et donc de précis de la maxime sur le "tout" et les "parties", on doit considérer des objets A1, A2, ..., Ak qui auront chacun une certaine complexité ComplexitéA1, ComplexitéA2, ..., ComplexitéAk ne précisons pas de quelle complexité on parle pour l'instant ni son rapport éventuel avec de l'information, et dont la réunion UnionAi aura une complexité plus grande que la somme des complexités individuelles ComplexitéUnionAi > ComplexitéA1 + ... + ComplexitéAk Il se trouve que ça ne marche pas bien pour toutes les idées qui viennent en premier à l'esprit du mathématicien et de l'informaticien théoricien. Tentative 1 Prenons pour objet des ensembles au sens mathématique et pour mesure de leur complexité leur nombre d'éléments. Ce n'est pas absurde plus un ensemble comprend d'éléments, plus il est complexe. Il y a bien un rapport entre les deux côté de l'inégalité étudiée, mais il est inverse de celui qu'on attend Complexité UnionAi ≤ Complexité A1 + ... + Complexité Ak Il s'agit d'un théorème immédiat en théorie des ensembles. Dans le cas d'ensembles finis, il n'y a égalité que lorsque tous les ensembles sont disjoints deux à deux, ce qui se produit plutôt rarement. Notre première tentative de formalisation, donne et démontre une maxime opposée à celle d'Aristote ! Tentative 2 Prenons pour objet des problèmes algorithmiques applicables à des entiers n. Quelques exemples. A1 factoriser n» ; A2 trouver la somme des diviseurs de n» ; A3 déterminer si n est un nombre premier» ; A4 déterminer si n est un carré parfait» ; etc. Prenons pour le tout, le problème de résoudre l'ensemble des problèmes élémentaires simultanément. Pour mesure de complexité, prenons —cela va de soi pour qui s'intéresse à la complexité des algorithmes— le nombre d'opérations nécessaires ou la taille de la mémoire nécessaire pour mener la résolution des problèmes. On sait par exemple depuis 2002 que savoir si un nombre n est premier problème de la primalité est polynomial en fonction de la taille de n. Avec cette formalisation on ne peut plus naturelle pour qui s'occupe d'algorithmes, la maxime d'Aristote ne marche toujours pas. En effet, la complexité de la résolution du "tout" sera au plus la somme des complexités des "parties" et sera souvent plus faible car certains problèmes comme ceux de notre liste bénéficient des calculs faits pour d'autres ce qui permet des économies de ressource pour qui cherche à traiter les problèmes simulténément. La complexité du "tout", dans le cas des problèmes et algorithmes, est toujours inférieure ou égale à la somme des complexités des "parties". Complexité UnionAi ≤ Complexité A1 + ... + Complexité Ak Dommage ! Tentative 3 On considère des objets numériques finis et on mesure leur valeur par la complexité de Kolmogorov, qui, par définition, est la taille du plus petit programme qui les engendre. Cette mesure de complexité est aujourd'hui unanimement considérée comme la bonne mesure du contenu en information» d'un objet numérique. Elle généralise l'entropie de Shannon. Elle est utilisée en informatique mais aussi en physique, en philosophie des sciences, en biologie, en psychologie. Pas de chance, et c'est plus grave ici car il s'agit vraiment d'une mesure de contenu en information, là encore la complexité de Kolmogorov d'un ensemble d'objets numériques finis est inférieure ou égale à la somme des complexités de Kolmogorov des objets pris un à un. C'est un théorème de la théorie. L'idée de la démonstration est simple les programmes les plus courts qui engendrent A1, A2, ..., Ak, peuvent être mis bout à bout ; ils constituent alors un programme qui engendre le "tout" ; ce programme somme n'est peut-être pas le plus court qui donne le "tout", mais le programme le plus court qui donne le "tout" sera plus court puisqu'il y a déjà ce programme là et donc la complexité du "tout" sera inférieure à la somme des complexité des "parties". Là encore, la théorie dit et démontre le contraire de la maxime d'Aristote. Fort de ces exemples, il me semblait que jamais dans aucun cas, on ne pouvait mathématiquement trouver des situations où la complexité du "tout" est plus grande que la somme des complexités des objets pris individuellement. Même en cherchant le plus honnêtement possible, quelle que soit la façon naturelle de définir et de mesurer la complexité, pas de "tout" meilleur que "la somme des parties". Précision que dans ma recherche d'une mesure de complexité satisfaisant la maxime d'Aristote, j'ai exclu les méthodes factices où on place dans le "tout" autre chose que l'ensemble des "parties". Par exemple, je ne considère pas comme une illustration acceptable de la maxime d'Aristote qu'on dise qu'il y a dans un mot plus que ce qu'il y a dans l'ensemble de ses lettres. Il est vrai que dans le mot COMPLEXE, il y a plus que dans la donnée de l'ensemble de ses lettres C, E, E, L, M, O, P, X, mais c'est bien évidemment parce qu'on ordonne les lettres, et que cet ordre ajouté aux parties constitue le "plus" qu'on trouve dans le "tout" et qui n'est pas dans la somme des "parties". De telles illustrations de la maxime d'Aristote sont illusoires et naïves, elles sont triviales et sans intérêt puisque qu'elles sont basées sur un ajout caché quand on constitue le "tout", autrement dit un truc de prestidigitateur. Pouvait-il exister des cas recevables illustrant formellement la maxime d'Aristote dans le champ contemporain des sciences de la complexité ? Enfin un cas qui marche ! La théorie algorithmique de l'information qui détaille tout ce qu'on peut dire et démontrer sur la complexité de Kolmogorov a introduit une notion qui va nous sauver. Il s'agit de la profondeur logique de Bennett» qui est, par définition, le temps de calcul du plus court programme qui produit l'objet numérique fini auquel on s'intéresse. C'est une mesure de complexité structurelle» une mesure de la richesse en organisation, ce que n'est pas la complexité de Kolmogorov qui n'est qu'une mesure de contenu incompressible d'information». Ces deux mesures de complexité diffèrent le plus à propos des objets aléatoires dont l'exemple typique est une suite finie de '0' et de '1' obtenue par des tirages successifs à pile ou face. Pour un tel objet aléatoire, la complexité de Kolmogorov est maximale on ne peut pas le décrire de manière sensiblement plus brève qu'en en donnant les éléments un à un, ce qui est la pire situation puisque l'objet à produire sera explicitement dans le programme. Une suite aléatoire des bits est incompressible alors qu'à l'inverse la profondeur logique est minimale une suite aléatoire n'est pas structurée, son contenu en structure est quasi-nul ; sa profondeur logique de Bennett est réduite au minimum puisqu'exécuter le programme le plus court qui engendre la suite aléatoire revient à exécuter un programme qui recopie une donnée explicitement inscrite dans le programme et qu'une telle copie ne peut pas prendre de temps. Dans le cas général, la profondeur logique de Bennett ne donne pas que le "tout" a une complexité plus grande que la somme des complexités des "parties". En effet, si vous prenez un tout composé de k fois le même objet, sa profondeur logique sera à peu de chose près la complexité d'un seul objet, et donc sera nettement inférieure à la somme des complexités des objets pris un à un. Il ne peut y avoir un théorème du "tout" et des "parties" exprimant sans restriction la maxime d'Aristote, même avec la profondeur logique de Bennett ! En revanche, et c'est là que j'ai eu une surprise, il existe des cas où on peut établir avec certitude ce qui est assez difficile quand on manie le concept de profondeur logique que la complexité d'un tout composé de plusieurs objets sera supérieure à la complexité de la somme de chacun d'eux. Voici un tel exemple imparable. Considérons les deux images A et B. A B Chacune est composée de '0' pixel noir et de '1' pixel blanc d'une manière parfaitement aléatoire. Leur profondeur logique de Bennett est donc minimale comme nous venons de l'expliquer un objet aléatoire n'est pas structuré et possède donc une profondeur logique minimale comparable à celle d'une suite de même longueur composée uniquement de '0'. Le "tout" composé des deux images A et B n'est pas aléatoire, car les deux images sont intimement corrélées. Pour s'en rendre compte, on applique un ou-exclusif entre A et B ce qui donne une image C quand les deux pixels de A et B sont identiques, on met un '1' dans l'images C, sinon on met un '0'. C Faites l'expérience téléchargez les images et superposez-les la superposition simple qui correspond au 'ou' fait déjà apparaître le résultat ; l'opération logique 'ou-exclusif' appelée aussi 'xor' donne exactement C. On voit apparaître un célèbre personnage de l'histoire de France, mais on peut bien sûr par le même procédé à la base de ce qu'on nomme la cryptographie visuelle » obtenir n'importe quelle image aussi structurée qu'on le souhaite en partant de deux objets parfaitement non structurés mais corrélés. On montre par ailleurs que partant de A et de C on obtiendra B en appliquant là aussi un ou-exclusif. Il en résulte que le programme le plus court qui donnera le "tout" A et B sera le programme le plus court de A associé avec le programme le plus court de C, suivi d'un calcul de ou-exclusif entre A et C, ou sera quelque chose très proche de ce procédé. Puisque C est structuré de manière non triviale, ce programme minimal pour le "tout" A et B aura un temps de calcul plus long que la somme des temps de calcul des programmes minimaux pour A et minimaux pour B qui étaient des programmes très rapides puisqu'il n'y aucune structure dans A, et aucune structure dans B. La profondeur logique du "tout" A et B" est donc plus grande que la somme de la profondeur logique de A et de la profondeur logique de B. C'est un théorème et l'énoncé général qu'on peut donner de cette situation est le suivant Quelle que soit la profondeur logique d'un objet numérique C, on peut construire deux objets numériques A et B, de telle façon que A et B soient chacun de profondeur logique minimale, et que le "tout" constitué de A et de B possède une profondeur logique équivalente à celle de C puisqu'il donne C. ComplexitéA union B > ComplexitéA + ComplexitéB Dans le cas de telles situations, on a bien deux objets dont l'ensemble a une complexité structurelle plus grande que la somme des complexités structurelles des parties. Enfin un cas général où la maxime d'Aristote prend un sens formel, précis et démontrable ! Le cas des systèmes complexes Je pense que ce n'est pas un hasard si pour réussir à donner un sens mathématique précis à la maxime d'Aristote en proposant une notion bien définie de valeur des objets qu'on combine, il a fallu se référer à la complexité structurelle telle que l'a définie Bennett et surtout pas à la complexité de Kolmogorov qui ne donnera jamais l'inégalité recherchée puisqu'on démontre qu'elle donne l'inégalité inverse . Il est probable que ceux qui évoquent ce "tout" qui est plus que la "somme" de ses "parties" ont en tête des situations où c'est bien l'organisation ou encore "la richesse en structures", "la valeur fonctionnelle", "le contenu en calcul" qui sert à mesurer ce que valent le "tout" et ses "parties". L'idée exprimée par la phrase d'Aristote est souvent fausse —elle intéresse d'ailleurs parce qu'on la perçoit comme paradoxale—, mais il y a des cas où le paradoxe devient vrai et prouvable ceux où ce qui mesure la valeur du tout est vraiment lié à une richesse en structures. Ces cas font l'intérêt de la maxime. Croire à la maxime et en faire un pilier philosophique des réflexions sur la complexité sans même chercher à savoir de quoi elle parle, ni si cela peut se mathématiser est une attitude ridicule puisque le plus souvent c'est l'inégalité inverse qu'on peut démontrer même quand on envisage la complexité des algorithmes ou la complexité de Kolmogorov. Disposer d'un cas précis où la maxime devient vraie est très éclairant, et je considère qu'avec l'exemple proposé, on a une preuve nouvelle du bien fondé de la définition de Bennett la complexité structurelle d'un objet fini Ob se mesure par le temps de calcul de son programme le plus court», ou, dans la version plus tolérante de la définition de Bennett, par le temps de calcul des programmes courts que produisent Ob». Il existe peut-être d'autres procédés formels non illusoires donnant un sens à la maxime d'Aristote, mais celui qui s'appuie sur la profondeur logique de Bennett appliquée à l'association de deux objets structurés et corrélés est probablement central du fait de sa place au sein de la théorie algorithmique de l'information qui est la théorie la plus générale de l'information. Dans les systèmes complexes, comme les sont les organismes vivants ou les écosystèmes, les interdépendances font qu'on est le plus souvent dans une situation semblable à celle des images A, B et C. Ce qui est apparu dans un premier temps l'exception y devient la règle. La complexité du "tout" mesurée par la profondeur logique de Bennett est donc, dans de telles structures, supérieure à la somme des complexités des "parties". Bien évidemment, Aristote ne pensait pas à la profondeur logique de Bennett, mais il me semble qu'aujourd'hui pour donner un sens technique à son intuition —et il ne faut jamais renoncer à de tels objectifs—, la meilleure méthode possible est de l'évoquer. Qu'il ait fallu deux mille ans pour que l'intuition du Stagirite trouve une forme mathématique robuste et devienne l'objet de science, n'est-ce pas la preuve, encore une fois, de son exceptionnel génie ! Sur la cryptographie visuelle voir Sur la profondeur logique de Bennett voir