Sciences et techniques

L'Univers : un modèle de machine de Turing universelle ?

  1. Accueil
  2. Forums
  3. loisirs, passions et hobbies : Sciences et techniques
  4. L'univers : un modèle de machine de turing universelle ?
L'Univers : un modèle de machine de Turing universelle ?
Tethysle 24 avril 2022 à 11:30

Bonjour à tous 🙂 ,

Pour introduire ce sujet que je trouve passionnant, je vous propose trois articles - comportant eux-mêmes des liens intéressants :

https://www.pourlascience.fr/sd/physique/l-univers-un-monstre-informatique-1582.php

https://trustmyscience.com/univers-simulation-informatique/

https://trustmyscience.com/selon-nouvelle-theorie-information-serait-cinquieme-etat-de-matiere/

J'ai en effet à coeur de recueillir vos avis comme autant d'éclairages possibles.

Avant d'intégrer prochainement EPiTA, je souhaiterai pouvoir nourrir une réflexion tout en construisant une Éthique autour de ces questions.

Bonnes lectures à tous ! 🤘

Kobayashile 24 avril 2022 à 16:31  •   80290

@Tethys, beau projet, bravo !

https://trustmyscience.com/selon-nouvelle-theorie-information-serait-cinquieme-etat-de-matiere/ : je ne suis pas fan. L'information que nous produisons est de qualité assez médiocre. On peut déjà en supprimer la moitié qui sont des opérations de contrôles et de routages informatiques. Ensuite, il y a beaucoup de doublons, notamment dans les réseaux sociaux, mais aussi les vidéos type VOD pour des raisons d'efficacité de visionnages.
Après, si on regarde les contenus, je pense que 99,9% sont inintéressants pour l'humanité, type "bonjour ça va", "regarde mon chien", et autres familiarités.
Donc extrapoler une volumétrie pour bâtir une théorie sur une matière "information" me semble très très optimiste !
Enfin, si on regarde ce qu'est cette information, elle est souvent magnétique et liée à une chaine de composants électriques et électroniques très spécialisés. Cela rend cette information très sensible dans le temps et donc très peu durable, 10 à 15 ans en moyenne je pense. On va s'en rendre compte quand Facebook annoncera la remise à zéro de ses datacenters... pour cause d'obsoléscence des données !

https://trustmyscience.com/univers-simulation-informatique/ heu, comment écrire, désolé, article très fumeux, no comment 😂 (poubelle)

Enfin, https://www.pourlascience.fr/sd/physique/l-univers-un-monstre-informatique-1582.php le plus intéressant mais je ne le vois pas en entier.

Rappelons juste un fait qui n'apparaît pas dans ces articles : le problème de la précision dans les calculs scientifiques. C'est une course permanente pour vérifier que les ordinateurs n'introduisent pas trop d'erreurs dans les calculs. La traduction des variables observées en bit réduit de facto la quantité d'information (Shannon) et donc la précision.
Ces mécanismes de corrections d'erreurs deviennent énormes avec les qbits dans les ordinateurs quantiques. En gros, on tente de rendre reproductible une fonction statistique quasi aléatoire, je caricature à peine. Pour pouvoir calculer sur 1000 qbits, il en faut 1000000 en tout pour gérer les corrections d'erreurs !

Un livre peut apporter un éclairage sur ces questions de codages et de réflexivité, de Douglas Hofstadter, Gödel Escher et Bach. C'est une bonne base pour réfléchir à une plus grande application, aussi bien sur les données que sur les machines pour les traiter.

Tethysle 24 avril 2022 à 22:55  •   80302

Merci @Kobayashi pour ton éclairage ! Je ne sais s'il s'agit d'un beau projet, sans doute illusoire - l'avenir me le dira ! - ; ce qui est certain est que je ne fais que suivre le courant naturellement là où il me mène pour l'instant ! 🤘

Ton retour d'expérience est précieux en ce sens que j'ai cru comprendre qu'il s'agissait de ton domaine d'activité comme ce le fut pour Timide01 avec lequel nous avons pu un peu échanger autour de ces questions.

De mon côté, mes connaissances du sujet demeurent superficielles, n'ayant encore aucun savoir technique et pratique. Mon regard est donc pour l'heure full théorique et encore ! 😄

Amarle 30 avril 2022 à 06:01  •   80657

Les 3 articles disent à peu près la même chose et se basent sur l'information au sens entropique.
Ça se tient de décrire l'information comme une "matière".
C'est une piste qui est je pense exploitable. Nos outils physiques sont incomplets et ne suffisent pas à expliquer l'univers.
Dans cette perspective, aborder l'univers sous l'angle de l'information peut peut-être ouvrir des portes de réflexion ?

Tethysle 30 avril 2022 à 21:18  •   80676

Bonjour @Amar,

Je te remercie pour ta réponse. Effectivement, l'information est entendue du point de vue de l'entropie. Je trouve également l'angle de vue intéressant.

Avant de commenter plus avant, je me propose dans un premier temps de reproduire en son intégralité l'article "L'Univers, un monstre informatique" paru dans Pour la Science" numéro 325 du 1er novembre 2004.

Auteurs :

Seth Lloyd, professeur de génie mécanique à l'Institut de technologie du Massachusetts (MIT), et dirige le Centre W. M. Keck du MIT pour la théorie de l'information quantique extrême.

Y. Jack Ng, professeur de physique à l'Université de Caroline du Nord, à Chapel Hill.

Pour en savoir plus :

H. C. von BAEYER, Information : the new language of science, Harvard University Press, 2004.

G. T. HOROWITZ et J. MALDACENA, The black hole final state, in Journal of High Energy Physics, vol. 02, p. 8, 2004 (prépublication : http://arxiv.org/abs/hep-th/0310281 ).

J.-P. DELAHAYE, L'ordinateur ultime, in Pour la Science, mars 2003.

S. LLOYD, Computational capacity of the Universe, in Physical Review Letters, vol. 88 (23), article 237901Z, 2002 (prépublication : http://arxiv.org/abs/quant-ph/0110141 ).

Y. J. NG, From computation to black holes and space-time foam, in Physical Review Letters, vol. 86, n° 14, pp. 2946-2949, 2001 (erratum in vol. 88, n° 13, article 139902(E), 2002) (prépublication : http://arxiv.org/abs/gr-qc/0006105 ).

L. SUSSKIND, Black holes and the information paradox, in Scientific American, avril 1997.

NB : s'agissant d'un copier-coller, les différents symboles, puissances et formules ne sont pas reproduites correctement.

---------------------------
"L'Univers, un monstre informatique"

Programmé par les lois de la physique, l'Univers est un immense ordinateur. L'information y est conservée, même par les trous noirs - contrairement à ce que pensait Stephen Hawking.

Quelle différence y a-t-il entre un ordinateur et un trou noir ? Cette question, qui ressemble au début d'une blague, correspond à l'un des problèmes les plus profonds de la physique contemporaine. Pour la plupart des gens, les ordinateurs sont des machines spécialisées mais, pour un physicien, tous les systèmes physiques peuvent être considérés comme des ordinateurs. Les pierres, les bombes atomiques ou les galaxies contiennent de l'information et la transforment. En effet, l'état quantique de chaque électron, photon ou toute autre particule élémentaire peut être représenté par des bits de données, et chaque fois que deux particules interagissent, leurs états, et donc les bits qu'ils représentent, sont transformés. On pourrait penser que les trous noirs sont une exception : il est possible d'injecter de l'information en leur coeur mais, à en croire la théorie de la relativité d'Einstein, il serait impossible d'en extraire de l'information. La matière tombant dans un trou noir n'en ressort plus et le détail de sa composition semble perdu à jamais.

Dans les années 1970, Stephen Hawking, de l'Université de Cambridge, montra que si l'on tient compte de la mécanique quantique, les trous noirs devraient émettre un rayonnement, un peu comme un objet incandescent. Cependant, selon l'étude de S. Hawking, ce rayonnement aurait des propriétés aléatoires et, par conséquent, ne contiendrait aucune information. Si un éléphant tombait dans un trou noir, l'équivalent en énergie serait réémis, mais cette énergie serait un mélange informe, quelque chose d'inutilisable, même en principe, pour recréer l'animal.

Cette perte apparente de l'information pose une énigme, car les lois de la mécanique quantique respectent la réversibilité microscopique des phénomènes et, à ce titre, l'information ne devrait pas disparaître irréversiblement. En conséquence, d'autres théoriciens, tels les Américains Leonard Susskind et John Preskill, ou le Hollandais Gerard 't Hooft, ont tenté de montrer que le rayonnement d'un trou noir n'est en réalité pas aléatoire, qu'il correspond à un certain traitement des données représentant la matière tombée dans le trou noir. Cet été, S. Hawking s'est rallié à leur point de vue : les trous noirs traitent eux aussi l'information et ne la détruisent pas.

Les trous noirs ne constituent que l'exemple le plus exotique du principe général qui veut que l'Univers stocke et traite de l'information. Ce principe n'est pas nouveau en soi. Au XIXe siècle, les fondateurs de la mécanique statistique créaient ce qui allait devenir la théorie de l'information pour expliquer les lois de la thermodynamique. De prime abord, la thermodynamique et la théorie de l'information sont deux mondes distincts : l'une a été développée pour décrire les machines à vapeur, l'autre pour optimiser les communications. Pourtant, une quantité thermodynamique nommée entropie, qui limite l'aptitude d'une machine à vapeur à fournir un travail utile, est étroitement liée à l'information : l'entropie d'un système matériel augmente avec le nombre de bits qui caractérisent les états des molécules dont le système est composé.

L'analyse de l'Univers en termes de bits et d'octets ne se substitue pas à l'analyse conventionnelle, par exemple en termes de force et d'énergie, mais elle révèle des faits nouveaux et surprenants. Dans le domaine de la mécanique statistique par exemple, elle a permis de dénouer le paradoxe du « démon de Maxwell », un dispositif imaginaire qui autorisait un mouvement perpétuel. Nous-mêmes, comme d'autres physiciens, utilisons depuis quelques années les mêmes idées en cosmologie et en physique fondamentale pour étudier la nature des trous noirs, la structure de l'espace-temps, le comportement de l'énergie noire cosmique et les lois ultimes de la nature.

La confluence de la physique et de la théorie de l'information découle d'une idée centrale de la mécanique quantique : au bout du compte, la nature est discrète (pas continue), et un système physique peut être décrit par un nombre fini de bits. Chaque particule du système ressemble à un élément logique d'un ordinateur. Par exemple, il est fréquent que son spin (ou moment magnétique) n'ait que deux orientations possibles, auquel cas l'état de spin est caractérisé par un seul bit. Un changement de l'orientation du spin de la particule équivaut donc à une opération numérique sur un bit (une transformation de 0 en 1 ou de 1 en 0).

Des trillions de gigahertz
Le système est aussi discret dans le temps : il faut une durée minimale pour qu'un bit bascule, temps donné par un théorème associé à deux pionniers de la physique du traitement de l'information, Norman Margolus, de l'Institut de technologie du Massachusetts, et Lev Levitin, de l'Université de Boston. Ce théorème est relié au principe d'incertitude de Heisenberg qui quantifie l'inévitable imprécision dans la mesure de certains couples de grandeurs physiques, telles que la position et la quantité de mouvement, ou l'énergie et le temps. D'après le théorème de Margolus-Levitin, le temps minimal t pour transformer un bit dépend de la quantité d'énergie nécessaire, E. Plus l'énergie est élevée, plus ce temps peut être bref, règle qui s'écrit : t >= h/(4E), où h est la constante de Planck (constante fondamentale de la mécanique quantique, égale à environ 6,626 × 10-34 joule.seconde).

De ce théorème, on tire un grand nombre d'estimations approximatives, de limites sur la géométrie de l'espace-temps jusqu'aux capacités informatiques de l'Univers considéré dans son ensemble. Examinons d'abord la puissance maximale de calcul que l'on obtiendrait d'un kilogramme de matière ordinaire occupant un volume de un litre. La source d'énergie de ce « portable ultime », comme nous le désignerons, n'est autre que la matière elle-même, équivalente à de l'énergie selon la célèbre formule d'Einstein E = mc2. En utilisant toute cette énergie pour basculer des bits, cet ordinateur effectuerait 1051opérations par seconde, en ralentissant peu à peu à mesure que l'énergie est consommée. La capacité en mémoire du portable ultime se calcule à l'aide des lois de la thermodynamique. Quand un kilogramme de matière est consommé en énergie dans un volume de un litre, sa température atteint le milliard de kelvins. Son entropie, proportionnelle à l'énergie divisée par la température, correspond à 1031 bits d'information. Ce portable ultime utilise chaque bit permis par les lois de la thermodynamique, l'information étant stockée dans les vitesses et positions de ses particules.

À chaque fois que les particules interagissent, elles peuvent induire le basculement d'un bit. Chaque bit peut se transformer 1020 fois par seconde, d'où une vitesse d'horloge de 100 milliards de gigahertz. En fait, un tel système est trop rapide pour être commandé par une horloge centrale, car le temps qu'il faut pour modifier un bit est à peu près égal au temps que la lumière met pour parcourir la distance entre deux bits voisins. Le portable ultime est ainsi massivement parallèle : il fonctionne non pas comme un processeur unique, mais comme un vaste ensemble de processeurs, chacun travaillant presque indépendamment en communiquant assez lentement ses résultats aux autres.

En comparaison, un ordinateur conventionnel fait basculer des bits environ 109 fois par seconde, stocke 1012 bits et ne contient qu'un seul processeur. En supposant que la loi de Moore sur les progrès de l'informatique reste toujours valide, et que les futurs ingénieurs trouvent des solutions pour, notamment, contrôler un plasma aussi chaud que le coeur du Soleil, nos descendants verront le portable ultime au milieu du XXIIIe siècle. D'une certaine façon, vous pouvez déjà vous procurer un tel appareil, à condition de connaître les bonnes personnes : un bloc de matière converti complètement en énergie équivaut à une bombe à hydrogène de 20 mégatonnes. Une bombe nucléaire qui explose traite un volume considérable d'information, les entrées correspondant aux configurations initiales, et ses sorties correspondant au rayonnement émis.

Si chaque bloc de matière constitue un ordinateur, un trou noir n'est rien d'autre qu'un ordinateur comprimé à l'extrême. Dans un tel ordinateur rétréci, la force gravitationnelle entre les constituants devient tellement intense qu'aucun objet ne peut s'en échapper. La taille du trou noir, appelée rayon de Schwarzschild, est directement proportionnelle à sa masse.

Un trou noir de un kilogramme a un rayon d'environ 10-27 mètre (le rayon du proton est de l'ordre de 10-15 mètre...). Comprimer l'ordinateur ne modifie pas son contenu en énergie, et il peut donc encore effectuer 1051 opérations par seconde, comme auparavant. En revanche, cela change ses capacités de mémoire. Quand la gravité est négligeable, la capacité de stockage est proportionnelle au nombre de particules, donc au volume. Mais quand la gravité opère, les particules se solidarisent, et en conséquence la capacité de stockage diminue. La capacité totale de stockage d'un trou noir est proportionnelle à sa surface. Dans les années 1970, S. Hawking et Jacob Bekenstein, de l'Université hébraïque de Jérusalem, ont calculé qu'un trou noir de un kilogramme peut enregistrer 1016 bits, beaucoup moins que le même ordinateur avant sa compression.

Données avalées, puis rayonnées
En contre-partie, un tel trou noir est un ordinateur extrêmement rapide : il faut 10-35seconde pour modifier un bit, le temps mis par la lumière pour parcourir la distance qui sépare un côté de l'ordinateur de l'autre. Ainsi, contrairement au portable ultime, le trou noir est un ordinateur séquentiel ; il se comporte comme une seule unité.

Comment fonctionnerait en pratique un ordinateur à trou noir ? Pour ce qui est des entrées, il suffit de coder les données sous la forme de matière ou d'énergie et de les lancer dans le trou noir. En préparant correctement les matériaux qui tombent dans le trou noir, un bon informaticien devrait pouvoir lui faire effectuer n'importe quel calcul. Une fois les matériaux avalés par le trou noir, ils ont disparu pour de bon ; l'« horizon des événements » délimite le point de non-retour. Les particules en chute interagissent, exécutant ainsi des calculs pendant une durée finie avant d'atteindre le centre du trou - la singularité - puis disparaissent. Ce qu'il leur advient alors dépend des propriétés quantiques de la gravité, encore inconnues.

Les sorties de l'ordinateur à trou noir sont constituées par le rayonnement de Hawking. L'énergie étant conservée, la masse du trou noir diminue. Un trou noir de un kilogramme s'évapore en moins de 10-21 seconde. La longueur d'onde du maximum d'émission est de l'ordre du diamètre du trou noir, ce qui, toujours pour un kilogramme, correspond à des rayons gamma très énergétiques. Ce rayonnement peut être détecté, puis décodé pour en extraire l'information.

Les travaux de S. Hawking sur le rayonnement qui porte son nom ont infirmé l'idée selon laquelle rien ne s'échappe d'un trou noir. On démontre que le taux d'émission d'un trou noir est inversement relié à sa taille. Il s'ensuit que les grands trous noirs, comme ceux que l'on trouve au centre des galaxies, perdent leur énergie beaucoup plus lentement qu'elles n'engloutissent de la matière. Peut-être, toutefois, pourra-t-on un jour créer de minuscules trous noirs dans des accélérateurs de particules, trous noirs qui devraient exploser presque immédiatement en émettant une bouffée de radiations.

Le rayonnement de Hawking contient-il le résultat d'un calcul ou n'est-ce que du bruit ? La réponse est encore controversée, mais la plupart des physiciens, dont S. Hawking, pensent maintenant que ce rayonnement correspond à une version très modifiée de l'information qui était entrée dans le trou noir durant sa formation. Bien que la matière ne puisse pas quitter le trou noir, son contenu en information le peut. Comment ?

L'année dernière, Gary Horowitz, de l'Université de Californie à Santa Barbara, et Juan Maldacena, de l'Institut d'études avancées de Princeton, ont esquissé un mécanisme possible. Il résiderait dans l'intrication, phénomène quantique consistant en une imbrication des propriétés de deux systèmes (ou plus) en dépit de séparations importantes dans l'espace ou dans le temps. L'intrication rend possible la téléportation, processus par lequel l'information est transportée d'une particule à une autre avec une fidélité telle que la particule a, en pratique, été copiée d'un endroit à l'autre à une vitesse proche de celle de la lumière.

Le processus de téléportation a été démontré en laboratoire au cours des dernières années. Il nécessite une préparation des deux particules dans un état quantique intriqué. Puis une mesure est effectuée sur l'une des particules, conjointement avec de la matière contenant l'information à téléporter. La mesure efface l'information de l'endroit où elle se trouvait initialement mais, en raison de l'intrication, elle se retrouve sous une forme codée par la seconde particule, quelle que soit la distance à laquelle celle-ci se trouve. L'information peut être décodée en utilisant les résultats de la mesure comme clef.

Un processus analogue est peut-être à l'oeuvre dans les trous noirs. Des paires de photons intriqués se créeraient à l'horizon des événements. Un des photons de chaque paire s'échapperait et formerait le rayonnement de Hawking, qui est observable. Le second tomberait en même temps que la matière vers le centre du trou noir. L'annihilation du photon capturé par le trou noir jouerait le rôle d'une mesure ; il s'ensuit que l'information contenue dans la matière engloutie serait transmise au photon capturé et donc, grâce à l'intrication, au rayonnement de Hawking sortant.

La différence avec la téléportation en laboratoire est que le résultat de cette « mesure » n'est pas nécessaire pour décoder l'information ayant été téléportée. G. Horowitz et J. Maldacena ont tenté de démontrer que l'annihilation du photon ne conduit pas à plusieurs résultats possibles, mais à un seul résultat. Un observateur extérieur pourrait alors facilement calculer l'unique résultat possible et ainsi accéder à l'information. C'est cette conjecture qui sort du cadre habituel de la mécanique quantique ; bien que controversée, elle demeure plausible. De la même façon qu'il est possible que la singularité initiale correspondant à la naissance de l'Univers n'ait eu qu'un seul état quantique, il est possible que les singularités finales à l'intérieur des trous noirs aient aussi un état unique. En juin dernier, l'un d'entre nous (S. Lloyd) a montré que le mécanisme de Horowitz-Maldacena est robuste : il ne dépend pas de manière précise de l'état final. Il semble cependant conduire à une légère perte d'information.

D'autres chercheurs ont proposé des mécanismes de sortie qui reposent aussi sur des phénomènes quantiques étranges. En 1996, Andrew Strominger et Cumrun Vafa, de l'Université de Harvard, ont suggéré que les trous noirs sont des objets constitués de structures multidimensionnelles appelées branes, prévues par la théorie des cordes. L'information tombant dans un trou noir serait stockée dans des ondes affectant la brane, et pourrait, à terme, s'échapper. Plus tôt cette année, Samir Mathur, de l'Université de l'État de l'Ohio, et ses collaborateurs ont modélisé un trou noir sous la forme d'une énorme pelote de cordes. Cet objet émettrait un rayonnement reflétant l'information contenue dans les objets ayant chuté sur le trou noir. S. Hawking, dans le cadre de sa récente démarche, a fourni des arguments selon lesquels les fluctuations quantiques empêcheraient la formation d'un horizon des événements bien défini. Toutes ces idées sont encore en cours d'évaluation.

Les propriétés des trous noirs sont intrinsèquement liées à celles de l'espace-temps. Ainsi, si les trous noirs peuvent être vus comme des ordinateurs, l'espace-temps lui-même a cette propriété. La mécanique quantique prédit que l'espace-temps, comme tout système physique, est discret : les distances et les intervalles de temps ne peuvent être mesurés avec une précision infinie. À très petite échelle, l'espace-temps présenterait des bulles et une structure en mousse. La quantité maximale d'information que peut contenir une région donnée de l'espace dépend de la taille des bits. Or ceux-ci ne peuvent être plus petits que les cellules de la mousse.

Les physiciens ont longtemps supposé que la taille de ces cellules correspondait à la longueur de Planck, lP, qui est de l'ordre de 10-35 mètre et qui correspond à la distance pour laquelle à la fois les fluctuations quantiques et les effets gravitationnels sont importants. Si c'était le cas, la nature mousseuse de l'espace-temps serait trop minuscule pour être observée. Mais l'un d'entre nous (J. Ng) ainsi que Hendrik van Dam, de l'Université de Caroline du Nord à Chapel Hill, et Frigyes Károlyházy, de l'Université d'Eötvös Loránd en Hongrie, ont montré que les cellules sont en fait beaucoup plus grandes et n'ont pas de taille caractéristique : plus grande est une région de l'espace, plus grandes seront les cellules dont elle est formée. Au premier abord, cette affirmation semble paradoxale - c'est comme si les atomes d'un éléphant étaient plus gros que ceux d'une souris. En fait, S. Lloyd l'a déduite des mêmes lois que celles qui limitent la puissance hypothétique des ordinateurs.

Caractériser la géométrie de l'espace-temps est une sorte de calcul, par le biais duquel les distances sont estimées en transmettant et traitant de l'information. Une façon de procéder consiste à remplir une région de l'espace d'une constellation de satellites de positionnement, chacun contenant une horloge et un transmetteur radio (voir l'encadré page 36). Afin de mesurer une distance, un satellite envoie un signal et chronomètre le temps qu'il faut au signal pour arriver. La précision de la mesure dépend de la fréquence à laquelle bat l'horloge. La fréquence maximale est limitée par le théorème de Margolus-Levitin : le temps entre deux battements est inversement proportionnel à l'énergie.

Quand l'espace-temps calcule
L'énergie est elle-même limitée. Si les satellites en ont trop, ou si leur amas est trop compact, ils vont former un trou noir et ne pourront servir à cartographier l'espace-temps (le trou noir émettrait à son tour un rayonnement de Hawking, dont la longueur d'onde, de l'ordre de la taille du trou noir, ne permettrait pas de discerner des structures d'échelle plus petite). L'énergie totale maximale d'une constellation de satellites est proportionnelle au rayon de la région à arpenter. Ainsi, l'énergie augmente plus lentement que le volume de la région. Quand la taille de la région croît, le géomètre arpenteur se voit confronté à un dilemme : réduire la densité de satellites (leur séparation augmente alors) ou réduire l'énergie disponible pour chaque satellite (leur horloge bat alors moins vite). De toute façon, les mesures deviennent moins précises. Pendant la durée requise pour cartographier une région de rayon R, le nombre total de battements effectués par tous les satellites sera égal à R2/lP2. Si chaque satellite bat une seule fois pendant le processus d'arpentage, les satellites doivent être espacés en moyenne d'une distance R1/3 lP2/3. Des distances plus courtes peuvent être mesurées dans une sous-région, mais seulement au détriment de mesures moins précises dans d'autres sous-régions. Cet argument reste valable même si l'espace est en expansion.

L'expression R1/3 lP2/3 est la précision avec laquelle les distances peuvent être mesurées ; elle s'applique quand le système de mesure est sur le point de former un trou noir. En deçà de cette échelle, on ne peut plus parler de géométrie de l'espace-temps. Cette échelle de précision est beaucoup plus grande que la longueur de Planck, mais est cependant très petite : pour l'Univers observable, elle est de l'ordre de 10-15 mètre, valeur qui pourrait être à la portée des futurs détecteurs d'ondes gravitationnelles.

Pour les théoriciens, ce résultat fournit une nouvelle façon de voir les trous noirs. J. Ng a montré que les lois d'échelle des fluctuations de l'espace-temps, qui varient comme la racine cubique des distances, offrent un raccourci pour retrouver la formule de Hawking-Bekenstein indiquant la capacité en mémoire des trous noirs. Il impose également une borne universelle à tous les ordinateurs à trous noirs : la taille (en bits) de leur mémoire est proportionnelle au carré de la fréquence de calcul. La constante de proportionnalité est Gh/c5, ce qui illustre le lien entre l'information, la théorie de la relativité restreinte (dont le paramètre central est la vitesse de la lumière c), celle de la relativité générale (la constante de la gravitation, G) et la mécanique quantique (h).

Peut-être encore plus significatif : ce résultat conduit directement au principe dit holographique, qui suggère que notre Univers à trois dimensions est, en un certain sens profond, bidimensionnel. La quantité maximale d'information qu'une région de l'espace peut stocker semble être proportionnelle non pas à son volume, mais à sa surface. On suppose habituellement que le principe holographique est la conséquence de certains détails mal connus de la gravité quantique ; en fait, il découle des limites quantiques fondamentales liées à la précision d'une mesure.

L'Univers a fait 10123opérations
On peut appliquer les principes que nous avons évoqués non seulement aux objets les plus compacts (les trous noirs) et aux ordinateurs les plus petits (la mousse de l'espace-temps), mais aussi aux plus grands : l'Univers. L'Univers est peut-être infini en étendue, mais il n'existe que depuis un temps fini, du moins dans sa forme actuelle. Sa partie observable a actuellement un diamètre de quelques dizaines de milliards d'années-lumière. Pour que nous puissions connaître le résultat d'un calcul effectué par l'Univers, ce calcul doit avoir été mené dans cette partie observable.

L'analyse ci-dessus des battements d'horloge permet de calculer le nombre d'opérations qui ont pu être effectuées depuis le début de l'Univers : 10123. Comparons cette limite avec le comportement de la matière dans notre environnement - la matière visible, la matière noire et l'énergie sombre censée être responsable de l'expansion accélérée de l'Univers. La densité d'énergie cosmique observée est approximativement égale à 10-9 joule par mètre cube, de sorte que l'Univers contient 1072 joules d'énergie. D'après le théorème de Margolus-Levitin, il peut effectuer jusqu'à 10107 opérations par seconde, d'où un total de 10123 opérations depuis sa naissance. En d'autres termes, l'Univers a effectué le nombre maximal d'opérations autorisé par les lois de la physique.

Pour calculer les capacités de mémoire totales de la matière usuelle, celle des atomes par exemple, on peut mettre en oeuvre les méthodes classiques de la mécanique statistique et de la cosmologie. La matière peut stocker le maximum d'information quand elle est convertie sous forme de particules énergétiques dépourvues de masse, comme les neutrinos ou les photons, dont la densité d'entropie est proportionnelle au cube de la température. Cette densité d'énergie des particules (qui fixe le nombre d'opérations qu'elles peuvent effectuer) croît comme la puissance quatrième de leur température. Le nombre total de bits correspond donc simplement au nombre d'opérations élevé à la puissance 3/4. Pour l'ensemble de l'Univers, on a environ 1092 bits. Si les particules ont une structure interne, ce nombre peut être un peu plus élevé. Ces bits basculent plus vite qu'ils ne communiquent, donc la matière conventionnelle constitue un ordinateur massivement parallèle, à l'instar du portable ultime et à l'inverse du trou noir.

Quant à l'énergie sombre, les physiciens ignorent ce qu'elle est, et savent encore moins calculer la quantité d'information qu'elle peut emmagasiner. Le principe holographique implique que le maximum que l'Univers puisse stocker est 10124bits, un nombre pratiquement équivalent au nombre total d'opérations. Ce n'est pas une coïncidence. Notre Univers est proche de la densité critique. S'il avait été un petit peu plus dense, il aurait pu passer par une phase de contraction gravitationnelle, tout comme la matière tombant dans le champ gravitationnel d'un trou noir. En conséquence, il satisfait (ou satisfait presque) les conditions pour maximiser le nombre d'opérations de calcul. Ce nombre maximal est R2/lP2, qui correspond au nombre de bits du principe holographique. À chaque époque de l'histoire, le nombre maximal de bits que l'Univers peut contenir est approximativement égal au nombre d'opérations qu'il aurait pu faire jusqu'à cette époque.

Alors que la matière classique procède à un nombre considérable de calculs, l'énergie sombre se comporte d'une manière assez différente. Si elle correspond au nombre maximal de bits autorisé par le principe holographique, alors la majorité écrasante de ces bits ont eu le temps de basculer plus d'une fois au cours de l'histoire cosmique. Ces bits non conventionnels sont donc les témoins passifs des calculs effectués à vitesse beaucoup plus élevée par le nombre relativement beaucoup plus faible de bits conventionnels. Quelle que soit la nature de l'énergie sombre, elle n'effectue pas beaucoup de calculs. Rendre compte de la masse manquante de l'Univers et accélérer son expansion sont des tâches simples, du point de vue du volume de calculs à effectuer.

Que calcule l'Univers ?

Autant qu'on puisse en juger, il ne propose pas une réponse unique à une question unique. En fait, l'Univers se calcule lui-même. En utilisant le logiciel « Modèle standard », qui décrit la physique des particules élémentaires, l'Univers calcule des champs quantiques, de la chimie, des bactéries, des êtres humains, des étoiles et des galaxies. En calculant, il arpente sa propre géométrie d'espace-temps avec la précision ultime autorisée par les lois de la physique.

Ces résultats qui concernent les ordinateurs classiques, les trous noirs, la mousse de l'espace-temps et la cosmologie témoignent de la cohérence de la nature. Ils démontrent les interconnexions conceptuelles de la physique fondamentale. Les physiciens ne disposent pas encore d'une théorie complète de la gravité quantique, mais cette théorie, quelle qu'elle soit, sera étroitement liée à la théorie de l'information."

Kobayashile 02 mai 2022 à 20:59  •   80779

@Tethys désolé, je n'adhère pas. On passe de l'échelle quantique à l'univers, avec au passage de hypothèses farfelus de satelite se tranformant en trous noirs, svp arrêtez le délire !

Tous les résultats en physique quantique sont des résultats de laboratoire. La base d'une expérience de laboratoire est la reproductibilité, donc la maîtrise des conditions initiales, afin que d'autres puisse la vérifier. Cela n'a rien avoir avec les conditions réelles, même dans l'espace. La seule expérience quantique dans l'espace est celle des chinois, mais c'est une expérience seulement.
On peut rêver et dériver sur de la science fiction, mais je ne crois pas que cela puisse durer longtemps dans un contexte d'études scientifiques.

Pour la question de l'entropie, oui, tout est entropie. Cela apporte juste le sens du temps et une irréversibilité des processus.


Il te faut t'enregistrer sur le site pour participer aux forums.

Rejoins-nous vite !

Alerter les modérateurs

Peux-tu préciser ci-dessous le motif de ton alerte ?