RSS

Archives de Catégorie: sciences

voilà une reconnaissance et une alliance à la hauteur de ce qu’est le PCF

Résultat de recherche d'images

 

La mémoire des mathématiques par-delà les clivages politiques. Deux députés,Cédric Villan (LREM) et Sébastien Jumel (PCF), ont uni leurs forces ce mercredi 14 février pour demander à Emmanuel Macron « la reconnaissance officielle de l’assassinat de Maurice Audin par l’armée française » à l’occasion du 86e anniversaire mercredi de la naissance du mathématicien communiste, disparu à Alger en juin 1957., en présence de Josette Audin.

Voilà le parti dans lequel on peut se reconnaître celui capable de mener un combat de toujours, celui d’un henri Alleg, celui de tant de jeunes militants comme moi adhérant au parti pour ses combats de classe, pour son rôle dans la Résistance mais aussi ses combats anti-colonialiste. J’ai adhéré pour tous ces combats-là et ma première cellule s’appelait Iveton du nom de ce militant communiste algérien qu’un certain François Mitterrand avait condamné et refusé la grâce.

C’était un combat au nom de la France, celle qui portait partout l’honneur du pays de la liberté, qui parle encore du rôle d’un Suret-Canale, de ceux qui aux côtés des anti-colonialistes portaient partout le soutien des communistes. Et nous ne monopolisions pas ce combat, nous l’ouvrions à tous ceux qui voulaient agir avec nous, il était celui de la classe ouvrière, des intellectuels qui l’avaient rejointe mais aussi celui de ceux qui n’ont jamais trahi la France, se battent pour le développement scientifique et technique, la création. C’est pour cela qu’il était juste que Sébastien Jumel adhérant au PCF à 18 ans invite Cedric Villani à exiger avec lui que lumière soit faite sur cet assassinat.

Je pense à jean Pierre kahane et à la joie qu’il aurait eu de voir associé l’excellence française en mathématique avec le combat anti-colonialiste.ce parti auquel nous avons adhéré avait mené la lutte anti-nazie, la lutte anti-coloniale, il avait imposé le statut de la fonction publique, la sécurité sociale, le vote des femmes, le financement du cinéma français, il est le meilleur de nos vies d’aujourd’hui et pas seulement le passé.
Danielle Bleitrach

Publicités
 
1 commentaire

Publié par le février 15, 2018 dans HISTOIRE, POLITIQUE, sciences

 

L’eugénisme, la «science» pour améliorer la race, en Amérique latine

 comment au pérou en relation avec le FMI et  l’église, Fujimori a procédé à un programme de stérilisation forcée. Ces pratiques eugénistes ont touché essentiellement les catégories pauvres, les indigènes (Traduction et note de danielle Bleitrach)

Publié: Jan 27 2018 01:39 GMT

 

L'eugénisme, la «science» pour améliorer la course, en Amérique latine

Illustration illustrative / Mohammed Salem / Reuters

L’eugénisme a émergé au cœur de l’Angleterre victorienne à la fin du XIXe siècle et a été défini par Sir Francis Galton, son créateur, comme «la science qui traite de toutes les influences qui améliorent les qualités innées d’une race».

Que ce soit par des mécanismes subtils promus par l’Église catholique ou par des pratiques agressives telles que la stérilisation forcée des personnes, l’eugénisme sera la science responsable de la promotion de la reproduction des «bons» individus et découragera les «mauvais» ou « qualité inférieure ».

Coïncidence ou non, depuis plus de 100 ans, les plus drastiques pratiques eugéniques ont été appliquées dans le monde entier, presque exclusivement sur les classes inférieures. L’Amérique latine n’est pas l’exception.

Certains plus précieux que d’autres

« les Élites ont vu dans l’eugénisme un moyen  pour invoquer la supériorité des uns sur les autres. Qu’apportera cette science sinon qu’il ya des gens dont la vie vaut plus que d’autres. Donc, s’il y a plus de bonnes personnes, l’eugénisme de fournir un mécanisme par lequel la reproduction d’un être sera orienté  au détriment des autres « , explique Gustavo Vallejo, docteur en histoire et chercheur au Conseil national de la recherche scientifique et technique (CONICET), basé à l’Université nationale de Quilmes (Argentine).

Logo du deuxième congrès international d’eugénisme, 1921. / wikipedia.org / Beao / Domaine public

Selon le chercheur, l’eugénisme aura deux aspects majeurs. D’une part, il y aura l’eugénisme anglo-saxon , qui n’aura pas de limites et effectuera des mesures sanglantes de l’exercice de la violence directe sur les corps, comme la stérilisation forcée . Dans cette direction étaient les eugénistes américains, et par cette voie, on en est venu directement au nazisme.

La seconde sera ce qu’on a appelé l’eugénisme latin et elle réunira précisément les pays de cette ascendance. Dans cet aspect non stérilisant de l’eugénisme, un rôle central est donné à l’église, au système judiciaire et à la médecine, afin de déterminer l’aptitude des individus en tant que futurs pères et prolongateurs d’une certaine génétique et de certaines valeurs.

« La connaissance normative, qui est la loi, la médecine et la théologie, finit par construire un vaste champ à travers lequel l’eugénisme fut  diffusé comme un mécanisme d’ordre social, qui a eu lieu vers 1930 et a  traversé toute l’Amérique latine « . .

Le point de départ de tout ce mécanisme sera la sélection des conjoints, et cette sélection sera faite en partie par l’Eglise catholique à travers les conseils pré-matrimoniaux. Lorsque les futurs mariés sont allés voir un prêtre avant de se marier, le prêtre leur a posé des questions, évalué et analysé le futur couple pour éventuellement décourager et interdire le mariage par l’Église.

Gustavo Vallejo, docteur en histoire et chercheur au CONICET
L’eugénisme latin était plus subtil, moins visible en termes de pratiques qui ont été réalisées et c’est peut-être pourquoi il a été moins analysé ou moins détectéGustavo Vallejo, Docteur en Histoire et chercheur du CONICET

Dans le même temps, l’examen médical prénuptial a été institué dans le domaine public étatique. Bien qu’il existe encore aujourd’hui dans de nombreux pays, sa motivation dans les années 1930 était strictement eugénique. Si à la suite d’ un examen médical , il avait  été déterminé que l’ un des époux avait une maladie ou « tare » qui pourraient être transférés à leurs enfants, l’Etat a le pouvoir  de dire non pour permettre les unions civiles.

« Ici commence à articuler le domaine médical, le droit et l’Eglise D’un côté est le certificat médical … Si vous ne respectez pas les attentes, il agit de la loi La loi peut intervenir sur un acte qui relève du  droit privé et d’autre part il y a l’Eglise, le prêtre intervient pour vous décourager si il a été admis  s que vous alliez générer une progéniture pas souhaitable pour l’État « , résume Vallejo.

Selon l’historien, l’eugénisme latin était une manière moins visible en termes de pratiques qui ont été réalisées et peut-être, par conséquent, est passé inaperçu.

Nouveau millénaire et stérilisations forcées

Près d’un siècle après l’arrivée des idées eugéniques en Amérique latine, le tournant du millénaire a entraîné un tournant inattendu et une violence sans précédent dans la région.

Des femmes protestent contre les stérilisations forcées qui ont eu lieu dans les années 90. Lima, Pérou – 2016. / Aaron Heredia / Roverimages / http://www.globallookpress.com

L’eugénisme anglo-saxon occupait une place centrale lorsqu’il s’agissait de contrôler et de restreindre la croissance des populations considérées comme dangereuses ou indésirablest.

En 1996, Alberto Fujimori, alors président du Pérou, a lancé pendant sa deuxième présidence le Programme national de santé génésique et de planification familiale (PNSRPF) dans le but supposé de lutter contre la pauvreté grâce à la stérilisation des femmes.

Grâce à des méthodes contraceptives auparavant punissables par la loi, comme la ligature des trompes, le programme de santé reproductive a progressé avec ses objectifs à plein régime, et au moment où il a pris fin en 2000, le nombre  des femmes stérilisées dans le pays était de 331 000 , selon une étude qui cite des estimations du ministère de la Santé péruvien lui-même.

Cependant, ce qui, à première vue, pourrait être interprété comme un succès en termes de santé sexuelle et reproductive a fini par être l’un des crimes les plus graves de l’histoire démocratique du continent.

Au moins 18 femmes sont mortes victimes de ces opérations. 211 000 femmes stérilisées – soit plus de 63% du total – n’ont pas reçu d’informations complètes sur le processus de ligature des trompes, alors que 25 000 d’entre elles n’ont pas été informées du caractère irréversible de l’intervention chirurgicale, c’est-à-dire qu’elles ne pourront plus jamais avoir d’enfants.

María Ysabel Cedano, Directrice de l'Etude pour la Défense des Droits de la Femme
En fait, il y avait une politique de contrôle de la population par la violation des droits reproductifs des femmes, les stérilisant sans garantir un consentement préalable, libre et éclairé.María Ysabel Cedano, Directrice de l’Etude pour la Défense des Droits de la Femme

« Un an après l’opération, ma taille a commencé à faire mal et la coupure que j’avais subie dans l’opération, je ne pouvais pas manger des choses chaudes ni faire des efforts  et à partir de ce moment, je me suis sentie mal « . présidente de l’Association des femmes péruviennes touchées par la stérilisation forcée et l’une des victimes de la campagne promue par Fujimori.

Avant d’être opérée, Rute a été menacée par les opérateurs de santé pour avoir résisté à l’intervention: on lui a d’abord dit qu’elle ne pourrait pas inscrire sa fille nouveau-née au registre municipal, puis on lui a dit qu’elle commencerait bientôt à payer cher  pour chacun de leurs enfants. Finalement, le 10 février 1999, elle a été emmenée en ambulance avec sa fille et son mari censés faire vacciner la fille.

Une fois à l’hôpital et devant les pleurs  et les doutes de Rute, une infirmière l’emmena dans une salle d’opération où elle fut rapidement déshabillée et allongée sur une civière. En raison de sa résistance constante, la femme était attachée à la main et au pied et la procédure a été menée contre sa volonté . « Jusqu’à présent, il n’y a pas de justice, le gouvernement ne dit rien et nous avons suffisamment de preuves, notre affaire a été arrêtée, ils ne veulent plus avancer, et maintenant le président actuel a accordé un pardon à Fujimori qui ne mérite pas le respect ».

Coopération internationale

Les procédures judiciaires engagées par les victimes et par des associations non gouvernementales cherchent à condamner les auteurs directs des stérilisations, ainsi que celui de Fujimori et des autres dirigeants politiques. Cependant, María Ysabel Cedano, directrice de l’étude pour la défense des droits de la femme (DEMUS), souligne le rôle joué par certaines organisations internationales dans ce processus agressif de contrôle démographique.

Image illustrative. Pixabay / Herney

« Lorsque Fujimori arrive au pouvoir pour se réinsérer dans le système international, il adopte les politiques du FMI, de la Banque mondiale et de la Banque interaméricaine de développement, y compris des politiques démographiques soutenues par la coopération internationale », souligne M. Cedano.

Un rapport fait en 2002 par une commission enquêtant sur le Congrès péruvien qui cherchait à trouver les responsables de ces politiques confirme ce qu’a affirmé le directeur de DEMUS.

Le document se réfère aux archives internes de l’agence américaine pour le développement international (USAID), qui révèlent que, en 1993,  ce pays a pris en main  le système de santé national du Pérou. Cette intervention a été possible grâce à une réorganisation du ministère de la Santé qui avait été réalisée peu de temps auparavant en réponse aux recommandations des bailleurs de fonds .

Selon le rapport, le Fonds des Nations Unies pour la population (FNUAP) était également un acteur clé dans ce cadre institutionnel à des fins eugéniques.

« Depuis le début des activités de la planification familiale au Pérou, le FNUAP a participé en collaboration avec l’ USAID dans pratiquement toutes les activités contribuant au financement. Il est important de considérer que les principaux contributeurs de fonds du FNUAP sont précisément les EE. Amérique du Nord », dit le texte préparé par la législature.

Des femmes brandissent des affiches contre les stérilisations forcées lors d’une manifestation au Pérou – 2015 / Mariana Bazo / Reuters

María Ysabel Cedano estime qu’en dehors de tous les euphémismes utilisés par Fujimorismo, «il y avait en fait une politique de contrôle de la population par la violation des droits reproductifs des femmes, les stérilisant sans garantir un consentement préalable, libre et éclairé. pas toutes les femmes, mais les femmes analphabètes, les locuteurs du quechua, les paysans et les populations autochtones.  »

Le cauchemar continue

Bien que les centaines de milliers de cas de stérilisation forcée au Pérou aient été largement couverts par la presse internationale et même parvenus à la Commission interaméricaine des droits de l’homme (CIDH), les choses ne semblent pas avoir beaucoup changé dans la région. Bien que nous ne puissions jusqu’ici parler de plans systématiques de contrôle agressif de la reproduction par les États latino-américains, les stérilisations sans consentement restent une réalité, en particulier pour les femmes séropositives.

Un rapport de 2013, réalisé par l’organisation «Promotion de la balance pour le développement et la jeunesse», a révélé que les droits reproductifs des femmes séropositives  au Mexique et dans trois pays d’Amérique centrale étaient violés . Sur un total de 337 femmes interrogées, 20 d’entre elles ont déclaré avoir subi des pressions ou être obligées de se faire stériliser au Mexique, 10 au Salvador, 7 au Nicaragua et 6 au Honduras.

Alexandra Minna Stern, professeur de culture et d'histoire américaine à l'Université du Michigan.
« Il y a une logique eugénique derrière tout cela qui dit que ces gens ne devraient pas avoir de bébés parce qu’ils ne sont pas en forme »Alexandra Minna Stern, professeur de culture et d’histoire américaine à l’Université du Michigan.

« Les femmes autochtones ou les femmes de couleur en Amérique latine sont toujours la cible de stérilisations, peut-être s’agit-il d’une série de cas spécifiques, je ne sais pas si cela devient un modèle, mais l’idée derrière cela est que vous êtes Les femmes sont une menace et leur état indique qu’elles ne devraient pas être mères », explique Alexandra Stern, professeur de culture et d’histoire américaine à l’Université du Michigan.

Plus récemment, Amnesty International a publié un document confirmant que les stérilisations forcées se poursuivent au Mexique et dans d’autres pays de la région.

Le rapport raconte l’histoire de plusieurs femmes qui ont subi ces abus en Amérique latine. Parmi eux se trouve le cas de Michelle, une mère de 23 ans de l’État de Veracruz au Mexique qui a découvert qu’elle était séropositive au cours d’un examen médical alors qu’elle était enceinte de quatre mois.

Le jour où elle est arrivée à l’hôpital pour accoucher, Michelle a trouvé sur son lit une pancarte qui disait «VIH». Puis le médecin lui a dit qu’ils devaient opérer pour éviter de futures grossesses. Alors que Michelle a refusé, les médecins ont ignoré  ses protestations  et ont procédé à la stérilisation .

Selon Stern, l’argument derrière ces stérilisations pourrait être économique et lié à la santé publique, mais si vous creusez plus profondément, les vraies raisons sont évidentes: « Il y a une logique eugénique derrière tout cela qui dit que ces gens ne devraient pas avoir de bébés parce qu’ils ne sont pas adaptés, ou parce qu’ils sont malades ou parce qu’ils ne sont tout simplement pas le genre de citoyen qui devrait continuer à se reproduire », conclut-il.

Ignacio Fernández Albano

 

Saut quantique de la Chine (2)

Résultat de recherche d'images pour "saut quantique"

© Chine Nouvelle (Xinhua) – Xu Yongchun, le 05/10/2017 06:27
Le saut quantique est le passage brusque d’un état de la matière à un autre, sauf qu’il viole un principe de Newton sur la continuité. Mais bien sûr ce passage a toujours fasciné les adeptes de la téléportation voire de la transmutation des corps et de la pensée. En tous les cas la Chine est en train de faire un saut quantique du pays manufacture du monde à celui du développement scientifique et technique accélérant la recherche de haut niveau  (note de Danielle Bleitrach)

Karl Ziemelis, éditeur en chef des sciences physiques de Nature, a déclaré qu’avec la publication de ces nouveaux articles, M. Pan et ses collègues avaient achevé la démonstration d’un trio d’expérimentations quantiques qui constitueraient le coeur de tout Internet quantique basé dans l’espace.

« On pourrait dire que les possibilités en matière de technologies quantiques vont jusqu’au ciel, mais cela serait en réalité une estimation trop prudente. Ils ont été au-delà du ciel avec ces dernières expériences, et le fait que ce groupe ait réussi à élever la recherche dans les communications quantiques pratiques à de telles hauteurs astronomiques est la concrétisation des investissements et des grands efforts déployés par la Chine dans les sciences physiques », a indiqué M. Ziemelis.

Les scientifiques chinois ont accompli toutes les expérimentations conçues pour Micius avec un an d’avance sur le calendrier prévu. Le président de l’ASC, Bai Chunli, a déclaré que ces progrès montraient que la Chine avait atteint une position de pionnier dans le domaine de la recherche sur la communication quantique.

« Micius a inauguré la construction de la communication quantique mondiale, les études de la physique quantique dans l’espace et la vérification expérimentale des théories sur la gravité quantique. Cela contribue aux efforts de la Chine pour atteindre une position dominante dans les sciences et technologies quantiques et lui permet de devenir un leader dans ce domaine », a déclaré M. Bai.

Les scientifiques chinois ont également réalisé des percées dans l’informatique quantique.

En mai, ils ont construit la première machine de calcul quantique au monde, allant au-delà des ordinateurs classiques ou conventionnels et ouvrant la voie à l’objectif ultime de voir l’informatique quantique détrôner les ordinateurs classiques.

Sur une table de 3 m² dans un laboratoire de l’Institut de Shanghai pour les études avancées relevant de l’Université des sciences et technologies de Chine, le « bébé » ordinateur quantique composé de plusieurs centaines de pièces n’a rien en commun avec les ordinateurs utilisés aujourd’hui à la maison ou au travail.

« Bien que ses performances ne dépassent pas celles des téléphones mobiles actuellement dans nos mains, il représente un saut considérable pour l’ordinateur quantique, lequel pourrait un jour surpasser les ordinateurs conventionnels », d’après M. Pan.

Son équipe a l’ambition de construire un ordinateur quantique aussi puissant que les ordinateurs portables à la fin de l’année et d’en bâtir un capable de supplanter le super-ordinateur le plus puissant d’ici 2020.

« Une période cruciale pour le développement des ordinateurs quantiques voit le jour, comme des pousses de bambou après la pluie », a affirmé M. Pan.

Compte tenu de l’énorme potentiel des ordinateurs quantiques, l’Europe et les Etats-Unis collaborent activement dans leurs recherches. Les sociétés de hautes technologies, telles que Google, Microsoft et IBM, portent également un grand intérêt à la recherche sur les ordinateurs quantiques.

Pendant la période de développement initial des ordinateurs conventionnels, des années 1940 aux années 1970, l’Europe et les Etats-Unis ont occupé une position de leader. Mais dans la nouvelle vague d’ordinateurs quantiques, la Chine a déjà pris les devants dans certains domaines.

 
Poster un commentaire

Publié par le octobre 6, 2017 dans Chine, civilisation, sciences

 

La matière noire est-elle une illusion ?

 Non seulement ce questionnement est intéressant mais l’article met en évidence le rôle d’une femme scientifique dont les travaux sont pionniers dans cette matière. En considérant tous les génies qui ont été massacrés parce qu’ils étaient pauvres, exploités, on a dit « c’est Mozart que l’on assassine », que dire alors de la situation faite aux femmes et de la moitié de l’humanité systématiquement sacrifiée dans ses potentialités depuis l’aube des siècles. Que dire de notre propre société où existent désormais les potentialités pour libérer l’humanité de la nécessité et l’aider à se consacrer à la connaissance, à l’art, aux recherches pour le bien être et qui organise au contraire une oppression renforcée de la majorité de l’humanité, cela s’appelle le capitalisme. (note de danielle Bleitrach)

Le physicien théoricien Erik Verlinde suggère que la gravité est un phénomène émergent et que la matière noire n’existe pas. Cette idée vient de passer un premier test avec succès.

Sean Bailly

Matière noire
Shutterstock.com/Maxim Grek

D’après la théorie de la relativité générale d’Albert Einstein, la force gravitationnelle est une conséquence de la courbure de l’espace-temps. Malgré les nombreux succès de cette théorie, les physiciens sont confronté au défi insoluble de la concilier avec la physique quantique. Par ailleurs, de nombreuses observations en cosmologie, non sans lien avec la gravité, ont conduit les chercheurs à supposer que l’Univers contient deux composantes dont la nature reste inconnue, la matière noire et l’énergie sombre. La plupart des physiciens tentent de résoudre ces énigmes en imaginant ce que peuvent être la matière noire et l’énergie sombre, mais d’autres ont choisi de repenser les lois de la relativité générale. C’est le cas d’Erik Verlinde, qui a récemment proposé un changement radical de définition de la force gravitationnelle. Conséquence spectaculaire : dans sa théorie, la matière noire n’est qu’une illusion, résultant de la dynamique qui lie l’énergie sombre et la matière ordinaire. Reste à mettre à l’épreuve cette nouvelle théorie. Pour cela, Margot Browser, de l’université de Leyde, aux Pays-Bas, et son équipe ont analysé l’effet de « lentille gravitationnelle » lié à près de 30 000 galaxies. Cet effet est habituellement interprété comme la déformation de l’espace-temps – et donc de la trajectoire des rayons lumineux émis par les sources d’arrière plan – due à la matière noire entourant ces galaxies, mais la théorie d’Erik Verlinde semble être en accord avec ces observations.

Une pionnière ignorée

L’hypothèse de la matière noire a été émise une première fois dans les années 1930 par l’astronome Fritz Zwicky, puis a été oublié pendant plusieurs décennies avant de revenir sur le devant de la scène grâce aux travaux menés à la fin des années 1960 par l’astronome Vera Rubin. Cette chercheuse, disparue en décembre 2016, a mené une carrière exceptionnelle dans un milieu masculin plutôt hostile (son inscription dans le cursus d’astronomie à Princeton n’a jamais été considérée, la discipline n’étant pas ouverte aux femmes avant 1975 !). Pour de nombreux physiciens, elle aurait du recevoir le prix Nobel pour ses travaux pionniers sur le mouvement de rotation des galaxies spirales, qui ont été à l’origine de l’idée de matière noire. Alors à l’institut Carnegie de Washington, elle a mesuré la vitesse des étoiles dans des galaxies spirales en fonction de leur distance au centre de ces galaxies, avec un spectromètre mis au point par l’astronome Kent Ford. D’après les lois de Newton, cette vitesse devrait décroître à mesure que l’on s’éloigne du centre, sinon la force centrifuge expulserait les astres trop rapides. Or les observations de Vera Rubin montrent que, à partir d’une certaine distance, cette vitesse est relativement constante : les étoiles périphériques tournent plus vite qu’elles ne devraient ! La force gravitationnelle de la matière visible dans les galaxies semble insuffisante pour retenir ces étoiles périphériques. James Peebles, de l’université Princeton, et ses collègues ont alors suggéré que ces galaxies étaient entourées d’un halo sphérique de matière invisible qui n’interagit pas avec la matière ordinaire, et que l’on a nommé matière noire.

Depuis, la matière noire est devenue un ingrédient omniprésent en astronomie et en cosmologie. Elle représente 25 % du contenu de l’Univers, soit cinq fois plus que la matière ordinaire. Elle explique le mouvement de rotation des galaxies spirales mais aussi la dynamique des amas de galaxies, certains effets de lentille gravitationnelle, la formation des grandes structures de l’Univers dans lesquelles se regroupent les galaxies, ou encore le spectre des anisotropies du fond diffus cosmologique, c’est-à-dire la distribution des irrégularités de température dans le premier rayonnement émis par l’Univers, alors qu’il était âgé de 380 000 ans. Mais si la matière noire semble incontournable pour expliquer toutes ces observations, sa nature reste inconnue.

Les expériences tenues en échec

Dans la plupart des modèles, la matière noire est formée de particules exotiques, encore inconnues mais potentiellement observables. Les expériences de détection directe reposent sur l’idée que ces particules de matière noire peuvent interagir – certes très rarement – avec la matière ordinaire. Ainsi, avec un détecteur assez grand et beaucoup de patience, il devrait être possible de voir une particule de matière noire percuter une particule de matière ordinaire. Plusieurs équipes dans le monde améliorent sans cesse leurs détecteurs. Les expériences LUX, aux États-Unis, ou PandaX, en Chine, ont permis de poser des contraintes si fortes sur certains modèles de matière noire, les wimps (Weakly interacting massive particle), que ce type de candidats est maintenant mis en difficulté.

Aucun signal n’a non plus été observé jusqu’à présent dans les accélérateurs de particules, notamment au LHC, où on espère créer de la matière noire lors des collisions de protons à très haute énergie. Ni dans les rayons cosmiques, dont certains pourraient résulter de l’annihilation de particules de matière noire dans des régions du cosmos où elle est présente en quantité. Les résultats de l’expérience AMS – installée dans la Station spatiale internationale –, publiés en décembre 2016 après cinq ans d’observation, pourraient être compatibles avec un wimp d’une masse d’environ un téraélectronvolt, mais il est encore trop tôt pour écarter la possibilité que le signal observé proviennent de pulsars, des étoiles denses en rotation rapide qui émettent un flot de particules.

Bref, aucune expérience n’a pour l’instant livré d’indice solide de l’existence de particules de matière noire. Les modèles les plus simples semblent exclus, mais les physiciens sont encore loin d’avoir éliminé toutes les possibilités.

L’hypothèse de la matière noire est confrontée à d’autres difficultés. Si l’idée a émergé de l’étude des profils de vitesse des galaxies spirales, c’est aussi dans ces structures qu’elle est mise à mal. Par exemple, d’après les simulations numériques, la matière noire devrait s’accumuler à l’excès au centre des galaxies, dans des proportions incompatibles avec les observations. Et, en présence de matière noire, les simulations prévoient la formation de nombreuses petites galaxies satellites autour des galaxies spirales. Or on n’en connaît une vingtaine autour de la Voie lactée, au lieu de plusieurs centaines attendues. Certains physiciens pensent que ce dernier problème est d’ordre observationnel : ces galaxies satellites très peu lumineuses échapperaient encore au regard des astronomes. Une explication renforcée par la découverte en 2015 de 11 galaxies naines.

Par ailleurs, en octobre dernier, Stacy McGaugh, de l’université Case Western Reserve, aux États-Unis, et ses collègues ont comparé, dans 153 galaxies aux caractéristiques très variées, l’accélération centripète (liée à la force gravitationnelle) déduite du profil de vitesse des étoiles visibles et correspondant à l’ensemble de la matière ordinaire plus la matière noire, et la part calculée de l’accélération centripète produite uniquement à partir de la matière ordinaire seule. Ils ont ainsi mis en évidence que ces deux accélérations sont reliées par une formule assez simple. Elles ne sont pas égales, ce qui suggère bien qu’il y a besoin de matière noire pour décrire le profil de vitesse des galaxies spirales. Mais il n’y a pas non plus de raison évidente pour que ces deux accélérations soient corrélées par une relation simple, sachant qu’elles ont été calculées dans des galaxies plus ou moins riches en matière noire. Cela impiquerait un lien entre la distribution de matière ordinaire et celle de matière noire, alors que ces deux composantes interagissent très faiblement, uniquement par l’interaction gravitationnelle (et éventuellement par l’interaction faible). Comment l’expliquer ?

Deux équipes ont déjà montré que des simulations avec de la matière noire pouvaient reproduire la relation mise en évidence par Stacy McGaugh et ses collègues. Elles prennent en compte des effets de rétroaction (ou feedback) de la matière ordinaire sur la matière noire. Reste à montrer que leur résultat est universel et s’applique à de vraies galaxies aux propriétés variées.

Le règne galactique de MOND

En revanche, le résultat de Stacy McGaugh s’accorde parfaitement avec une théorie concurrente à celle la matière noire, la théorie MOND (MOdified Newtonian Dynamics). Celle-ci fut proposée par Mordehai Milgrom, de l’institut Weizmann, en Israël, en 1983. Elle suppose que la deuxième loi de Newton (la somme des forces qui s’applique sur un système est égale au produit de la masse et de l’accélération) n’est plus valable et doit être corrigée lorsque les accélérations sont très faibles, en deçà d’un certain seuil plusieurs ordres de grandeur inférieur à la pesanteur terrestre. Un tel régime serait effectivement en vigueur dans les parties les plus externes des galaxies spirales, et cette gravité modifiée expliquerait le profil de vitesse mesuré par Vera Rubin sans avoir besoin de recourir à la matière noire.

Un autre succès de la théorie MOND est qu’elle retrouve naturellement une loi empirique, dite de Tully-Fisher, qui établit une relation entre la luminosité intrinsèque d’une galaxie spirale et sa vitesse de rotation. Cette relation s’explique parfaitement avec la modification des lois de la dynamique newtonienne, alors qu’elle s’accommode mal de l’hypothèse de la matière noire.

Malheureusement, la théorie MOND (ou ses versions relativistes) n’est pas non plus dénuée de problèmes. Si elle fonctionne bien à l’échelle des galaxies, elle rencontre des difficultés à des échelles plus vastes. Elle ne permet pas de reproduire la dynamique des amas de galaxies sans y ajouter une composante de matière noire. Et il en va de même pour expliquer le spectre des anisotropies du fond diffus cosmologique.

En partant du constat que MOND fonctionne mieux à l’échelle des galaxies et la matière noire aux plus grandes échelles, des physiciens ont proposé diverses approches pour concilier ces théories concurrentes. L’une d’elle a été développée par Justin Khoury, de l’université de Pennsylvanie, en 2014 : la matière noire superfluide. Les superfluides sont des liquides dont la viscosité devient nulle une fois refroidis à des températures assez basses, 2 kelvins (-271 °C) pour l’hélium 4 par exemple. Ces liquides ont donc deux comportements différents, une idée que Justin Khoury a appliqué à la matière noire. Dans son modèle, la matière noire est superfluide dans les galaxies mais à l’échelle des amas de galaxies, elle est trop chaude et perdrait ses propriétés superfluides si bien qu’elle retrouve le comportement de la matière noire classique. D’autres physiciens avaient avancé l’idée de la matière noire superfluide, mais le modèle de Justin Khoury a l’avantage de reproduire parfaitement les prédictions de MOND dans les galaxies sans avoir à modifier la gravité. Dans le Système solaire, la force gravitationnelle est plus intense qu’en moyenne dans la Galaxie, de sorte que la matière noire n’est pas superfluide et on ne devrait donc pas avoir de déviation aux lois newtoniennes, en accord avec les observations.

Gravité émergente

D’autres pistes sont encore bien plus radicales, à l’image de la récente proposition d’Erik Verlinde. Le physicien théoricien de l’université d’Amsterdam n’en est pas à son premier coup d’éclat. En 2010, il avait émis l’hypothèse que la gravité est un phénomène émergent relié à l’entropie. La gravité n’est plus une force fondamentale, mais découle d’une autre structure plus fondamentale de l’Univers. Il y a plusieurs façons d’imaginer une gravité émergente, mais le rapprochement avec la thermodynamique, et en particulier l’entropie, remonte aux travaux de Jacob Bekenstein et Stephen Hawking sur les trous noirs, mais surtout à ceux de Ted Jacobson, qui a montré qu’il était possible de retrouver les lois de la relativité générale en combinant des considérations générales de la thermodynamique avec le principe d’équivalence (les effets d’une accélération sont identiques à ceux d’un champ gravitationnel). Erik Verlinde ajoute à cette idée certains concepts venant de la gravité quantique, tel le principe holographique.

Au cœur de sa théorie, on trouve des bits quantiques, ou qubits. Contrairement à un bit classique qui est soit dans l’état « 0 » soit dans l’état « 1 », un qubit est dans une superposition quantique des états « 0 » et « 1 », pondérés par des coefficients (en termes mathématiques, on parle de la fonction d’onde du qubit). Lorsque l’on mesure l’état du qubit, la fonction d’onde est modifiée (ou « réduite »), la superposition d’états disparaît et le qubit observé prend, de façon aléatoire (avec des probabilités liées aux coefficients de la fonction d’onde), la valeur « 0 » ou la valeur « 1 », comme on s’y attend pour un objet usuel.

Un élément essentiel de la théorie d’Erik Verlinde est la possibilité que les qubits soient intriqués. Deux qubits forment un système intriqué lorsque leurs fonctions d’onde sont liées, et ce même si les qubits sont éloignés l’un de l’autre. Que se passe-t-il lors de la mesure dans un système intriqué ? Considérons par exemple un système intriqué formé de deux qubits dont les états sont toujours opposés quand on les mesure (si l’un vaut « 0 », l’autre vaut « 1 »). Ainsi, si initialement deux qubits intriqués sont des superpositions indéterminées des états « 0 » et « 1 », et que l’on mesure l’état du premier qubit, sa fonction d’onde est réduite et on obtient une valeur de façon aléatoire. Instantanément, l’état de l’autre qubit prend l’état opposé, même si les qubits sont trop éloignés l’un de l’autre pour avoir le temps d’échanger une quelconque information, même à la vitesse de la lumière. Dans la théorie de Verlinde, l’intrication de qubits voisins en un réseau donne naissance à un espace plat. La présence de matière perturbe la structure d’intrication et produit des défauts qui courbent cet espace-temps. La gravité émerge ainsi et se comporte comme prévu par la théorie de la relativité générale.

Dans un article paru en 2016, Erik Verlinde reprend ses idées précédentes et explique comment on obtient une forme d’énergie sombre (la composante qui explique l’expansion accélérée de l’Univers) et comment cette dernière donne l’illusion de la matière noire. L’énergie sombre serait une énergie thermique associée aux intrications de qubits à longue distance. La présence de matière perturberait ces intrications à longue distance, rendant inopérante l’énergie sombre dans les régions où la matière est présente. En revanche, dans ces zones, l’énergie sombre essaye de se ré-établir en exerçant une force sur la matière qui serait équivalente à une force gravitationnelle supplémentaire, celle que l’on attribue à la matière noire.

Erik Verlinde a calculé que cet effet commencerait à être perceptible à l’échelle des galaxies et influerait la courbe de rotation des galaxies spirales. Il retrouve ainsi la loi de Tully-Fisher et de façon plus générale toutes les relations de la théorie MOND introduites de façon ad hoc par Mordehai Milgrom en 1983. Plus fort encore, il retrouve le coefficient d’accélération de la théorie MOND à partir duquel le régime newtonien n’est plus valable.

L’idée est séduisante. Il reste cependant beaucoup à faire. L’article d’Erik Verlinde est loin de proposer une théorie complète et de nombreuses difficultés des modèles de gravité émergente ne sont pas discutées. Et même certains tests de la théorie de la relativité générale (une théorie très bien éprouvée par ailleurs) ne sont pas vérifiés.

La théorie de Verlinde face aux observations

La théorie d’Erik Verlinde doit encore être examinée de près. Elle doit notamment reproduire toutes les observations expliquées par la présence de matière noire ou MOND. Une première étape semble avoir été franchie par Margot Browser et ses collègues. Ils ont étudié 33 613 galaxies qui déforment l’image des galaxies en arrière plan par effet de lentille gravitationnelle faible, tel que le prédit la relativité générale. Les chercheurs ont comparé la mesure de la masse des galaxies qui servent de lentille avec les prédictions de la théorie de gravité émergente de Verlinde sur la déformation des galaxies d’arrière plan. Les chercheurs trouvent un bon accord entre les observations et les calculs. Ceux-ci corroborent également des résultats similaires réalisés par Mordehai Milgrom en 2013 dans le contexte de MOND. Une autre équipe, rassemblant des chercheurs d’Italie, de France et de Suisse, a comparé, pour les amas de galaxies Abell 2142 et Abell 2319, les observations et la distribution de matière calculée à partir de la théorie de Verlinde, et là aussi, l’accord est bon.

Le plus grand défi à relever pour la théorie d’Erick Verlinde sera celui du spectre des anisotropies du fond diffus cosmologique. Ces fluctuations de température sont la marque des conditions régnant dans le cosmos à l’époque. En particulier, ce spectre indique comment le plasma primordial oscillait sous l’effet de la contraction imposée par la force gravitationnelle et de la répulsion engendrée par la pression des photons. Et c’est avec l’hypothèse de la matière noire – qui contribuait à la contraction – que l’on décrit le mieux le spectre des anisotropies mesuré par diverses expériences, notamment par le satellite Planck. Pour la théorie MOND et ses variantes relativistes, reproduire le spectre des anisotropies est une gageure. Selon Erik Verlinde, sa théorie pourrait y parvenir puisqu’elle contient de la matière et un comportement de gravitation attractive pour l’énergie sombre. Cependant, à l’heure actuelle, le physicien n’a pas développé une théorie dynamique qui prend en compte l’évolution de l’Univers. Sa description restitue les conditions actuelles où la densité d’énergie du cosmos est dominée par l’énergie sombre, mais ce n’était pas le cas à l’époque de l’émission du fond diffus cosmologique.

Alors la matière noire est-elle une illusion ? La question est loin d’être tranchée…

 
Poster un commentaire

Publié par le septembre 25, 2017 dans femmes, sciences, THEORIE

 

Conçue en 1964, l’échelle de Kardachev classe les civilisations en fonction de leur consommation énergétique. L’Homme n’est pas encore au niveau I.

L’URSS fut le foyer de recherches très avancées sur l’espace, comme d’ailleurs il existait une abondante littérature de sciences fiction, qui ne ressemblait pas à la nôtre en ce sens qu’elle était plus optimiste, plus axée sur les découvertes scientifiques et plus convaincue de la possibilité d’une rencontre pacifique avec l’univers. Cet article nous met directement en contact avec cet état d’esprit dont la Russie et certains pays du bloc soviétique semblent encore imprégnés (note de Danielle Bleitrach).

Pendant un an, les collines de la petite république russe de Karatchaïévo-Tcherkessie ont peut-être jalousement couvé un secret extraterrestre. Niché à 1 000 mètres d’altitude au nord du Caucase, près du village de Zelenchoukskaya, le télescope Ratan 600 reçoit un intense signal radio le 15 mai 2015. Ce phénomène est détecté par son cercle d’antennes de 576 mètres de diamètre qui le renvoie au récepteur en forme d’entonnoir situé au centre. Le système comprend d’autres capteurs montés sur des rails, dont le tracé évoque la galaxie dessinée sur la plaque de Pioneer. Grâce à ce vaste appareillage, l’équipe dirigée par Nikolaï Bursov remonte à l’émetteur. Il s’agit de HD 164595, une étoile de la constellation d’Hercules, à 94 années-lumière de la Terre. Puis le silence se fait.

Le télescope Ratan 600

Un écho finit par être entendu le 27 août 2016. Sur son blog, l’écrivain Paul Gilster révèle au grand public la découverte. « En étudiant la puissance du signal, les chercheurs disent qu’il pourrait être émis par une civilisation de type II ou de type I », indique ce passionné d’astronomie. Sa source, le chercheur italien Claudio Maccone, se base sur une nomenclature édictée en 1964 par le Russe Nikolaï Kardachev. À l’en croire, une telle puissance ne peut être dégagée que par des créatures bien plus évoluées que les habitants de la Terre. Incapables d’utiliser toute l’énergie disponible sur leur planète, ces derniers n’ont pas même atteint le premier niveau. Quant au deuxième, qui suppose de pouvoir tirer tous les fruits d’une étoile, nous en sommes à des années-lumière.

« Kardachev a imaginé classer les civilisations par leur consommation d’énergie en pensant bien sûr à des civilisations extraterrestres », explique l’astrophysicien français Roland Lehoucq. Repris par des centaines de médias dans le monde, son concept est vite retourné à l’ombre des revues scientifiques sans qu’on sache vraiment s’il pouvait s’appliquer à HD 164595. Le signal « vaut la peine d’être étudié davantage », notait à l’époque Paul Gilster. Aujourd’hui, « la plupart des scientifiques pensent qu’il était dû à une interférence terrestre », constate-t-il. Las. Nous n’avons donc pas encore tout à fait découvert un monde plus avancé que le nôtre, mais une grille de lecture est déjà à disposition. « Quand nous cherchons une vie extraterrestre, nous n’espérons pas trouver un petit homme vert mais un type I, un type II ou un type III », résume le physicien théoricien américain Michio Kaku.

Niveau 0,7

Depuis Zelenchoukskaya, il faut traverser la Géorgie du nord au sud et serpenter entre les sommets arméniens de l’Aragats pour arriver, après 13 heures de voiture, à Buyrakan. Un autre observatoire bâti sous l’Union soviétique trône à 1 460 mètres d’altitude. C’est là qu’en 1963, Nikolaï Kardachev annonce la découverte d’une civilisation extraterrestre de type II ou III originaire de la galaxie CTA-102, dans la constellation de Pégase. Publiés par la fameuse agence soviétique TASS à partir d’un article de l’Astronomical Journal, ses travaux font sensation. Un an plus tard, inspiré par la conférence américaine de Green Bank, il y organise un grand séminaire pour « obtenir une technique rationnelle et des solutions linguistiques au problème de la communication avec des civilisations extraterrestres qui sont plus avancées que celle de la Terre ».

Kardachev à l’époque

Au vrai, le Moscovite entend imposer son schéma au monde et notamment aux Américains. D’après lui, le statut d’une culture dépend de sa maîtrise de l’énergie. « En physique, c’est elle qui quantifie la capacité d’un système à agir sur le monde, car il en faut pour opérer toute transformation », explique l’astrophysicien Roland Lehoucq. Ainsi tirons-nous une certaine puissance des astres qui nous situe dans l’infiniment grand. La Terre, qui recèle 1016 watts, sert d’étalon de base, c’est-à-dire de niveau 1. Par son rayonnement de 1026 watts, le Soleil fait office de deuxième niveau, alors que la galaxie représente le troisième. Autant d’énergie dont le contrôle nécessite des technologies encore hors de portée mais que la guerre froide pousse à regarder avec envie.

À défaut d’être en mesure d’employer les forces disponibles sous ses pieds, l’Homme peut se représenter des puissances émises dans l’espace par onde radio. « Preuve est faite qu’une civilisation située n’importe où dans l’univers », en possession d’un certain pouvoir, « peut être détectée par des techniques astronomiques conventionnelles », avance Kardachev dans une revue d’astronomie. « Il est probable que des sources connues comme CTA-21 et CTA-102 soient artificielles. » Étant donnée l’intensité dégagée par ces galaxies, le Russe formule même l’hypothèse qu’elles renferment une science extraordinairement élaborée, en tout cas bien supérieure à tout ce que l’on connaît. Mais en quelques mois, les scientifiques s’aperçoivent en fait qu’ils ont affaire à des quasars, c’est-à-dire des galaxies très lumineuses. Rien que de naturel.

Dépendante de combustible fossile, l’humanité reste donc la seule à figurer sur la typologie, ou plutôt en-deçà. Kardachev semble cependant persuadé qu’elle pourra bientôt accéder au premier palier. « Il a imaginé son échelle à une époque où la consommation d’énergie était en croissance exponentielle », souligne le chercheur hongrois Zoltán Galántai. « C’est pourquoi il lui paraissait évident que cela allait se poursuivre. » Dans ce contexte, ses projections annoncent notre passage au niveau II dans 3 200 ans et au niveau III dans 5 800 ans.

En attendant, l’arrivée au premier stade est loin d’être acquise tant l’échelle est titanesque. « On peut dire qu’on est au niveau 0,7 », évalue Roland Lehoucq. Cela peut sembler beaucoup, mais la puissance à notre portée « devra être multipliée par 1 000 » pour atteindre l’échelon supérieur. « C’est en gros ce qu’on a gagné avec la révolution industrielle, mais il y a de moins en moins de pétrole, de charbon, et personne ne veut du nucléaire. » Par conséquent, la captation d’une fraction bien supérieure de l’énergie lumineuse que nous envoie le Soleil est nécessaire, mais insuffisante. « Il faut contrôler les éléments », observe Michio Kaku, « dompter les tremblements de terre, les volcans et les océans. » Selon ses calculs, un siècle suffira pour en arriver là.

Un projet solaire

En 1960, les travaux de Nikolaï Kardachev arrivent à l’oreille du physicien britannique Freeman Dyson. La NASA a deux ans, personne n’a encore touché la Lune à part la sonde soviétique Luna 2, mais les deux hommes sont persuadés que la vérité est ailleurs. « Il est plus que probable que des êtres observés par nous auront existé depuis des millions d’années, et auront atteint un niveau technologique surpassant le nôtre par de nombreux ordres de magnitude », écrit Dyson dans la revue Science le 3 juin. Faute d’image, il prend ce qu’il a sous la main pour se représenter les autres planètes habitables, à savoir le système solaire.

Dyson a inventé l’aspirateur ultime

Les progrès technologiques arrivent très rapidement au sein de ce type d’environnement. « On peut s’attendre à ce que – après quelques centaines d’années de développement industriel – n’importe quelle espèce cherchera un moyen pour entourer son étoile d’une biosphère artificielle », postule-t-il. Si son article prend soin de préciser que cela n’arrivera pas forcément à notre système, mais qu’il ne fait que décrire un phénomène sans doute intervenu ailleurs, c’est pure argutie : nos seuls modèles sont le Soleil et ses satellites. Ils sont d’ailleurs sans cesse convoqués par Dyson.

Dans un cadre comme le nôtre, donc, les limites à l’expansion sont non seulement fixées par des carences en énergie mais aussi en matière. Pour construire une immense biosphère autour de la Terre et du Soleil, l’Homme a besoin de gaz. Dyson propose de se servir en toute simplicité de celui de Jupiter. Il suffit pour cela de « désassembler et de réarranger », la planète. Rendue nécessaire par la conjonction de la croissance de la population et du perfectionnement des techniques, ce chantier nécessite une énergie équivalente à celle émise par le Soleil pendant 800 ans. Il permettra de répartir la masse de Jupiter en une sphère autour de la Terre et de son étoile « contenant toute la machinerie nécessaire à l’exploitation des radiations solaires. »

Pareil objet « est complètement irréalisable », assène le chercheur de l’Institut pour la recherche sur le futur de l’humanité d’Oxford, Stuart Armstrong. L’attraction nécessaire à sa stabilisation excède toutes celles que l’on connaît et une simple comète pourrait mettre à mal l’ensemble de l’édifice. Dyson a donc élaboré une autre théorie moins en contradiction avec les lois de la physique : un essaim de capteurs en orbite autour de Soleil pour recueillir son énergie. « C’est plus réaliste », concède Armstrong même si cela nécessiterait une quantité de matière première que l’ensemble du système solaire n’offre pas.

Freeman Dyson à l’époque de sa théorie

Malgré les impasses physiques qu’elles comportent, ces idées ont inspiré le roman de science-fiction de Robert Silversberg Un milliard d’années plus tard… (1969) et l’épisode de Star Trek « Relics » (1992). Dans ce dernier, le vaisseau USS Enterprise D se retrouve empêtré aux abords d’un champ gravitationnel irréparable émis par une sphère semblable à celle de Dyson. Par sa capacité à se disséminer dans la galaxie, la Fédération des planètes de la série se rapproche d’ailleurs d’une civilisation de type II. Sa technologie est si avancée qu’elle peut utiliser l’énergie d’une étoile, voyager au-delà de la vitesse de la lumière, et donc dans le temps. On retrouve ces prouesses dans l’imaginaire des romans L’Anneau monde de Larry Niven (1983) et Les Vaisseaux du temps de Stephen Baxter (1995). Et ce n’est que justice : Dyson s’est lui-même inspiré du livre d’Olaf Stapledon Star Maker (1937).

La saga de George Lucas Star Wars va plus loin en mettant en scène des civilisations de types supérieurs à II. Selon Roland Lehoucq, « la puissance du générateur de l’Étoile de la mort représente celle de 100 000 soleils, ce qui la place entre le niveau II et III de Kardachev. » Mais l’espace contrôlé par les personnages est si vaste que la République ou l’Empire galactique se rapprochent du type IV. Cela suppose qu’elles puisent de l’énergie dans presque tout l’univers en se servant de lois physiques inconnues à ce jour. Les pages de Doctor Who: The Gallifrey Chronicles(2005) mettent aussi en scène des puissances de cet ordre.

Le Seigneur du Temps Marnal peut ainsi moquer les Hommes : « Votre race n’a même pas atteint le type I sur l’échelle de Kardachev. Elle ne contrôle pas les ressources sur sa propre planète, encore moins celles d’un système planétaire ou d’une galaxie. Les Seigneurs du Temps sont une civilisation de type VI. Nous n’avons pas d’égaux. Nous contrôlons les forces fondamentales de l’univers en entier. » Néanmoins, le physicien britannique John D. Barrow remarque que la science moderne est devenue trop compliquée pour être reprise fidèlement par la science-fiction. « Sans une connaissance appropriée, vous ne pouvez absolument pas poser les questions appropriées », abonde Zoltán Galántai. Les progrès de l’astronomie n’ont toutefois pas mis au rebut l’échelle de Kardachev.

Le message

Le télescope américain de Green Bank n’est pas beaucoup plus facilement accessible que celui de Zelenchoukskaya. Perdu au nord de la forêt nationale Washington et Jefferson, en Virginie-Occidentale, l’Observatoire national d’astronomie radio a été le premier à capter un signal le 11 avril 1960. L’initiateur de ce projet de recherche d’extraterrestres inédit baptisé Ozma, Frank Drake, ne décrypte en revanche aucun message ni signe de vie. Loin d’être découragé, il lance ensuite le SETI, pour Search for Extra-Terrestrial Intelligence, auquel collabore un chercheur de la NASA, Carl Sagan.

Après avoir assisté avec passion aux premiers pas de l’homme sur la Lune, en 1969, les deux hommes ont l’idée d’accrocher une plaque métallique à la sonde Pioneer 10 afin de donner des renseignements sur son origine au cas où elle tomberait entre des mains extraterrestres. Ils y font graver un homme et une femme ainsi que des symboles représentants le système solaire. Elle est envoyée par l’espace en 1972 et 1973, comme on lance une bouteille à la mer. Ses chances de succès sont infimes.

Les missions Pioneer
Crédits : NASA

Alors Drake et Sagan procèdent différemment. Le 16 novembre 1974, ils se servent du radiotélescope d’Arecibo, à Porto Rico, pour envoyer un nouveau message en vue d’une « possible réception par d’autres créatures intelligente ». Dans un article de Scientific American publié en 1975, ils assurent qu’il « fait peu de doute que des civilisations plus avancées que nous existent ailleurs dans l’univers. La possibilité d’en trouver demande un effort substantiel. » De son côté, Kardachev réalise de nouvelles recherches en 1976 – en vain.

En dépit de l’amélioration des télescopes et de l’informatisation du traitement des données recueillies, aucune preuve de vie ne filtre des nombreuses observations menées dans les années qui suivent. En 1981, Carl Sagan publie un article avec un collègue, William Newman, pour remettre en cause la pertinence de l’utilisation de l’échelle de Kardachev. À elle seule, la consommation d’énergie n’indique que partiellement le niveau de développement d’une civilisation. La démographie est un angle mort de la théorie, pointent-ils. Aussi, la croissance de la population est limitée par les capacités de l’environnement.

Il y a trois réponses à la question de savoir si la rareté des ressources freine la montée en grade d’une civilisation, juge Zoltán Galántai : « Peut-être n’en avons-nous pas trouvé parce qu’elles se sont auto-détruites ou ont stoppé à temps. Mais on peut aussi considérer que ces êtres intelligents capables d’exploiter toute l’énergie d’une planète sont à même de gérer les problèmes qui vont avec. » Quoi qu’il en soit, le chercheur hongrois considère que de nombreux autres critères peuvent être pris en compte comme la durée de vie ou la surface de l’espace contrôlé. « Quand les premiers Américains on conquis le le Far West avec leurs chariots, ils n’ont pas utilisé plus d’énergie que leurs grand-parents, mais la taille de leur nouveau territoire était un indicateur de leur succès. »

Une explication possible du comportement de KIC 8462852

La disparition de l’Union soviétique et la prise de conscience écologique ont sans doute écorné l’échelle de Kardachev. Mais elle n’a pas été oubliée par les scientifiques. « C’est une base de discussion faute de mieux », pense Roland Lehoucq. Il suffit qu’un comportement étrange se manifeste aux confins de notre système solaire pour qu’elle ressorte des tréfonds de l’astronomie. En septembre 2015, les variations de luminosité observées sur KIC 8462852 ont suscité des questions à la pelle. Scrutée depuis 2009 par le télescope Kepler, cette étoile de la constellation du Cygne a été rebaptisée « l’étoile la plus mystérieuse de notre galaxie » , car son comportement a été interprété comme un possible signe de puissance artificielle. Une sphère de Dyson a même été évoquée.

De meilleurs analyses tendent à prouver que le passage d’exoplanètes dans le champ de vision ou la présence d’un anneau expliquent les curieuses variations. « Nous avons du matériel pour détecter un signal mais comment être sûr qu’il est artificiel et non naturel ? » observe Roland Lehoucq. « Si l’humanité fait exploser la Terre, la détruit, c’est clairement artificiel, mais ça ne pourra pas être distingué d’un signal naturel. » Il faudrait vraiment que le message soit clairement exprimé pour en déceler la nature. « En présence d’un signal qui énonce la suite des nombres premiers, on pourra supposer qu’il est d’origine artificielle », dit encore l’astrophysicien. Mais a-t-on vraiment envie de parler mathématiques avec les extraterrestres ?

 

Des montagnes flottantes sur Pluton, ça ne s’invente pas !

 Franchement il y a dans l’univers une créativité infinie, quand je vois un tableau de Rembrandt ou quand je découvre  cette profusion de l’immensité, je me dis que la matière est inépuisable et qu’elle plus « spirituelle » que toutes les spéculations. Bref, de ce point de vue je reste spinoziste. (note de Danielle Bleitrach)

Résultat de recherche d'images pour "Pluton"

De nouvelles données révèlent cinq éléments improbables sur la planète naine.

De Nadia Drake
Les lueurs des montagnes, des champs de glace et des vallées de Pluton au coucher du soleil, sous un ciel brumeux.

Pour une si petite planète, Pluton a une surface d’une incroyable diversité où l’on retrouve des glaciers flottants, des reliefs curieusement criblés de cratères, des ciels brumeux et des paysages multicolores. Selon les scientifiques de la mission New Horizons, la lointaine planète naine serait encore plus étrange qu’ils ne l’imaginaient. Elle possèderait notamment des volcans de glace, des montagnes flottantes et des lunes au comportement chaotique.

Les scientifiques ont dévoilé ce lundi les nouvelles observations obtenues par la sonde New Horizons lors de son survol de Pluton au mois de juillet. Présentées à la réunion annuelle du département de sciences planétaires de l’American Astronomical Society, ces données montrent que Pluton n’est pas ce que l’on pensait.

L’équipe a reçu une bonne note pour l’exploration, mais une très mauvaise pour sa capacité prévisionnelle, rapporte Alan Stern, chercheur principal de New Horizons. « Le système de Pluton nous déconcerte totalement. »

 

DES VOLCANS DE GLACE

Deux trous observés à proximité du pôle sud de Pluton pourraient bien être des caldeiras volcaniques de glace. Ces dépressions se trouvent au sommet de deux gigantesques montagnes, le Mont Wright et le Mont Piccard. Les deux montagnes sont hautes de quelques kilomètres et larges d’au moins une centaine de kilomètres, et ont une forme semblable à celle des volcans-boucliers d’Hawaï. Sauf qu’au lieu de lave en fusion, les volcans plutoniens cracheraient de la glace, et éventuellement de l’azote, du monoxyde de carbone, ou encore une bouillie liquide draguée d’un océan enterré.

Jeff Moore, de l’Ames Research Center de la NASA, a déclaré au cours d’une conférence de présentation que l’équipe n’est pas encore prête à affirmer que ces éléments sont bien des volcans, « mais on [les] en suspecte fortement ».

Si c’est le cas, ce seraient les premiers volcans à être repérés à l’extrémité du système solaire. Si l’équipe préfère attendre de disposer de données supplémentaires pour confirmer ses découvertes, certains de ses membres en sont déjà bien convaincus.

« Lorsque vous voyez une grosse montagne avec un trou sur le dessus, ce ne peut être généralement qu’une seule chose », commente Oliver White, également de l’Ames de la NASA. « J’ai du mal à y voir autre chose que des volcans. »

 

DES MONTAGNES FLOTTANTES AU COMPORTEMENT ANARCHIQUE

Les montagnes plutoniennes pourraient bien se comporter plus comme des icebergs dans l’océan que des montagnes sur Terre. Constitués de glace, ces immenses blocs de matière flottent probablement sur une « mer » de glace d’azote, a révélé Moore. Dans certaines régions, ces montagnes sont aussi grandes que les Rocheuses américaines, mais suffisamment flottantes pour s’élever loin au-dessus des glaces d’azote et de monoxyde de carbone, bien plus denses. « Il se pourrait même les plus hautes montagnes plutoniennes soient simplement en train de flotter », a déclaré Moore lors de sa présentation.

À proximité du bord occidental du champ de glace connu sous le nom de plaine Spoutnik, des grandes étendues de glace d’eau peuvent se fracturer et se réarranger, produisant ce que Moore appelle un « terrain anarchique ». Des chaînes désordonnées de blocs angulaires, certains longs de 40 kilomètres et hauts de 5 kilomètres, forment des montagnes qui s’étendent de façon chaotique vers la plaine, jeune et lisse. De nouvelles analyses suggèrent que la plaine Spoutnik pourrait être âgée de seulement 10 millions d’années. Autrement dit, « née de la dernière pluie », a commenté Stern. « C’est une importante découverte, que de petites planètes peuvent être actives, sur une échelle gigantesque, des milliards d’années après leur formation. »

Un des potentiels volcans de glace, Mont Wright, mesure 160 kilomètres de large et 4 000 mètres de haut. Il possède un gigantesque trou près de son sommet, environ 56 kilomètres de l’autre côté.

D’ÉNORMES FRACTURES ET UN OCÉAN ENTERRÉ

Certaines zones de la surface de Pluton, telle que la plaine Spoutnik, sont incroyablement lisses. D’autres sont curieusement criblées de cratères ou ressemblent à une sorte de peau de serpent de l’espace. D’autres encore sont déchirées par d’énormes fractures, telles que Virgil Fossa, à l’ouest de la plaine Spoutnik. De telles crevasses ont l’air d’avoir été formées durant l’expansion de Pluton, alors que la planète rompait sa croûte. Et c’est certainement ce qu’il s’est passé. « Un océan qui refroidit et gèle lentement provoque des expansions », a expliqué Bill McKinnon, de l’université Washington de St Louis. Si la croûte de Pluton renferme un océan d’eau enterré, ce que les scientifiques jugent probable, alors au fur et à mesure que cet océan gèle et grossit lentement, il peut exercer une tension sur la croûte de Pluton et engendrer ces énormes fissures.

 

UNE ATMOSPHÈRE FINE ET FROIDE

Avant le survol, les scientifiques pensaient que l’atmosphère de Pluton était épaisse et peut-être sept à huit fois plus volumineuse que la planète. On pensait que cette atmosphère, composée principalement d’azote, s’échappait tellement rapidement qu’environ 1 kilomètre de glace de la surface de Pluton se serait sublimée et aurait disparu au cours de ses 4,6 milliards d’années d’existence.

Les scientifiques de New Horizons savent désormais que cette idée est presque totalement fausse. L’atmosphère de Pluton est loin d’être aussi volumineuse que ce qui avait été anticipé, et loin de s’échapper à la vitesse prévue. « Avec les nouveaux chiffres, c’est de l’ordre de 15 centimètres [de glace disparue] », explique Leslie Young, du Southwest Research Institute. Une grande partie de l’azote de Pluton reste en fait proche de la planète naine. Bien que surprenante, cette observation peut s’expliquer par la présence de cyanure d’hydrogène dans les hauteurs de l’atmosphère plutonienne. Personne ne s’attendait à retrouver de telles quantités de cyanure d’hydrogène, mais celui-ci pourrait avoir un important effet de refroidissement sur l’atmosphère, tout en le maintenant blotti contre Pluton.

 

DES LUNES AU COMPORTEMENT CHAOTIQUE

Les quatre petites lunes de Pluton ont enfin été révélées. Nix, Styx, Kerberos et Hydra sont, comme le reste de ce système, plus étranges que les scientifiques ne le pensaient. Kerberos et Hydra semblent être constituées de deux objets plus petits restés collés l’un à l’autre après être lentement entrés en collision, un peu comme la comète en forme de canard orbitée par Rosetta. « À un moment donné, Pluton possédait plus que quatre lunes, au moins six », a affirmé Mark Showalter de l’Institut SETI lors d’une conférence de presse.

Le taux de rotation des petites lunes ajoute à la bizarrerie du système. Hydra remporte la course, tournant sur elle-même en seulement 10 heures. Mais toutes les lunes tournent bien plus rapidement que prévu. « Nous n’avons encore jamais vu un système satellite se comporter de la sorte », a ajouté Showalter. De plus, les scientifiques ne peuvent pas encore entièrement expliquer l’étrange cratère rougeâtre sur l’une des faces de Nix. Quant à Kerberos, que les scientifiques imaginaient comme le mouton noir du groupe, elle est en fait tout aussi lumineuse que ses trois petites sœurs.

 
Poster un commentaire

Publié par le août 20, 2017 dans sciences

 

Nous sommes faits de « poussières d’étoiles »… et de matière extragalactique !

ce moment ou science et poésie se rejoignent comme dans les très anciens vers d’Hésiode (1). Ce qui est fondamental est pourquoi cette matière que nous sommes peut se comprendre, se regarder elle-même et en extraire toute forme de création, pourquoi Oppenheimer a-t-il eu besoin d’apprendre le sanscrit pour observer les trous noirs? (note de danielle Bleitrach)

https://www.sciencesetavenir.fr/espace/nous-sommes-faits-de-poussieres-d-etoiles-et-de-matiere-extragalactique_115126

Des chercheurs américains ont simulé sur supercalculateur les échanges de gaz entre galaxies. Selon eux, jusqu’à 50% de la matière de la Voie Lactée viendrait en fait d’autres galaxies !

Voie Lactée Galaxie Poussière d'étoile

Le centre de notre Voie lactée, observé au télescope infrarouge par la NASA.

NASA/JPL-CALTECH

MATIÈRE. « Nous sommes des poussières d’étoiles », selon le bon mot d’Hubert Reeves. Et pour cause : les atomes qui nous constituent (dont les plus anciens remontent au Big Bang !) ont été formés au sein d’étoiles ou d’explosions desupernovae dans notre galaxie, la Voie Lactée. Mais pas seulement ! C’est ce que suggère une étude publiée dans les Monthly Notices of the Royal Astronomical Society, selon laquelle jusqu’à 50 % de la matière « ordinaire » constituant les galaxies pourrait provenir… d’autres galaxies. Un transfert de particules qui émaneraient des vents galactiques expulsés par les cousines de notre Voie Lactée, selon les simulations numériques réalisées par ces chercheurs.

Notre berceau est aussi en dehors de la voie Lactée

Conséquence logique pour notre planète : « Jusqu’à la moitié des atomes qui nous entourent, dans le Système Solaire, sur la Terre et en chacun de nous, ne vient pas de notre propre galaxie mais d’autres galaxies », a déclaré Claude-André Faucher-Giguère, du Weinberg College of Arts and Sciences et coauteur de l’étude. « La matière aurait été expulsée par un vent galactique puissant », poursuit Daniel Anglés-Alcázar de l’Université Northwestern aux États-Unis et coauteur de l’étude.

Exemple de transfert de matière entre deux galaxies. / Crédits : Daniel Angles-Alcazar et al, Northwestern University

BIB BANG. « Cette étude modifie notre compréhension de la formation des galaxies après le Big Bang », affirme Claude-André Faucher-Giguère, qui considère que « nos origines sont beaucoup moins locales que ce que l’on pensait auparavant ». « On peut même considérer que nous sommes des migrants intergalactiques », appuie Daniel Angles-AlcazarSelon la théorie communément admise, après le Big Bang, il y a 14 milliards d’années, l’Univers était rempli d’un gaz uniforme composé d’éléments légers comme l’hydrogène et l’hélium. C’est ce qu’on appelle la nucléosynthèse primordiale. Des centaines de millions d’années plus tard, c’est ce gaz primordial qui s’est condensé pour former les étoiles et les galaxies.

Modéliser le cycle de vie des galaxies

Aux origines de cette hypothèse, des travaux de simulation numérique sur supercalculateur haute performance réalisés par ces chercheurs. Si les calculs avaient été réalisés sur un simple micro-ordinateur, ils auraient nécessité plusieurs millions d’heures de calcul ! L’objectif : comprendre les mécanisme de formation des galaxies, par accrétion de matière puis transfert de matière entre-elles tout au long de leur vie stellaire. On savait déjà que les supernovae (ces étoiles géantes lorsqu’elles explosent) expulsent des quantités de gaz considérables, contribuant à la formation d’éléments plus lourds dans les galaxies. Mais la modélisation a aussi permis de montrer que les projections propagent  la matière d’une galaxie à l’autre, à travers les vents intergalactiques !

VIDE. Le transfert de matière d’une galaxie à l’autre est un phénomène nouveau pour les cosmologistes. Car les galaxies sont séparées par de vastes zones de vide incroyablement grandes : de l’ordre de plusieurs millions d’années-lumières. De ce fait, même si les vents galactiques sont expulsés à une vitesses de plusieurs centaines de kilomètres par seconde, le transfert n’est ainsi effectif qu’au bout de plusieurs milliards d’années. En suivant le ballet complexe des échanges spatiaux de matière grâce à leurs simulations, les chercheurs ont identifié des flux de gaz émanant de galaxies plus petites pour venir en alimenter de plus grandes telles la nôtre, là où ce gaz vient alimenter la formation de jeunes étoiles. Un processus qui continuerait de se produire aujourd’hui encore, et qui fabrique peut-être actuellement de nouveaux systèmes solaires semblables au nôtre…

https://www.ultimedia.com/deliver/generic/iframe/mdtk/01667468/zone/1/showtitle/1/src/r8rzsxAnimation présentant l’une des simulations numériques réalisée par les chercheurs / Crédits : PHILIP HOPKINS, CALTECH

Avec AFP et communiqués

(1) Pour ceux qui ignorent Hésiode, je place ici le début de l’article de l’encyclopedia universalis le concernant.

HÉSIODE (- VIIIe–VIIe s.)

Petit paysan béotien de la fin du VIIIe siècle avant J.-C., contemporain de la première vague de colonisation qui pousse les Grecs à chercher de nouvelles terres, Hésiode d’Ascra, poète, théologien, prophète, se situe à la jointure de deux mondes et de deux systèmes de pensée. Par la Théogonie qui prolonge une condition poétique et religieuse plus archaïque que l’épopée d’Homère, Hésiode est le témoin privilégié d’une forme de pensée mythique qui obéit à un type de logique différent du nôtre. Par Les Travaux et les jours, au contraire, il fait figure de précurseur de Solon : le théologien qui raconte l’avènement de la souveraineté de Zeus et développe le mythe des races cède la place à un laboureur qui parle de dettes, de faim amère, qui invective les puissants de la Béotie et tonne contre les rois voraces. C’est déjà la perspective de la cité, avec ses conflits, ses angoisses et ses promesses à peine entrevues.

1. La Théogonie : un mythe de souveraineté
Dès les premiers vers de la Théogonie (Θεογονία, généalogie des dieux), Hésiode s’affirme comme un poète inspiré, que les Muses ont choisi pour dire « ce qui sera et ce qui fut », et pour célébrer « la race de bienheureux toujours vivants ». Si l’on voulait ne voir dans cette affirmation qu’une référence banale à la vocation poétique, on commettrait le plus grave des contresens. En invoquant les Muses, filles de Mémoire (Mnèmosunè), l’auteur de la Théogonie manifeste qu’en vertu de son don de voyance il a qualité pour prononcer une parole chantée (en grec, mousa), et pour instaurer la Vérité (alèthéia). Mémoire et vérité sont les deux pôles dont la tension définit la parole poétique. La mémoire permet au poète, comme au devin, d’accéder directement dans une vision personnelle aux événements qu’il raconte, d’entrer en contact avec l’autre monde et de déchiffrer d’un coup « ce qui est, ce qui sera, ce qui fut ». Alèthéia, qui s’oppose au plan défini par lèthè – oubli, silence et nuit –, représente le type de parole magico-religieuse, chargée d’efficace et qui rend exécutoi […]

 
1 commentaire

Publié par le juillet 28, 2017 dans civilisation, sciences