Les spicules du Soleil

Spicules_sst_bigImagine un tuyau aussi large qu’un État des U.S.A. et aussi long que la moitié de la Terre. Maintenant, imagine que ce tuyau est rempli d’un gaz chaud se déplaçant à 50 000 km/h. Puis imagine que ce tuyau n’est pas fait de métal mais d’un champ magnétique transparent. Tu viens de te représenter un jeune spicule parmi les milliers qui recouvrent le Soleil actif. La photographie ci-contre est peut-être l’image de plus haute résolution jamais prise de ces énigmatiques tubes de flux solaire.

Les spicules emplissent la photo ci-dessus de la région solaire active 10380 traversant le Soleil en juin 2013, ils sont particulièrement évidents sous l’aspect d’un tapis de tubes sombres sur la droite. Les spicules durent environ 5 minutes, naissant sous forme de longs tubes de gaz s’élevant rapidement puis s’éteignant à mesure que le gaz atteint sa plus haute altitude et retombe sur le Soleil.

178224main_Spicule_800Les spicules seraient le produit des ondes acoustiques qui traversent le Soleil. L’origine de ces jets de plasma qui partent de la partie supérieure de chromosphère solaire, à la vitesse de 20Km/s, et pénètrent la région extérieure de l’atmosphère solaire sur des milliers de kilomètres, sont encore grandement inexpliqués, bien qu’on les observe en permanence (quelque 100.000), essentiellement en raison de leur brièveté et de leur faible dimension.

Ces spicules n’ont pas plus de 500 km de diamètre et leur durée de vie va de cinq à dix minutes: après s’être élevés parfois jusqu’à 16.000 km, ils retombent et s’évanouissent avant de réapparaître, quasiment au même endroit et avec une même périodicité.

Le Soleil vibre en permanence, et selon plusieurs modes d’oscillation : les modes de gravité et les modes acoustiques (dits « modes p »), dus à la pression). Une étude scientifique a pu montrer que la périodicité des spicules était essentiellement due aux modes p de résonance du Soleil, de période identique (cinq minutes).   Si ces oscillations de la surface de Soleil s’évanouissent généralement avant d’atteindre l’atmosphère solaire, il arrive que, dans certaines conditions, elles l’atteignent. Elles engendrent alors une onde de choc qui propulse du plasma de la chromosphère et forme un spicule.   En modélisant ce fonctionnement les chercheurs peuvent prévoir maintenant avec une grande précision l’apparition de ces spicules.

Les spicules emportent plus de cent fois la masse qui s’échappe en permanence du Soleil – électrons, protons et autres particules énergétiques, à raison de deux millions de tonnes par seconde : le vent solaire.

Avec cette modélisation, il va être maintenant possible d’étudier ce que représente, dans le vent solaire, la masse de plasma apportée par les spicules dans la couronne solaire. On pourra aussi mieux comprendre la formation de ce vent solaire qui parvient jusqu’à la Terre et au-delà, endommageant parfois au passage les satellites en orbite et perturbant gravement la haute atmosphère terrestre.

Rosetta à 100 km de son objectif final

Churyumov-Gerasimenko

Photo prise le 1er Août 2014 à 1000km de la comète.

 

 

C’est demain que la sonde Rosetta devra se placer en orbite à une centaine de kilomètre de Churyumov-Gerasimenko une comète à la forme plutôt curieuse évoquant un « petit canard » de quelques kilomètres (5 en moyenne) tournoyant sur lui-même.

Après un périple d’une dizaine d’années et un sommeil d’environ 2 ans, Rosetta s’apprête donc à se mettre en station autour de la comète. Les premières analyses débuteront donc à partir du 6 Août. Mais beaucoup de données ont déjà été récoltées à l’approche de la comète et on sait déjà que sa température en surface est un peu plus chaude que ne l’avait laissé penser les estimations, la sonde a en effet relevé une température d’environ -70°C alors qu’on pensait trouver une température avoisinant les -100°C. Ceci révèle déjà une information très intéressante sur la couche extérieure de la comète qui a donc accumulé une certaine épaisseur de poussière qui à son tour se réchauffe très légèrement sous la faible lueur de la lumière du soleil. Rosetta pourra donc sonder à quelle vitesse varie la température sur les premiers centimètres d’épaisseur de la comète puisque la comète tourne sur elle-même, apportant ainsi une information supplémentaire sur le choix crucial de « l’amarrage » de Philae, le module que Rosetta a emporté avec elle et qui devra réaliser la prouesse de se poser pour la première fois à la surface d’une comète. La zone « d’atterissage » sera d’une grande importance pour les études qui devront être menées à la surface de la comète. En effet le site devra être en mesure de pouvoir répondre à l’ensemble des missions et analyses qui ont été programmées, mais Philae ne disposant que d’une source assez réduite d’énergie, le lieu choisi ne devra pas présenter d’obstacles susceptibles d’engendrer une surconsommation d’énergie.

animation-Churyumov-Gerasimenko

Les enjeux d’une telle mission sont véritablement capitaux dans les questions qui animent les scientifiques depuis des décennies, parmi ces questions l’une d’entre elles concerne la formation du système solaire puisqu’on pense trouver des réponses au sein des composés chimiques enfouis dans les couches gelées de la comète puisqu’ils sont les témoins-fossiles de la formation de notre système solaire ; mais par dessus tout, la réponse à l’apparition de la vie sur Terre qui aurait pu être « apportée » par les comètes lors des grands bombardements juste après la formation de notre planète. En effet l’hypothèse la plus folle serait de déceler et donc de confirmer la présence de composés chimiques extrêmement simples mais nécessaires à l’apparition de la vie (acides aminés ou aminoacides ) validant ainsi la thèse qui veux que la vie ne soit pas apparue sur Terre mais que son origine soit extraterrestre et qu’elle ait trouvé des conditions favorables pour se développer.

philae-Churyumov-GerasimenkoPhilae est programmé pour se poser sur la comète le 11 Novembre prochain. Si les résultats des analyses confirment l’hypothèse de la vie extraterrestre, alors nous ne serions officiellement plus seuls dans l’univers, car si un tel scénario a pu se dérouler pour la Terre, c’est qu’il a également pu se produire aussi pour n’importe quelle autre planète regroupant les mêmes conditions que la Terre. Finalement, à la question « sommes nous seuls dans l’univers? » aura trouvé sa réponse sur Terre car nous serions nous même des extraterrestres. Rendez-vous le 11 Novembre prochain.

PHEMU 2015, un challenge pour tous

Les PHEMUS :Obiwan-Kenobi ????

Le coup de feu va bientôt retentir pour cette campagne 2014-2015 des Phémus.

Petit rappel: que sont les Phémus? Il s’agit très simplement de l’abréviation pour « Phénomènes Mutuels », mais de quoi parle-t-on? Tous les 5 ans environ, la Terre passe dans le plan de l’écliptique de Jupiter, nous plaçant en alignement avec elle et ses satellites dits « Galiléens » puisque découvert par lui il y a maintenant un petit peu plus de 4 siecles.

Quel est l’intérêt des Phémus? l’étude porte sur une meilleure connaissance de la mécanique des 4 principaux satellites de Jupiter. Aujourd’hui encore cette mécanique garde des zones d’ombres, bien que les éphémérides de ces astres soient connus, ils ne sont cependant pas tout à fait exacts parfois de plusieurs secondes voir plus d’une dizaine, se traduisant pour les satellites à des incertitudes de plusieurs centaines de kilomètres! C’est tout l’enjeu de cette campagne: améliorer les éphémérides de ces satéllites.

Que cherche-t-on à observer? les observations porteront essentiellement sur les éclipses de satellites et/ou leurs occultations mutuelles.

Ces campagnes apportent donc une amélioration des connaissances de la mécanique du système de Jupiter, mais c’est également un des rares moment ou les professionnels font appel aux astronomes amateurs par manque de temps.

Ou se trouve la difficulté?

Faire une photo du ciel profond ou d’une planète pour son propre plaisir n’impose aucune rigueur en ce qui concerne le moment où on réalise ce cliché, pour peu qu’il fasse beau, que les conditions climatiques ne génèrent pas (trop) de turbulence, et l’affaire est dans le sac quand on a un peu d’expérience en photo astro. En ce qui concerne les Phémus, il faut « malheureusement » compter avec le temps, plus précisément avec le temps UTC (Universal Time coordinated) et c’est à ce moment précis que les choses commencent à se corser fortement.

Pour avoir une chronologie précise des événements l’IMCCE – Institut de Mécanique Celeste et Calcul des Ephémérides – « impose » une précision de datation des clichés (photos ou vidéos) inférieur à 1/10eme de seconde (0,1 s) par rapport au temps UTC. C’est sur ce point précis que toute la difficulté des Phémus repose.

Les solutions.

Si vous examinez l’heure sur 2, 3, 4 ordinateurs ou plus vous constaterez qu’ils sont rarement à « l’unisson » d’un point de vu temps, et il est encore plus probable qu’aucun d’entre eux ne soit synchronisé à l’heure UTC. Pour pouvoir obtenir une heure fiable sur un ordinateur il n’existe pas beaucoup de solutions, mais deux principales sont de choix:

1/ La première solution, la moins coûteuse, propose une fiabilité de l’ordre du 1/100eme voir du 1/1000eme de seconde et semble « suffisante » pour peu que la dérive de l’heure sur l’ordinateur ne soit pas trop importante. Il s’agit du système de mise à l’heure via un (ou des) serveur(s) NTP (Network Time Protocol).

2/ la seconde solution à retenir est celle du GPS via le PPS (Pulse Per Second) La fiabilité de ce système de mise à l’heure est estimée à environ 1µs.

Je ne rentrerai pas dans les détails de mise en place de telle ou telle solution, internet regorge déjà suffisamment de sites traitant du sujet.

La Société Astronomique de Touraine s’est donc lancée dans l’aventure « Phémus », tout comme bon nombre d’associations ou de particuliers qui souhaitent apporter leur pierre à l’édifice.

Comment cela va-t-il se passer concrètement?

L’IMCCE a edité une sorte de « charte » de conduite à tenir afin de mener au mieux cette nouvelle campagne qui débutera officiellement le 17 Aout 2014 et se terminera le 22 Aout 2015 pour un total de 477 événements, en réalité seuls 442 seront observables (selon conditions météo) entre le 1er septembre 2014 et le 20 Juillet 2015.

Vous trouverez également ICI un guide détaillé de l’ensemble des dispositions à prendre pour réaliser au mieux cette campagne, comme par exemple l’utilisation de filtres interférentiels « CH4  » (7260 Å , 8300 Å , 8900 Å , …) afin de « masquer » Jupiter pour les phénomènes qui en seraient trop proche. Ou bien cette page par exemple, qui donne en détaille la « meilleure » façon de procéder pour les captures video.

Une fois vos captures réalisées, voici comment procéder afin de les faire parvenir à l’IMCCE, soit par mail, soit par courrier postal en précisant:

« FICHE DE COMPTE-RENDU D’OBSERVATION VISUELLE
(à renvoyer après chaque observation à l’IMCCE, PHEMU15, 77 ave. Denfert-Rochereau, F-75014
PARIS 

ou phemu@imcce.fr)

PHENOMENE OBSERVE :
NOMS DES OBSERVATEURS:
ADRESSE:
LIEU DE L’OBSERVATION:
Coordonnées géographiques: (longitude: h m s; latitude: ° ‘ « ; altitude= m).
CONDITIONS météorologiques (brume, passages nuageux?):
Qualité du ciel (stable, transparent?):
Stabilité des images:
Hauteur sur l’horizon au moment de l’observation:
Crépuscule? Lune?
INSTRUMENT UTILISE:
Télescope ou lunette?
Ouverture:
Focale:
Grossissement utilisé:
Défocalisation effectuée?
BASE DE TEMPS utilisée (référence?):
Echelle de Temps utilisée (horloge parlante,…):
ESTIMATION de la qualité de l’observation
(sûre, moyenne, douteuse…):
Estimation de la valeur en magnitude de votre « degré » personnel utilisé pour les comparaisons d’éclat:
COMMENTAIRES ET REMARQUES:
Joindre la liste des estimations d’éclat effectuées avec l’instant de chacune d’elles.
Indiquer les astres de référence utilisés avec leur magnitude visuelle à la date de l’observation. »

Joyeux anniversaire Curiosity.

Il y’a tout juste un an sur Mars, curiosity posait ses 6 roues sur le sol de la planète rouge. J’en entends déja me dire « ha, non j’ai vu l’événement en direct et c’etait il y a 2 ans le 6 Aout 2012 ». C’est vrai, mais depuis que Curiosity « vit » sur le sol martien sa nouvelle référence c’est Mars, et cela fait donc 1 an martien que curiosity en sillonne la surface, 687 jours terrestres précisément. Alors:

JOYEUX ANNIVERSAIRE CURIOSITY!!!

curiosity_birthday

 

Par hal9000, il y a

Ondes gravitationnelles: c’est pas gagné.

Les astronomes qui ont annoncé en Mars qu’il avaient des preuves de l’existence d’ondes générées par le Big Bang, adoptent aujourd’hui un discours plus mesuré suite à la publication de leurs résultats.

Dans un papier publié le 19 Juin dans « Physical Review Letters » , les chercheurs de l’observatoire du BICEP2 reconnaissent que les effets de la poussiere en premier plan dans la voie lactée pourrait compter pour une plus grande part -peut-être entierement- que précédemment estimée, dans ce qui semblait être un signal venu de la nuit des temps.

En plus de cela, des présentations qui se sont tenues plutot cette semaine à une conférence sur la cosmologie à Moscou, et basées sur les observations du satellite Planck de l’agence spatiale européenne ont également apporté la preuve que les observation faites au BICEP2 seraient entièrement du à l’effet de la poussière.

Rappelons que John Kovac du Centre de Harvard-Smithsonian pour l’Astrophysique à Cambridge (Massachusetts), a annoncé lors d’une conférence de presse le 17 Mars dernier, des résultats sur ce sujet qui lui ouvrirait les portes du prix Nobel, en parti car il semble confirmer une theorie sur la naissance de l’univers.

Selon cette théorie, proposé pour la première fois en 1980, l’univers a commencé avec un bref mais extraordinaire période d’expansion appelé « inflation cosmique« . Cette inflation aurait généré des ondes gravitationnelles, créant une déformation de la polarisation du « fond diffus cosmologique » (CMB – cosmic microwave background), c’est ce résidu fossile extrêmement faible laissé par le Big Bang que le BICEP2 pensait observer dans le ciel.

Les grains de poussières présent dans notre galaxie pourraient avoir une empreinte de polarisation similaire dans le CMB et semblable aux ondes gravitationnelles. Mais basé sur plusieurs prévisions différentes, les chercheurs ont conclu que leurs résultats allaient plus probablement provenir d’ondes primordiales de gravitation.

Parce qu’une source clé de données n’était pas alors publiquement disponible, la plupart des modèles utilisés par Kovac et ses collègues n’ont pas inclus les informations du satellite Planck, qui a réalisé un scan complet du ciel en micro-ondes entre 2009 et 2013.

L’équipe BICEP2 a vraiment utilisé un modèle  basé sur des données préliminaires du satellite Planck , mais d’autres scientifiques, y compris Rafael Flauger de « Institute for Advanced Study »  à Princeton, New Jersey, a suggéré que les chercheurs aient mal interprété des informations et qu’une analyse correcte suggère que la poussière puisse représenter beaucoup ou tout le signal . L’équipe BICEP2 a maintenant exclu ce modèle de son analyse à cause « de l’incertitude inquantifiable, » notent les chercheurs en marge de leur article.

Mais les autres modèles utilisés par l’équipe BICEP2 sont aussi fortement incertains, et basés sur les évaluations plus vieilles de poussière qui ne vont probablement pas être correctes, note le cosmologue Uros Seljak de l’Université de Californie, Berkeley, co-auteur dans un autre journal, critique d’analyses du BICEP2.

Les membres de l’équipe disent qu’ils croient toujours que des vagues de gravitation sont l’explication la plus probable du signal qu’ils ont détecté avec le télescope à micro-ondes basé au pôle antarctique, BICEP2. Cependant, dans leur article,  les auteurs notent que les modèles qu’ils ont utilisé pour analyser leurs données « ne sont pas suffisamment contraints par des données publiques externes pour exclure la possibilité d’émission de poussière assez brillante et expliquer entièrement le signal excessif ».

La contribution de la poussière « semble être quelque peu plus importante que les modèles pré-Planck  prévus, » dit le membre de l’équipe BICEP2 JAMIE BOCK de « California Institute of Technology » et « NASA’s Jet Propulsion Laboratory », les deux basé à Pasadena. « Nous soutenons toujours que les données obtenues ne sont pas le fait unique de l’interprétation de la poussière, » et d’ajouter,  » ce qui confirme ce que nous avons dit sur ce sujet concernant la poussière en Mars. »

Le Cosmologue David Spergel de » Princeton University in New Jersey » dit qu’il est heureux que l’équipe BICEP2 ait reconnu la possibilité que l’intégralité du signal pourrait être du à la poussière. Mais l’article, révisé depuis sa parution sur le dépôt arXiv.org le 17 mars, « est toujours quelque peu erroné », dit-il. « Je crois que la communauté de cosmologie reconnaît maintenant que nous devrons attendre Planck pour une découverte des ondes gravitationnelles ou la clarification à laquelle ce signal serait dû à de la poussière polarisée, » dit-il.

Les cartes définitives de Planck ne seront pas publiées avant Octobre. Mais à la Moscow cosmology  qui se réunissait le 16 juin, l’astronome Jean-Loup Puget (Planck) de l’Université de Paris-Sud à Orsay a rapporté de nouvelles découvertes qui suggèrent que la poussière joue un rôle majeur dans la partie sud du ciel examiné par BICEP2. Les analyses précédentes de Planck  n’ont pas montré la quantité de polarisation du à la poussière dans cette partie du ciel ou d’autres régions de la Voie lactée à cause de la rareté relative de poussière et le signal bas comparé au bruit dans ces régions.

En utilisant pour la première fois les cartes du satellite Planck les plus récentes disponibles, Jean-Loup Puget et ses collaborateurs ont directement examiné la polarisation de poussière dans ces régions galactiques plutôt que d’extrapoler dans les régions plus poussiéreuses dans le plan de la Voie lactée. Jean-Loup Puget a dit qu’un article détaillant ces découvertes serait publié dans environ six semaines.

Il y a toujours un espoir, dit Seljak, que l’équpe du BICEP2 a observé le vrai signal. » Mais à ce stade cela ressemble plus à une conviction, plutot qu’un argument »

Par hal9000, il y a

Hubble au secours de New Horizons

New Horizons, la mission de la NASA aux limites du système solaire, va être secouru par le télescope Hubble à la recherche desesperé d’un corps glacé que la sonde devra survoler après son passage aux abords de Pluton en Juillet 2015.

En l’équipe en charge de la mission est pour le moment dans l’impossibilité de trouver un corps convenable à la seconde partie du programme New Horizons qui, après le survol de Pluton doit aller étudier un objet de la ceinture de Kuiper (KBO – Kuiper Belt Object). En effet la recherche précoce peut avoir un effet majeur sur la consommation d’énergie de la sonde. Plus la destination sera trouvée tôt et plus une trajectoire « idéale » sera économique en énergie.

Hubble devrait donc débuter cette semaine sa nouvelle mission d’une 40 d’orbites autour de la Terre, rappelons-le, le télescope spatial met a peu près 97 min pour faire une révolution autour de la Terre, mais évidement seule une soixantaine de minutes seront réellement utilisables puisque à certain moment la Terre masquera la zone de recherche.

La recherche de cet objet se fera évidement dans la zone accessible par les propulseurs de la sonde. Un comité d’allocation du temps (d’utilisation de Hubble), le TAC (Time allocation Committee) constitué de 18 astronomes ont d’ores et déjà attribué 120 révolutions supplémentaires si la recherche d’une série de candidats se révèle fructueuse, et 30 de plus si un vainqueur est désigné afin d’ajuster au mieux son approche par New Horizons.

Le problème majeur est que la zone de recherche se trouve exactement dans un endroit ou passe le centre de la voie lactée rendant de fait difficile le repérage d’un KBO qui se trouve alors masqué par la lueur du coeur de notre galaxie. Des recherches avaient déjà été menées sur différents sites d’observation sur Terre mais sans résultat probant. Hubble devrait donc ouvrir un nouvel espoir pour l’équipe en charge de la mission. En réalité le programme « New Horizons » a eu les yeux plus gros que le ventre, car lorsque la sonde fut lancée en 2006 on pensait alors à ce moment là que les KBO existaient en plus grande quantité.

Avec un temps d’occupation extrêmement rempli, certains observateurs s’inquiètent du fait que le TAC refuse tout simplement de prolonger le temps nécessaire à la découverte d’un corps gelé pour New Horizons. Cependant le problème a attiré l’attention du sous-comité du Sénat en charge des approbations scientifiques et dirigé par le sénateur Barbara Mikulski dont l’état comprend à la fois le STScl (Space Telescope Science Institute) et le laboratoire de physiques appliqués de l’université  Johns Hopkins. Un rapport a donc été validé en début de mois afin d’approuvé un budget de la NASA pour mené à bien cette mission.

 

Un vol dans l’espace, çà vous tente?

Quel astronome amateur n’a jamais rêvé de passer ne serait-ce qu’un instant dans l’espace en état d’apesanteur, observer la Terre d’en haut, et voir l’espace à travers la pureté du vide? Je vous rassure vous allez pouvoir continuer de rêver!

Vous me voyez navré de briser votre rêve mais à moins d’être à la tête d’une fortune personnelle, d’avoir beaucoup de temps devant vous, d’être dans une forme physique irréprochable et d’aimer les disciplines de fer, ce qui suit ne vous concerne pas, enfin pas directement, vous pouvez tout de même continuer à lire. Si en revanche vous rentrez parfaitement dans toutes les cases alors vous avez une chance de faire parti des prochains chanceux séléctionnés.

Vers l’infini et au-delà!

Cette opportunité c’est ce que se propose de faire la société américaine « Space Expedition Corporation« . A bord de la navette XCORE Lynx Mark-II vous vivrez les sensations d’un astronaute. Le site décrit la procédure: après un décollage typique d’un avion, l’engin se cabrera pour accélérer à une vitesse proche de Mach 3! Arrivé a environ 60km d’altitude les moteurs seront coupés pour entamer le vol en apesanteur d’une durée de 6 min environ, là le cockpit équipé d’une surface en verre de plus de 4m² vous dévoilera l’infini beauté de l’espace mais 6 min çà passe vite quand on veut tout voir et à une altitude maximum d’environ 100km la navette désormais « spatiale », remettra les gaz pour retourner dans l’atmosphère. C’est la deuxième phase délicate pour les estomacs sensibles après l’ascension vertigineuse puisque l’accélération devrait atteindre cette fois 4G (4 fois votre masse), prévoyez donc un léger repas avant le vol. L’atterrissage devrait se passer en douceur puisque la navette est prévue pour voler comme un planeur en décrivant des cercles tout en descendant.

sat_xcore_vol

Le lieu choisi pour effectuer ce voyage inoubliable (sauf si vous perdez connaissance!) est le désert du Mojave, plus précisément au « Mojave Air & Space Port », pour rappel c’est dans cet endroit désertique que Chuck Yeager a pour la première fois le 14 Octobre 1947 franchi le mur du son à bord du prototype Bell X-1. L’atterrissage est quand à lui prévu sur la base spatiale de Curaçao, état autonome du royaume des Pays-Bas ( face au Vénézuela)….dans les caraïbes, c’est donc une distance d’environ 5500km qui sera couverte en 60 min environ.

mojave-curacao

L’entrainement

Le site l’affiche clairement:

entrainement_sxc

 

Qu’on se le dise: l’espace, çà se merite!

Au programme: centrifugeuse, vols zero-G, vols à bord d’un avion de chasse, cours théorique et le top du top (tout dépend évidement du sens qui lui donne), Le simulateur 3,3G Desdemona au Pays-bas:

Inutile d’épiloguer, ceux qui réussiront à passer avec succès l’ensemble de ces tests pourront certainement se compter sur les doigts d’une main.

 

Réservations & Tarifs

Passons aux choses qui fâchent. Sachez tout d’abord que la navette ne peut accueillir que 2 personnes, le pilote et un passager. Dans ces conditions on comprend tout de suite que l’attente risque d’être longue mieux vaut donc commencer à réserver dès maintenant. Vient ensuite le tarif pour vivre une des expérience les plus marquantes de votre vie. Il faudra compter environ 100 000 $ pour décrocher le fameux ticket. Les réservations sont d’ores et déjà en ligne avec les dates et le programme choisi à cette adresse on peut y voir également que les premiers vols intitulés « pionnier » sont prévus pour le 3eme quart 2014, soit cet été. Évidement, « la maison ne fait pas crédit » et il faudra s’acquitter de l’intégralité de la somme 7 jours après la signature du contrat.

 

Nulle doute au final que les rares privilégiés vivront une expérience unique dont Gagarine fut le precurseur 53 ans plus tot, le 12 Avril 1961.

Simulation de l’univers en HD

La puissance des processeurs ne cesse d’évoluer suivant la célèbre loi de Gordon Moore – Cofondateur d’Intel- qui en 1965 avait prédit que l’intégration du nombre de transistors dans une même surface de silicium doublerait au rythme de 18 mois environs, créant ainsi une puissance de calcul exponentielle pour les microprocesseurs; et à quelques exceptions près, Moore ne s’était pas trompé.

Nous devons cette prouesse a 2 supercalculateurs :  SuperMUC (2,9 PFlops – Allemagne) et CURIE (2 PFlops France) et au code de programmation Illustris. La puissance de calcul se mesure en Pflops (péta-Flops) soit des millions de milliards de calculs avec virgule flottante, la ou les processeurs d’aujourd’hui se limitent à quelques milliards de calculs par seconde en virgule flottante, soit un rapport d’environ 1.10E6. Mais ce n’est pas tout car il faut tenir compte du nombre de cœurs par processeurs et du nombre de calculs possibles par cycle (Ghz) pour chaque cœur. On a estimé qu’il aurait fallu environ 2000 ans a un processeur « classique » pour effectuer la même quantité de travail, rien que çà!!!

SuperMUC_supercalculateur
SuperMUC

CURIE – TGCC
Curie_supercalculateur

 

Grâce à cette évolution informatique que rien ne semble enrayer, Illustris a pu simuler ce qui est certainement la plus belle mais néanmoins réaliste évolution d’une portion de l’univers sur une échelle de 13 milliards d’années, fournissant un niveau de détail jusque là inégalé, mais surtout ce nouveau code a permis de simuler toutes les formes de galaxies connues dans l’univers en tenant compte de la désormais fantomatique matière noire. Le résultat est à couper le souffle, voici cette vidéo a voir en HD si votre connexion vous le permet, sinon cela reste de toute façon magnifique:

Les ondes gravitationnelles d’Einstein chez vous

Beaucoup ont deja entendu parler des projets comme « folding@home » ou encore « seti@home » pour ne citer que les plus connus, pour d’autre ces projets ne signifient absolument rien, alors kézako?

Les projets @home (prononcez [atom]) sont issus de la recherche afin de mener a bien des études ou projets. L’idée est d’une simplicité enfantine: sensibiliser toute personne à un projet scientifique disposant d’un ordinateur afin d’utiliser les ressources inexploitées du processeur. L’un des tous premiers à utiliser ce système fut « folding@home », ce projet installait donc un petit programme sur n’importe quel ordinateur Windows et Mac téléchargeait un morceau de la base de données et calculait toutes les possibilités qu’une protéine avait de se plier « folding » afin de découvrir la résultante pouvant être a l’origine d’une dégénérescence donnant lieu a des cellules malades de type cancer ou autre, et de renvoyer le résultat final vers la base de données créant ainsi un supercalculateur a travers le monde a moindre frais . Bien que lancé en Octobre 2000 ce projet existe toujours, preuve que le nombre de possibilités pour une protéine est gigantesque. ( seti@home quand à lui est un projet qui analyse les émissions radio qui se baladent dans l’espace afin d’y déceler une quelconque forme de vie intelligente, chacun se fera son idée sur le sujet)

Mais revenons à Einstein, ou plutôt le projet « Einstein@home » de quoi s’agit-il? le principe reste exactement le même que pour « folding » sauf que cette fois on cherche à déceler des ondes gravitationnelles.

Que sont ces ondes gravitationnelles? Il s’agirait bien souvent de la combinaison de deux astres hyper massifs tournants l’un autour de l’autre (trou noir et étoiles à neutrons principalement) et dont la « danse » génère des vibrations dans la courbure de l’espace-temps seuls des corps massifs capables d’accélérations phénoménales sont capables de créer de telles perturbations, Einstein en avait prédit l’existence grâce à la relativité générale, d’où le nom du projet. L’un de ces phénomènes a pu être repéré dans la nébuleuse du crabe (rayons X) :

crabe-pulsar

La quête ultime, le calice, serait de déceler ces ondes au niveau du fond diffus cosmologique ce qui serait alors l’une des découvertes majeures de la cosmologie moderne, grâce au satellite « Planck » qui a sondé le fond de l’univers pour nous offrir l’une des plus belles images de l’astronomie moderne que l’on peut aujourd’hui considérer comme « définitive »:

fond_diffus_planck_2013

Les scientifiques pensent pouvoir déceler dans ces fluctuations extrêmement faibles de température des traces de ces ondes gravitationnelles issues du Big-Bang:

ondes_gravitationnelles_planck

 

Carte de polarisation révélant la présence d’ondes gravitationnelles – Observatoire BICEP2 – Mars 2014

Planck devrait fournir une première carte global de la polarisation du rayonnement cosmologique à l’automne 2014.

Voila donc, à quoi sert ce projet « EINSTEIN@home ». Si l’aventure vous intéresse et que vous souhaitez prendre part, il vous suffit de télécharger le fichier d’installation pour windows 64bits, ou celui-ci pour les versions windows 32bits (faites « touche windows » + « pause » pour connaitre votre version). Les adeptes de la pomme ne sont pas oubliés puisqu’il existe également pour Mac OS 10.4 un petit fichier à télécharger et à installer.

Un tutoriel est disponible directement en français sur le site de l’Alliance Francophone – site dédié au calcul distribué via BOINC.

Vous y trouverez également une page explicative sur le principe de EINSTEIN@home.

 

 

Par hal9000, il y a
Fond de ciel

Pourquoi le ciel est bleu ?

Fond de ciel Les anciens Perses pensaient que la Terre reposait sur un saphir dont l’éclat bleuté se reflétait dans la couleur du ciel.

L’explication est évidemment toute autre et liée aux phénomènes physiques qui accompagnent la diffusion de la lumière. Les particules de poussière et les aérosols qui composent l’atmosphère ont une dimension des millions de fois supérieure à la longueur d’onde de la lumière visible. En rencontrant les particules les plus grandes la lumière se réfléchit sur leur surface et rebondit dans différentes directions, la lumière est diffusée. Dans ces conditions toutes les couleurs subissent les mêmes réflexions de la même manière.

Par contre, les molécules d’air ont une dimension du même ordre de grandeur que la longueur d’onde de la lumière visible. Quand un photon percute une molécule ou un atome, certains photons peuvent être absorbés par les électrons qui gravitent dans le nuage électronique qui l’entoure. Pour retrouver sa stabilité l’atome réémettra cette lumière à la même fréquence mais dans des directions aléatoires. A cette échelle atomique les différentes couleurs du spectre ne sont pas toutes affectées de la même façon. Bien que toutes les couleurs peuvent être absorbées, les fréquences les plus élevées et les plus intenses d’un point de vue énergétique (les bleues) sont plus fréquemment absorbées que les fréquences plus basses (rouges) qui par comparaison sont peu affectées par l’atmosphère.   Ce phénomène est appelé la diffusion de Rayleigh du nom du physicien anglais qui décrivit ce phénomène en 1870.

Diffusion de RaleightLa couleur bleue du ciel s’explique par l’importance de la diffusion de Rayleigh.   La plupart des longues longueurs d’ondes, les couleurs rouge, orange et jaune en particulier traversent l’atmosphère sans être trop dérangées par ses constituants.   Par contre la lumière bleue est absorbée par les molécules d’air qui réémettent ce rayonnement dans toutes les directions. La lumière bleue est ainsi diffusée à travers tout le ciel. C’est la raison qui explique pourquoi, quelle que soit l’endroit du ciel que tu observes, le ciel te paraît bleu.

On peut donc en conclure que sur un astre dépourvu d’atmosphère comme la Lune, la lumière ne sera pas diffusée et tous les rayonnements se propageront en ligne droite jusqu’au sol.  Le ciel de la Lune est ainsi désespérément noir, et du côté obscur il est parsemé d’étoiles comme un velours de diamants.

D’après ce qui vient d’être dit on peut donc en conclure que la couleur bleue du ciel est la combinaison de la diffusion des rayonnements de courtes longueurs d’ondes comprenant les couleurs violet, indigo, bleu et vert dont les nuances donnent au ciel ses bleus si subtils.

Mais tout le monde a déjà remarqué qu’en altitude le bleu du ciel prend une tonalité très sombre alors qu’il peut être très délavé en bordure de mer ou devenir blanc brillant (température de couleur >10000 K) en plein Soleil.   C’est encore la diffusion de Rayleigh qui est responsable de cette variation de tonalité. A basse altitude la densité de l’air est plus importante qu’en altitude et l’atmosphère contient aussi beaucoup plus de poussière et de vapeur d’eau arrachée au sol ou transportée par les vents.   Il est donc normal que la lumière bleue soit plus diffusée en bordure de mer car elle rencontre beaucoup plus d’obstacles qu’en altitude où la raréfaction de l’air influence moins la lumière bleue.

Vu du ciel, c’est le même phénomène global qui nous renvoi la lumière réfléchie par l’Atmosphère donnant cette teinte et ces nuances uniques par leur diversité. La terre c’est avant tout   « la planète bleu ».