L'échelle de magnitude stellaire
L'échelle de magnitude remonte a l'astronome grec Hipparque (IIe sieclé av. J.-C.), qui classait les etoiles de 1 (les plus brillantes) à 6 (a peine visibles a l'oeil nu). En 1856, Norman Pogson a formalise cette échelle : une différence de 5 magnitudes correspond à un rapport de luminosité de exactement 100. Ainsi, une différence de 1 magnitude equivaut à un rapport de luminosité de 2,512 (racine cinquieme de 100). L'échelle est logarithmique et inversee : une magnitude plus faible signifie un astre plus brillant.
Magnitude apparente vs magnitude absolue
La magnitude apparente (m) mesure la brillancé d'un astre tel qu'il apparait depuis la Terre, sans correction de distance. Le Soleil a m = -26,7, Sirius m = -1,46, et les etoiles les plus faibles visibles a l'oeil nu ont m = +6. La magnitude absolue (M) est la magnitude apparente qu'aurait une etoile placee à 10 parsecs (32,6 années-lumiere). Elle mesure la luminosité intrinseque. Le Soleil a M = +4,83 (une etoile ordinaire), tandis que Rigel a M = -7,84 (une supergante extremement lumineuse). La relation est : m - M = 5 x log10(d/10), ou d est la distance en parsecs.
Applications pratiques de la magnitude
La magnitude limite d'un instrument optique déterminé les astrès les plus faibles observables. L'oeil nu atteint la magnitude 6 dans un ciel sombre. Des jumelles 10x50 atteignent la magnitude 9. Un telescope amateur de 200 mm atteint la magnitude 13. Le telescope Hubble atteint la magnitude 31,5. Chaque augmentation de 5 magnitudes multiplie par 100 le nombre d'etoiles observables. Le rapport de luminosité entre deux etoiles de magnitudes m1 et m2 est : L1/L2 = 2,512^(m2-m1).