rdfs:comment
| - La magnitud aparente (m) de una estrella, planeta o de otro cuerpo celeste es una medida de su brillo aparente; es decir, la cantidad de luz que se recibe del objeto. Mientras que la cantidad de luz recibida depende realmente del ancho de la atmósfera, las magnitudes aparentes se normalizan a un valor que tendrían fuera de la atmósfera. Nótese que el brillo aparente no es igual al brillo real -un objeto extremadamente brillante puede aparecer absolutamente débil, si está lejos-. La relación en la cual el brillo aparente cambia, mientras que la distancia de un objeto aumenta, es calculada por la ley de la inversa del cuadrado. La magnitud absoluta, M, de un objeto, es la magnitud aparente que tendría si estuviera a 10 parsecs.
|
abstract
| - La magnitud aparente (m) de una estrella, planeta o de otro cuerpo celeste es una medida de su brillo aparente; es decir, la cantidad de luz que se recibe del objeto. Mientras que la cantidad de luz recibida depende realmente del ancho de la atmósfera, las magnitudes aparentes se normalizan a un valor que tendrían fuera de la atmósfera. Nótese que el brillo aparente no es igual al brillo real -un objeto extremadamente brillante puede aparecer absolutamente débil, si está lejos-. La relación en la cual el brillo aparente cambia, mientras que la distancia de un objeto aumenta, es calculada por la ley de la inversa del cuadrado. La magnitud absoluta, M, de un objeto, es la magnitud aparente que tendría si estuviera a 10 parsecs. La escala sobre la cual se mide la magnitud, tiene su origen en la práctica helenística de dividir esas estrellas visibles al ojo desnudo en seis magnitudes. Las estrellas más brillantes fueron pensadas para formar parte de la primera magnitud (m = +1), mientras que las más débiles eran consideradas como sexta magnitud (m = +6), el límite del ojo humano (sin ayuda de un telescopio). Este método, algo primitivo, para indicar el brillo de estrellas fue popularizado por Ptolomeo en su Almagesto, y se cree que pudo haber sido originado por Hiparco. Este sistema original no medía la magnitud del Sol. Debido al hecho de que la respuesta del ojo humano a la luz es logarítmica y la escala que resulta es también logarítmica. En 1856 Pogson formalizó el sistema definiendo que una típica estrella de primera magnitud es aquella 100 veces más brillante que una típica estrella de magnitud sexta; así, una estrella de primera magnitud es aproximadamente 2,512 veces más brillante que una de segunda magnitud. La raíz quinta de 100, un número irracional (2,512) se conoce como cociente de Pogson. La escala de Pogson fue fijada originalmente asignando a la estrella Polaris la magnitud de 2. Pero dado que los astrónomos han descubierto que la estrella polar es levemente variable, la estrella Vega es utilizada como referencia. El sistema moderno no está limitado a 6 magnitudes. Los objetos realmente brillantes tienen magnitudes negativas. Por ejemplo Sirius, la estrella más brillante, tiene una magnitud aparente de -1,44 a -1,46. La escala moderna incluye a la Luna y al Sol; la Luna tiene una magnitud aparente de -12,6 y el Sol tiene una magnitud aparente de -26,7. Los telescopios Hubble y Keck han localizado estrellas con magnitudes de +30. La magnitud aparente en la banda x se puede definir como: donde Fx es el flujo observado en la banda x, y C is una constante que depende de las unidades de flujo y de la banda.
|