Este artigo não cita fontes confiáveis. (Setembro de 2021) |
A lei de Titius-Bode (às vezes denominado de Lei de Bode) é uma controversa lei matemática que define, muito aproximadamente, as distâncias planetárias.
Foi desenvolvida em 1766 por Johan Daniel Tietz (1729–1796), mais conhecido por seu nome latinizado Titius (pronuncia-se Tícius) e muito divulgada pelo astrônomo alemão Johann Elert Bode (1747–1826), diretor do Observatório de Berlim, que acabou definindo a sequência final, que hoje conhecemos como Lei de Titius-Bode.
Esta lei parte-se de uma progressão geométrica de razão 2, a partir do segundo termo:
0, 1, 2, 4, 8, 16 e 32
Titius, multiplicou cada um destes termos por 3:
0, 3, 6, 12, 24, 48 e 96
e adicionou 4 unidades a cada um deles, obtendo-se:
4, 7, 10, 16, 28, 52 e 100
e finalmente dividindo-os por 10:
0.4, 0.7, 1.0, 1.6, 2.8, 5.2 e 10.0
Sabendo-se que uma unidade astronômica (UA) é distância média da Terra ao Sol, os valores obtidos representam as distâncias médias dos planetas, em UA, em relação ao Sol.
O mais curioso nesta lei é que ela previa a existência de um planeta entre as órbitas de Marte e Júpiter, a 2,8 UA do Sol, mas que não existia. Mais tarde atribui-se este valor à órbita do Cinturão de asteróides que orbita o Sol nesta distância.
Essa lei foi desbancada pelo descobrimento de Netuno e Plutão, já que esses dois planetas não seguem essa lei, e também considerando que a ideia do cinturão ser fragmentos e não um corpo celeste.