• Matéria: Física
  • Autor: erickasousaa
  • Perguntado 3 anos atrás

(25 pnts, me ajudem pfvr)Determine a que distância um satélite deve estar em relação à superfície da Terra, onde g = 10 m / s², para que a gravidade do satélite na superfície seja igual a 5 m / s². Dados: Raio da Terra: 6,4,10³ km e Massa da Terra: 5,9. 10* 24 kg.

Respostas

respondido por: franciscorocha19
0

Resposta:

r = 2474299,972 metros ou 2474,3 km do satélite até a superfície do Planeta Terra.

Explicação:

Para resolver a questão devemos usar a fórmula da lei da gravitação universal:

F= (GMm)/r^2

Onde:

F – força de atração gravitacional ou força peso (N)

M e m – massas dos corpos (kg)

G – constante de gravitação universal (6,674.10-11 m3/kg.s²)

r – distância entre os corpos (m)

Para tanto:

F= (GMm)/r^2

sabendo que F é igual a, F= m.a, então:

m x a = (GMm)/r^2

a = (GMm)/r^2 x m

Cortando as maças:

a = (GM)/ r^2

Onde a será a aceleração da gravidade.

5 = (6,674.10^-11 x 5,9. 10^24)/r^2

r^2 = (6,674.10^-11 x 5,9. 10^24)/5

r = raiz de 7,87532 x 10^13

r = 8874299,972 m, até o centro da terra.

Agora devemos descontar o raio da terra para que a distância corresponda à superfície da terra.

Raio da terra, transformado de km para m:

Rt = 6,4 x 10³ km x 1000

Rt= 6400000 metros

r = 8874299,972 - 6400000

r = 2474299,972 metros ou 2474,3 km do satélite até a superfície do Planeta Terra.

Espero que meus cálculos estejam corretos e que tenha conseguido ajudar alguém!

Fontes:

Site mundo educação.

Perguntas similares