• Matéria: Física
  • Autor: mandyruthes
  • Perguntado 9 anos atrás

Em 1946, a distancia entre a terra e a lua foi determinada pelo radar. Se o intervalo de tempo entre a emissão do radar e a recepção do eco foi de 2, 56s e a velocidade do sinal de radar é de 3.105 k/ms, qual a distancia entre a terra e a lua?

Respostas

respondido por: bbfurlong1981
62
- Como foi gasto 2,56 s para o sinal ir até à Lua e voltar, então o tempo gasto só para ir é metade, 1,28 s; aplicando na velocidade temos a distância da Terra à Lua:
v = ∆s/∆t
3,00∙108 = ∆s/1,28
∆s = 1,28∙3,00∙108 
∆s = 3,84∙108 m
respondido por: Pewtryck007
15

A distância entre a lua e a terra é de 3,84×10^8 metros.

O intervalo intervalo de tempo entre a emissão do sinal de radar e a recepção de eco foi 2,56 s, então o tempo levado para o sinal só para ir até a lua é a metade, ou seja, 1,28 segundos.

Pra se calcular a distância entre a lua e a terra, vamos usar a equação de velocidade média:

\boxed{Vm = \frac{\Delta S}{\Delta t} }

onde,

Vm: velocidade média, no caso 3,00×10^8 m/s;

ΔS: varição de espaço;

Δt: variação de tempo, 1,28 s.

Aos cálculos:

Vm = ΔS / Δt

3,00×10^8 = ΔS / 1,28

ΔS = 1,28 * 3,00×10^8

ΔS = 3,84×10^8 metros.

Leia mais em Brainly.com.br -

https://brainly.com.br/tarefa/21018173#readmore

Perguntas similares