Um programa de tv começou as 13h 15m 20s e terminou as 15h 5min 40seg . quanto tempo durou o programa : COM CÁLCULO
Respostas
respondido por:
1
1 hora = 60 minutos
1 minuto = 60 segundos
1 hora tem 60 * 60 = 3600 segundos
Início:
13 h 15 min 20 seg
Término:
15 h 05 min 40 seg
Resolução:
13 horas = 13 * 3600 = 46800 segundos
15 minutos = 15 * 60 = 900 segundos
46800 + 900 + 20 = 47720
15 horas = 15 * 3600 = 54000 segundos
5 minutos = 5 * 60 = 300 segundos
54000 + 300 + 40 = 54340
De acordo com a resolução,o tempo do programa foi de:
54340 - 47720 = 6620 segundos
1 minuto = 60 segundos
1 hora tem 60 * 60 = 3600 segundos
Início:
13 h 15 min 20 seg
Término:
15 h 05 min 40 seg
Resolução:
13 horas = 13 * 3600 = 46800 segundos
15 minutos = 15 * 60 = 900 segundos
46800 + 900 + 20 = 47720
15 horas = 15 * 3600 = 54000 segundos
5 minutos = 5 * 60 = 300 segundos
54000 + 300 + 40 = 54340
De acordo com a resolução,o tempo do programa foi de:
54340 - 47720 = 6620 segundos
respondido por:
0
Simples, brother.
Subtrairemos o final do programa com seu começo,
ficaria assim:
15h 05min 40seg
—
13h 15m 20seg.
____________
1:50:20
Subtrairemos o final do programa com seu começo,
ficaria assim:
15h 05min 40seg
—
13h 15m 20seg.
____________
1:50:20
Ooz:
1h 50min 20seg de duração do programa da Fátima Bernardes.
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás