Supondo que os computadores A e B estão conectados por um meio de comunicação serial, que consegue transmitir 1Mbps (1.000.000 bits por segundo). Quantos segundos serão necessários para transmitir um arquivo de 100MB (Megabytes), sem considerar a sobrecarga de protocolos de controle? Considere a unidade Megabyte como sendo 1.000.000 bytes. Informe somente o resultado numérico, sem unidade.
Respostas
respondido por:
1
Resposta:
100 segundos
minima de 2 minutos
rubensalphaeomega58:
Mais prq? tem alguma conta ou coisa assim?
Perguntas similares
4 anos atrás
4 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás