• Matéria: Informática
  • Autor: rubensalphaeomega58
  • Perguntado 5 anos atrás

Supondo que os computadores A e B estão conectados por um meio de comunicação serial, que consegue transmitir 1Mbps (1.000.000 bits por segundo). Quantos segundos serão necessários para transmitir um arquivo de 100MB (Megabytes), sem considerar a sobrecarga de protocolos de controle? Considere a unidade Megabyte como sendo 1.000.000 bytes. Informe somente o resultado numérico, sem unidade.

Respostas

respondido por: eduardabarros14
1

Resposta:

100 segundos

minima de 2 minutos


rubensalphaeomega58: Mais prq? tem alguma conta ou coisa assim?
Perguntas similares