Um byte é definido como 8 bits, normalmente é a menor unidade endereçável de memória, pois 8 bits é a quantidade necessária para codificar um único caractere. O byte definido como 8 bits significa que é uma potência de dois, permitindo que 256 valores (0 - 255) sejam codificados de uma vez. Esta unidade de memória é a base de unidades maiores como Mega- ou Gigabyte.
Technipages explica byte
Um byte é oficialmente definido pelos padrões ISO e IEC como 8 bits. O Byte era historicamente o número de bits necessários para codificar um único caractere de texto em um computador, essa definição era muito vaga, no entanto, com muitos sistemas usando bytes de comprimento diferente. ASCII um padrão de texto antigo codifica seus caracteres em 7 bits, várias implementações de C e C ++ usam: 8, 9, 16, 32 ou 36 bits devido à definição nessas linguagens ser “pelo menos 8 bits”.
O byte é denotado pelo símbolo B frequentemente prefixado com unidades SI padrão para múltiplos como KB, MB e GB - mil, um milhão e um bilhão de bytes, respectivamente. Há uma confusão contínua sobre o que exatamente esses múltiplos significam em termos de bytes, essa confusão vem do fato de que os computadores operam e armazenar dados em binário, como 1000 de Kilo não se encaixa perfeitamente na estrutura binária, pois não é uma potência de 2, o mais próximo dos quais seria 1024. Foram feitas tentativas para definir oficialmente Kibi (1024), Mebi (1024 ^ 2) e Gibi (1024 ^ 3) - KiB, MiB e GiB respectivamente (a escala continua a yotta ou yobi - 1000 ^ 8 vs 1024 ^ 8) como múltiplos binários para bytes. Embora essas unidades tenham algum uso em alguns ambientes técnicos, seu uso ainda não pegou.
Usos comuns de byte
- Acabei de comprar um disco rígido de terabyte.
- Minha velocidade de download é de 10 Megabytes por segundo.
- Um único byte é historicamente definido como o número de bits necessários para codificar um caractere.
Maus usos comuns de byte
- Eu comi oito bytes de pizza.
- Este enorme download tirou um byte do meu plano de dados.