viernes, 8 de marzo de 2013

Todos los bytes



Bit es el acrónimo Binary digit (dígito binario). Un bit es un dígito del sistema de numeración binario.
Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).1.
Es una unidad de información utilizada como un múltiplo del bit. Equivale a 8 bits. Se usa comúnmente como unidad de información en dispositivos de almacenamiento de datos, en combinación con los prefijos del SI o los prefijos binario.


Un kilobyte (pronunciado [kilobait]) es una unidad de almacenamiento de información cuyo símbolo es el kB (con la 'k' en minúsculas) y equivale a 103 bytes. Aunque el prefijo griego kilo- (χίλιοι) significa mil, el término kilobyte y el símbolo kB se han utilizado históricamente para hacer referencia tanto a 1024 (210) bytes como a 1000 (103) bytes, dependiendo del contexto, en los campos de la informática y de la tecnología de la información.1 2 3
Para solucionar esta confusión, la Comisión Electrotécnica Internacional publicó en 1998 un apéndice al estándar IEC 60027-2 donde se instauraban los prefijos binarios, naciendo la unidad kibibyte para designar 210 bytes y considerándose el uso de la palabra kilobyte no válido a dichos efectos.
Un gigabyte (pronunciado /yigabáit/) es una unidad de almacenamiento de información cuyo símbolo es el GB, equivale a 109 byte Por otro lado, al igual que el resto de prefijos del SI, para la informática muchas veces se confunden con 230 bytes, lo cual debe ser denominado gibibyte según normativa IEC 60027-2 y la IEC 80000-13:2008 publicada por la Comisión Electrotécnica Internacional.
Como resultado de esta confusión, el término "gigabyte" resulta ambiguo, a no ser que se utilice un solo dígito de precisión. Conforme aumenta la capacidad de almacenamiento y transmisión de los sistemas informáticos, se multiplica la diferencia entre el uso binario y el decimal. El uso de la base binaria no obstante tiene ventajas durante el diseño de hardware y software. La RAM se mide casi siempre en potencias de dos, por otro lado la gran mayoría de los dispositivos de almacenamiento se miden en base diez.
El término giga proviene del griego γίγας, /jígas/ que significa gigante. En lenguaje coloquial, "gigabyte" se abrevia a menudo como giga
 Un terabyte es una unidad de almacenamiento de información cuyo símbolo es el TB, y equivale a 1012 bytes.1
Por otro lado, en la informática se puede confundir con 240, pero es un error ya que al valor 240 se denomina tebibyte según la normativa IEC 60027-2 y la IEC 80000-13:2008 publicada por la Comisión Electrotécnica Internacional. Confusiones similares existen con el resto de prefijos de múltiplos del S.I. (Sistema Internacional de Medidas).

No hay comentarios:

Publicar un comentario