lunes, 18 de marzo de 2013

Byte

 como la cantidad más pequeña de datos que un ordenador podía "morder" a la vez. El cambio de letra no solo redujo la posibilidad de confundirlo con bit, sino que también era consistente con la afición de los primeros científicos en computación en crear palabras y cambiar letras. Sin embargo, en los años 1960, en el Departamento de Educación de IBM del Reino Unido se enseñaba que un bit era un Binary digIT y un byte era un BinarY TuplE. Un byte también se conocía como "un byte de 8 bits", reforzando la noción de que era una tupla de n bits y que se permitían otros tamaños.


megabyteEs una unidad de medida de cantidad de datos informáticos. Es un múltiplo del byte u octeto, que equivale a 106 B (un millón de bytes).Por otro lado, al igual que el resto de prefijos del SI, para la informática muchas veces se confunde el megabyte con 220 B, cantidad que según normativa IEC 60027-2 y la IEC 80000-13:2008 publicada por la Comisión Electrotécnica Internacional debe ser denominada mebibyte.El prefijo mega proviene del griego μέγας, que significa grande.Se representa por MB y no por Mb, cuya correspondencia equivaldría a megabitColoquialmente a los megabytes se les denomina megas.Es la unidad más típica actualmente, junto al múltiplos inmediatamente superior, el gigabyte, usándose para especificar la capacidad de la memoria RAM, de las memorias de tarjetas gráficas, de los CD-ROM, o el tamaño de los programas, de los archivos grandes, etc. La capacidad de almacenamiento se mide habitualmente en gigabytes, es decir, en miles de megabytes.


gigabytes una unidad de almacenamiento de información cuyo símbolo es el GB, equivale a 109 byte Por otro lado, al igual que el resto de prefijos del SI, para la informática muchas veces se confunden con 230 bytes, lo cual debe ser denominado gibibyte según normativa IEC 60027-2 y la IEC 80000-13:2008 publicada por la Comisión Electrotécnica Internacional.Como resultado de esta confusión, el término "gigabyte" resulta ambiguo, a no ser que se utilice un solo dígito de precisión. Conforme aumenta la capacidad de almacenamiento y transmisión de los sistemas informáticos, se multiplica la diferencia entre el uso binario y el decimal. El uso de la base binaria no obstante tiene ventajas durante el diseño de hardware y software. La RAM se mide casi siempre en potencias de dos, por otro lado la gran mayoría de los dispositivos de almacenamiento se miden en base diez.


terabyteUn terabyte es una unidad de almacenamiento de información cuyo símbolo es el TB, y equivale a 10 12 bytes.1Por otro lado, en la informática se puede confundir con 240, pero es un error ya que al valor 240 se denomina tebibyte según la normativa IEC 60027-2 y la IEC 80000-13:2008 publicada por la Comisión Electrotécnica Internacional. Confusiones similares existen con el resto de prefijos de múltiplos del S.I. (Sistema Internacional de Medidas).Adoptado en 1960, el prefijo tera viene del griego τέρας, que significa "monstruo" o "bestia"1 TB = 103 GB = 106 MB = 109 kB = 1012 bytes


kilobyte

Un kilobyte: es una unidad de almacenamiento de información cuyo símbolo es el kB (con la 'k' en minúsculas) y equivale a 103 bytes. Aunque el prefijo griego kilo- (χίλιοι) significa mil, el término kilobyte y el símbolo kB se han utilizado históricamente para hacer referencia tanto a 1024 (210) bytes como a 1000 (103) bytes, dependiendo del contexto, en los campos de la informática y de la tecnología de la información.1 2 3 Para solucionar esta confusión, la Comisión Electrotécnica Internacional publicó en 1998 un apéndice al estándar IEC 60027-2 donde se instauraban los prefijos binarios, naciendo la unidad kilobyte para designar 210 bytes y considerándose el uso de la palabra kilobyte no válido a dichos efectos.






No hay comentarios:

Publicar un comentario