Unidades de medida en tecnología: del gigabyte al megapíxel

Los productos de electrónica de consumo explican sus principales características mediante una serie de unidades de medida
Por Antonio Delgado 2 de mayo de 2012
Img unidades informatica portada
Imagen: Masaru Kamikura

¿Sabemos qué mide un bit, qué quieren decir los píxeles de una pantalla o qué indica que una conexión da más megabits por segundo que otra? Cuando queremos enumerar o cuantificar ciertos valores de un componente de hardware, como un disco duro, una memoria RAM o la resolución de un monitor, usamos una serie de unidades de medida. Estas nos permiten comparar entre modelos o valorar su capacidad. Sin embargo, este tipo de unidades suelen ser confusas para muchos usuarios, debido a la gran cantidad de conceptos y sistemas de unidades necesarios para su comprensión. Este artículo quiere arrojar un poco de luz sobre el tema.

Prefijos de cantidad

Una de las primeras características de las unidades y medidas utilizadas en la industria informática son losprefijos de cantidad según el Sistema Internacional de Unidades. En los productos de electrónica de consumo e informática se utilizan diferentes sistemas de unidades, tanto del sistema métrico decimal como del sistema métrico anglosajón. Esto se debe al origen internacional de los diferentes aparatos y a su estandarización para indicar comercialmente algunas de sus medidas.

En los productos de electrónica de consumo e informática se utilizan diferentes sistemas de unidades, tanto del sistema métrico decimal como del sistema métrico anglosajón

Los más utilizados en la actualidad son los prefijos «mega», «giga» y «tera», que indican respectivamente un millón, un billón anglosajón (1000 millones) y un trillón. Estos prefijos, creados en 1960, ayudan a indicar una gran cantidad de unidades de forma sencilla. Posteriormente se crearon los prefijos «peta», «exa», «zetta» y «yotta», que refieren a un cuatrillón, un quintillón, un sextillón y un septillón, y equivalen a diez elevado a sucesivas potencias múltiplos de tres: un millón es diez a la sexta, un billón es diez a la decimoctava potencia, etc.

Almacenamiento, bit y byte

En informática, la unidad básica de información es el «bit», un dígito del lenguaje binario que tiene un valor de 0 o 1. Es una unidad que permite a un procesador realizar una acción, pero que no sirve para mostrar la cantidad de información que puede contener un dispositivo, aunque la misma coincida con enormes secuencias de ceros y unos alternados. Por este motivo, convertida en unidad de referencia, se emplea la convención del «byte», que a menudo es un conjunto de ocho bits. De este modo, el «byte» se puede cuantificar de forma métrica como ocho bits.

En informática, la unidad básica de información es el «bit», un dígito del lenguaje binario que tiene un valor de 0 o 1

Es una medida cuya progresión no se indica número a número, sino por la multiplicación de la unidad anterior por dos, es decir: 8, 16, 32, 64, 128, etc. Esto indica la cantidad de bytes que es capaz de almacenar un dispositivo y, por tanto, la memoria que tiene para guardar la información.

Por lógica, las secuencias de ceros y unos de un programa cualquiera son enormes, por lo que al indicar la cantidad de información que contiene, también llamada el peso del mismo, se utiliza el prefijo kilobyte (mil bytes), y más comúnmente megabyte (un millón de bytes) y gigabyte (un trillón), o incluso, terabyte. En realidad, un kilobyte equivale a 1.024 bytes, por las características del lenguaje binario, pero en cuestión de almacenamiento se puede dar por válida la equivalencia tradicional.

Transmisión de datos

El bit también se emplea para indicar la velocidad de transmisión de datos entre dos puertos o aparatos. Entonces no se emplea el «byte», porque no se busca cuantificar cantidad, sino frecuencia de paso. Un ejemplo claro son las conexiones a Internet o la transferencia de datos en la red móvil. Como referencia, se utiliza el número de bits transmitidos por segundo (bps).

El bit también se emplea para indicar la velocidad de transmisión de datos entre dos puertos o aparatos

El prefijo más utilizado en las primeras conexiones a la Red, en la era del módem, era el kilobit por segundo (Kbps), pero los imparables progresos en materia de cableado con par de cobre y fibra han dado popularidad al megabit por segundo (Mbps) y en el futuro se la darán al gigabit por segundo (Gbps).

En algunas ocasiones, la denominada velocidad de transmisión se muestra en kilobytes por segundo (Kb/s). Es decir, esta unidad muestra la cantidad de bytes recibidos o enviados en un segundo. Una fórmula matemática muy simple para convertir datos mostrados desde kilobytes por segundo a kilobites por segundo consiste en multiplicar la cantidad indicada por 8. En este caso, 250 Kb/s equivale a 2.000 Kbps o 2 Mbps.

Resolución de imágenes

En el campo de la imagen digital, se utiliza el sistema métrico anglosajón para indicar un tamaño o densidad. Es habitual que las medidas de un monitor o una pantalla se indiquen según las pulgadas de su diagonal. Una pulgada equivale a 2,54 centímetros. Por otro lado, el píxeles una de las medidas más habituales al indicar una cantidad. Un píxel es la unidad mínima de color de una imagen digital estática o fija. Esta medida aplicada sobre una superficie se utiliza para indicar resoluciones de una imagen.

Un píxel es la unidad mínima de color de una imagen digital estática

Los sensores actuales de fotografía se miden en el rango de los megapíxeles (un millón de píxeles). Con esta unidad se mide la cantidad de píxeles que tiene el sensor de una cámara al capturar imágenes. A mayor número de píxeles, mayor tamaño y dimensiones de la imagen obtenida. Otra unidad importante relacionada con pantallas e imágenes mide la densidad de píxeles, es decir, la cantidad de píxeles que ocupan o se muestran en una pulgada. Esta unidad de resolución se muestra por sus siglas ppp (en inglés, como ppi).

En impresión de imágenes, la resolución óptima de una fotografía oscila entre 240 ppp y 300 ppp. A mayor resolución, el ojo humano no es capaz de ver los píxeles debido al menor tamaño de estos. En el mercado existen algunos modelos de teléfonos móviles cuyas pantallas ya superan los 300 ppp de resolución. Por tanto, indistinguible del papel impreso.

Procesamiento

En microprocesadores y chips, la medida utilizada para indicar su capacidad de proceso de cálculo es elhercio (Hz). Un hercio indica la cantidad de ciclos u operaciones que puede realizar un microprocesador durante un tiempo determinado, a menudo, en segundos. En electrónica e informática, este tiempo se mide ennanosegundos. Mediante los hercios se puede medir la velocidad de proceso del chip y valorar su rendimiento. En informática, esta unidad se suele mostrar en gigahercios (GHz), es decir, en el rango de un billón de ciclos.

¿Por qué se mide en gigabytes la RAM?
Img medidas tecnologicas
Imagen: David Blaikie

La memoria RAM (Random-access memory, memoria de acceso aleatorio) es una unidad de memoria flash que se sitúa junto con el procesador de un dispositivo informático y sirve de antesala para este. Esto quiere decir que tanto la información que entrará al procesador como la que saldrá de él, en forma de órdenes de ejecución de acciones, debe esperar unos instantes en la memoria RAM.

Aunque es un tipo de memoria por la que en esencia transitan datos y nunca se quedan almacenados, la realidad es que cuanto mayor sea su capacidad de acumular información en espera, más rápido podrá trabajar el procesador. Es por ello que se valora su capacidad en unidades de almacenamiento (bytes) y no de tránsito (bits por segundo). Ahora se habla de memorias RAM de 500 megabytes o bien de uno o dos gigabytes, aunque estas capacidades aumentan a medida que los procesadores incrementan su potencia, medida en gigahercios.

Sigue a Consumer en Instagram, X, Threads, Facebook, Linkedin o Youtube