Codigo binario
Codigo binario
Codigo binario, código utilizado en computadoras digitales, basado en un sistema numérico binario en el que solo hay dos estados posibles, de apagado y encendido, usualmente simbolizado por 0 y 1. Mientras que en un sistema decimal que emplea 10 dígitos, cada posición de dígito representa una potencia de 10 (100, 1,000, etc.), en un sistema binario, cada posición de dígito representa una potencia de 2 (4, 8, 16, etc.). Una señal de código binario es una serie de pulsos eléctricos que representan números, caracteres y operaciones que se realizarán. Un dispositivo llamado reloj envía pulsos regulares y los componentes como los transistores se encienden (1) o apagan (0) para pasar o bloquear los pulsos. En el código binario, cada número decimal (0-9) está representado por un conjunto de cuatro dígitos binarios o bits. Las cuatro operaciones aritméticas fundamentales (suma, resta, multiplicación y división) se pueden reducir a combinaciones de operaciones algebraicas booleanas fundamentales en números binarios. (Consulte la tabla a continuación para ver cómo se representan los números decimales de 0 a 10 en binario).

Un código binario representa el texto, las instrucciones del procesador de la computadora o cualquier otro dato que utilice un sistema de dos símbolos. El sistema de dos símbolos utilizado a menudo es el sistema numérico binario 0 y 1. El código binario asigna un patrón de dígitos binarios, también conocidos como bits, a cada carácter, instrucción, etc. Por ejemplo, una cadena binaria de ocho bits puede representar cualquiera de los 256 valores posibles y, por lo tanto, puede representar una amplia variedad de elementos diferentes.

En informática y telecomunicaciones, los códigos binarios se utilizan para varios métodos de codificación de datos, como cadenas de caracteres, en cadenas de bits. Esos métodos pueden usar cadenas de ancho fijo o ancho variable. En un código binario de ancho fijo, cada letra, dígito u otro carácter está representado por una cadena de bits de la misma longitud; esa cadena de bits, interpretada como un número binario, generalmente se muestra en tablas de códigos en notación octal, decimal o hexadecimal. Hay muchos juegos de caracteres y muchas codificaciones de caracteres para ellos.

Una cadena de bits, interpretada como un número binario, se puede traducir a un número decimal. Por ejemplo, la minúscula a, si está representada por la cadena de bits 01100001 (como está en el código ASCII estándar), también se puede representar como el número decimal 97.