Un código binario representa el texto, las instrucciones del procesador de la computadora o cualquier otro dato que utilice un sistema de dos símbolos. El sistema de dos símbolos utilizado a menudo es el sistema numérico binario 0 y 1. El código binario asigna un patrón de dígitos binarios, también conocidos como bits, a cada carácter, instrucción, etc. Por ejemplo, una cadena binaria de ocho bits puede representar cualquiera de los 256 valores posibles y, por lo tanto, puede representar una amplia variedad de elementos diferentes.
En informática y telecomunicaciones, los códigos binarios se utilizan para varios métodos de codificación de datos, como cadenas de caracteres, en cadenas de bits. Esos métodos pueden usar cadenas de ancho fijo o ancho variable. En un código binario de ancho fijo, cada letra, dígito u otro carácter está representado por una cadena de bits de la misma longitud; esa cadena de bits, interpretada como un número binario, generalmente se muestra en tablas de códigos en notación octal, decimal o hexadecimal. Hay muchos juegos de caracteres y muchas codificaciones de caracteres para ellos.
Una cadena de bits, interpretada como un número binario, se puede traducir a un número decimal. Por ejemplo, la minúscula a, si está representada por la cadena de bits 01100001 (como está en el código ASCII estándar), también se puede representar como el número decimal 97.