Tabela ASCII
| Dec | Hex | Oct | Bin | Caractere | Descrição |
|---|
Esta ferramenta processa os dados localmente no seu navegador. Nenhuma informação é enviada a servidores.
O que é a Tabela ASCII?
ASCII (American Standard Code for Information Interchange) é o padrão de codificação de caracteres mais influente da história da computação. Criado em 1963 e publicado como padrão em 1968, o ASCII define 128 caracteres usando 7 bits, atribuindo um valor numérico único a cada letra, dígito, sinal de pontuação e caractere de controle.
Estrutura da Tabela
Os 128 caracteres ASCII são divididos em categorias bem definidas:
- Caracteres de controle (0-31 e 127) — códigos não imprimíveis usados para controlar terminais e dispositivos. Incluem NUL, TAB, LF (nova linha), CR (retorno) e ESC.
- Espaço e caracteres especiais (32-47, 58-64, 91-96, 123-126) — sinais de pontuação e símbolos como !, @, #, $, %, & e outros.
- Dígitos (48-57) — os algarismos de 0 a 9.
- Letras maiúsculas (65-90) — de A a Z.
- Letras minúsculas (97-122) — de a a z.
ASCII na Programação
A tabela ASCII é fundamental em diversas operações de programação: conversão entre caracteres e valores numéricos, validação de entrada de dados, ordenação de strings, implementação de algoritmos criptográficos simples e comunicação via protocolos de rede. Em linguagens como C, Java, JavaScript e Python, cada caractere possui um valor ASCII que pode ser obtido e manipulado diretamente.
De ASCII para Unicode
Embora o ASCII tenha sido suficiente para o inglês, não suporta caracteres acentuados, ideogramas ou outros sistemas de escrita. O Unicode surgiu para resolver essa limitação, definindo mais de 149.000 caracteres. A codificação UTF-8, a mais usada na web, é compatível com ASCII — os primeiros 128 caracteres são idênticos.
Perguntas Frequentes
ASCII (American Standard Code for Information Interchange) é um padrão de codificação de caracteres criado em 1963. Define 128 caracteres (0 a 127), incluindo letras, dígitos, sinais de pontuação e caracteres de controle, usando 7 bits por caractere.
ASCII define apenas 128 caracteres (letras do alfabeto inglês, dígitos e símbolos básicos). Unicode é um padrão mais amplo que inclui mais de 149.000 caracteres, cobrindo praticamente todos os sistemas de escrita, emojis e símbolos técnicos. Os primeiros 128 caracteres do Unicode são idênticos ao ASCII.
Os caracteres de controle (0 a 31 e 127) são códigos não imprimíveis usados para controlar dispositivos de comunicação e terminais. Exemplos incluem NUL (nulo), LF (quebra de linha), CR (retorno de carro), TAB (tabulação) e ESC (escape). Foram essenciais na era dos teletipos e terminais.
A tabela ASCII padrão tem exatamente 128 caracteres (0 a 127), usando 7 bits. Desses, 33 são caracteres de controle (não imprimíveis) e 95 são caracteres imprimíveis (incluindo o espaço). O chamado "ASCII estendido" usa 8 bits e adiciona mais 128 caracteres (128 a 255), mas não é padronizado universalmente.
Para converter decimal para ASCII, basta encontrar o número na coluna Dec da tabela. Por exemplo, 65 corresponde à letra A, 97 à letra a e 48 ao dígito 0. Em programação, use String.fromCharCode(65) em JavaScript ou chr(65) em Python.
ASCII estendido refere-se a codificações de 8 bits que usam os valores 128 a 255 para caracteres adicionais como letras acentuadas e símbolos gráficos. Existem várias versões (ISO 8859-1, Windows-1252, etc.), sem um padrão único. Hoje, o Unicode (UTF-8) é preferido por ser universal.
Na programação, a tabela ASCII é fundamental para: converter letras para números e vice-versa, validar entradas de texto, implementar algoritmos de criptografia (como cifra de César), ordenar strings e trabalhar com protocolos de comunicação. É a base de codificações modernas como UTF-8.