codificação de caracteres
Uma codificação de caracteres é um padrão de relacionamento entre um conjunto de caracteres (representações de grafemas ou unidades similares a grafemas as que compõem um alfabeto ou silabário utilizados na comunicação através de uma linguagem natural) com um conjunto de outra coisa, como por exemplo, números ou pulsos elétricos com o objetivo de facilitar o armazenamento de texto em computadores e sua transmissão através de redes de telecomunicação. Exemplos comuns são o código Morse que codifica as letras do alfabeto latino e os numerais como sequências de pulsos elétricos de longa e curta duração e também o ASCII que codifica os mesmos grafemas do código morse além de outro símbolos através de números inteiros e da representação binária em sete bits destes mesmos números .
Convencionalmente, conjunto de caracteres e codificação de caracteres eram considerados sinônimos, já que o mesmo poderia especificar tanto quais caracteres estão disponíveis e como eles foram codificados em um fluxo de unidades de código (normalmente com um único caractere por unidade de código). No entanto, o Unicode afastou essa idéia de numerar uma série de caracteres de codificar esses caracteres em um fluxo de unidades de código. Para manter as nomenclaturas históricas e os sistemas baseados nelas, usa-se o termo Charset para se referir a uma codificação de caracteres. Tabela de caracteres ASCII
Os números são o idioma dos computadores. Então, como o seu computador usa o alfabeto para se comunicar com programas e outros computadores? Uma maneira é convertendo um conjunto de caracteres em uma representação numérica.
Na década de 60, a necessidade de padronização levou ao ASCII( código padrão americano para troca de informações). A tabela ASCII contém 128 números atribuídos aos caracteres correspondentes. O ASCII permite que os computadores armazenem e troque dados com outros computadores e programas.
O texto com formato ASCII não contém