quinta-feira, 28 de maio de 2009

Formatação de Texto




1.Conjuntos de caracteres

ASCII


A tabela de código ASCII (American Standard Code for Information Interchange) surgiu nos anos 60, devido a necessidade de criar um padrão que fosse utilizado por todos os computadores, tornando mais fácil a comunicação entre eles e a troca de dados.


A tabela ASCII utiliza conjuntos de 7 bits para representar 128 caracteres (2(7) caracteres), muitos deles adequados apenas à língua inglesa, por ter sido desenvolvida nos EUA.

A ISO ( International Standards Organization) adoptou o código ASCII como norma internacional, com a designação ISO 646, e ampliou-o, passando a incluir um conjunto de outros idiomas. Para conseguir esta ampliação tiveram de ser utilizados conjuntos de 8 bits 81byte), permitindo representar 256 caracteres (2 (8) caracteres), ou seja, aos 128 caracteres iniciais foram acrescentados mais 128. No entanto, estes 256 caracters continuavam a ser insuficientes para englobar todos os caracteres dos vários idiomas, sendo, por isso, necessário criar variantes regionais.


Através da norma ISO 8859, foram normalizados os conjuntos de caracteres de 8 bits, agrupando as variantes de idiomas relacionados geograficamente. Esta norma é constítuida por várias partes, desde o ISO 8859-1 até à ISO 8859-10, destinadas aos diversos idiomas, tais como: ISO 8859-1, conhecida por ISO Latin1 para a maioria dos países da Europa Ocidental, ISO 8859-8 para o Hebreu e ISO 8859-7 para o Grego moderno.

A norma ISO 8859 não pode ser considerada uma norma universal devido às limitações que apresenta na representação, em simultâneo, dos caracteres dos vários idiomas. Para resolver este problema a ISO introduziu em 1991 a norma ISO 10646 com 32 bits, representando 4 294 967 296 caracteres diferentes.





Tabela ASCII



Para se obter um caracter ASCII num processador de texto, a partir do teclado, pressiona-se a tecla ALT e , simultâneamente, no teclado numérico, digita-se o código da tabela ASCII correspondente ao caracter pretendido.





quarta-feira, 27 de maio de 2009

Unicode




O Unicode é também um código que define todos os caracteres da maior parte das línguas do Mundo. DF oi desenvolvido, em simultâneo, por um consórcio industrial, incluindo, entre outras companhias, a Apple, a Adobe, a Microsoft, a Hp, a IBM, a Grae/e, a SAP, a SUN e a Unisys. Permite utilizar conjuntos até 4 bytes (32 bits) para codificar os caracteres, sendo mais extenso que a tabela de código ASCII.

Os códigos disponibilizados pela Unicode permitem representar os caracteres utilizados pelos idiomas modernos e as formas clássicas de alguns idiomas. Codificam, entre outras, caracteres acentuados, símbolos de pontuação, símbolos técnicos e matemáticos e outros símbolos gráficos também conhecidos por dingbats ( por exemplo, estrelas e outras formas).

Actualmente é promovido e desenvolvido pela Unicode Consortium, uma organização sem fins lucrativos que coordena o padrão, e que possui a meta de eventualmente substituir esquemas de codificação de caracteres existentes pelo Unicode e pelos esquemas padronizados de transformação Unicode (chamado Unicode Transformation Format, ou UTF). O seu desenvolvimento é feito em conjunto com a Organização Internacional para Padronização (ISO) e compartilha o repertório de caracteres com o ISO/IEC 10646: o Conjunto Universal de Caracteres (UCS). Ambos funcionam equivalentemente como codificadores de caracteres, mas o padrão Unicode fornece muito mais informação para implementadores, cobrindo em detalhes tópicos como ordenação alfabética e visualização.
O seu sucesso em unificar conjuntos de caracteres levou a um uso amplo e predominante na
internacionalização e localização de programas de computador. O padrão foi implementado em várias tecnologias recentes, incluindo XML, Java e sistemas operacionais modernos.




EBCDIC

Extended Binary Coded Decimal Interchange Code (EBCDIC), desenvolvido pela IBM, é um código de 8 bits utilizado em texto e na maioria das operações relacionadas com as comunicações e o controlo das impressoras.

Representa uma primeira tentativa de normalização em paralelo com a normalização ASCII utilizada pelo governo dos Estados Unidos da América no final dos anos 1960.

Este código surgiu com o System/360 IBM e continua a ser utilizado por esta empresa nos computadores de grande porte (mainframes) e na maioria dos computadores de médio porte.

Fontes

2. Fontes - Definição

As fontes são conjuntos de caracteres que podem corresponder a letras, números ou símbolos. Estas são armazenadas em ficheiros de fontes onde são descritas as suas características físicas, ou seja, como vão ser visualizadas no ecrã e impressas. As fontes são identificadas por nomes e classificadas segundo determinadas famílias.
Designa-se por família um agrupamento de caracteres cujos traços são semelhantes, isto é, com características e detalhes idênticos que se repetem por todos eles.

Conjunto de caracteres que podem corresponder:
• Letras
• Números
• Ou símbolos

terça-feira, 26 de maio de 2009

Características das fontes

Um tipo de fonte descreve um conjunto de características, como o desenho, o tamanho, o espaçamento e a largura dos seus caracteres. Para além destas características, um tipo de fonte tem associados estilos como o itálico, o negrito e o negrito itálico.
Os tipos de fontes são utilizados para reproduzir texto no ecrã e na impressão.
O tamanho de uma fonte utiliza como unidade de medida o ponto (pt) que corresponde aproximadamente a 0,3528mm.
Existem dois tipos de fontes: bitmapped e escaladas. Estes dois tipos são semelhantes, respectivamente, em termos de concepção, ás imagens bitmap e vectoriais.


Características das fontes:
• Desenho
• Tamanho
• Espaçamento e a largura dos caracteres

Tem associado:
Estilo – itálico
- negrito
- Negrito itálico

Tipos de fontes:

• Bitmapped – guardadas como uma matriz de píxeis, logo ao serem ampliadas perdem qualidade;

• Escaladas (Type 1, TrueType e OpenType) – são definidas matematicamente e podem ser interpretadas para qualquer tamanho;

Fontes bitmapped

As fontes bitmapped são guardadas como uma matriz de pixeís e, por conseguinte, ao serem ampliadas, perdem a qualidade. São concebidas com uma resolução e um tamanho especificos para uma impressora especifica, não podendo ser escaladas. As cinco fontes bitmapped são: courier, MS Sans Serif, MS Serif, Small e Symbol.





Fonte Courier


Se uma impressora não suportar estas fontes, estas não serão impressas.


segunda-feira, 25 de maio de 2009

Fontes Escaladas





Fontes escaladas (TYPE1, TRUE TYPE, OPEN TYPE)



As fontes escaladas, ao contrário das fontes bitmapped, são definidas matematicamente e podem ser intrepertadas( rendering) para qualquer tamanho que forem requisitadas.


Estas fontes contêm informação para construir os seus contornos através de linhas e curvas que são preenchidas para apresentarem um aspecto de formas contínuas, tais como as fontes TYPE1, TRUE TYPE e OPEN TYPE.

As fontes foram desenvolvidas pela Adobe e são o formato nativo do Postsript.




Type 1- desenvolvidas pela Adobe, do formato PostScript, desenvolvidas para trabalhar com impressoras.




As informações são guardadas nos ficheiros: PFB e PFM:




PFB – Contém informação sobre os contornos dos caracteres




PFM – Informações sobre a métrica da fonte impressa







True Type – Inicialmente desenvolvidas pela Apple.


- Cada fonte contem o seu próprio algoritmo para converter as linhas de contorno em bitmaps.
- Impressas como aparecem no ecrã
- As informações são guardadas no Windows num ficheiro com extensão TTF (True Type File)


Fonte TrueType


Open Type – Criadas pela Apple e Microsoft para melhorar a potabilidade e a independência dos documentos:



– simplifica a gestão das fontes