segunda-feira, 29 de março de 2010

Ônibus espacial

História:
Um ônibus espacial (Brasil) ou vaivém espacial (Portugal) é o veículo parcialmente reutilizável usado pela NASA como veículo lançador e nave para suas missões tripuladas. Ele tornou-se o sucessor da nave Apollo usada durante o Projeto Apollo. O ônibus voou pela primeira vez em 1981.

O projeto de construção de veículos espaciais reutilizáveis remonta a 1975, quando foram feitos os primeiros testes de um protótipo acoplado a um avião Boeing 747 adaptado a testes de vôo a grande altura. O objectivo foi testar a aerodinâmica e a manobrabilidade do Ônibus Espacial.

Foram construídas cinco naves deste tipo, chamadas Columbia, Challenger, Discovery, Atlantis e Endeavour, que foram usadas em diversas missões no espaço. Destas apenas a Discovery, a Atlantis e a Endeavour ainda existem, já que as outras acabaram destruídas em acidentes que se tornaram tragédias da história da exploração espacial.


Ainda foram construídas mais duas naves, uma chamada Enterprise, usada apenas para testes de aterragem, mas sem capacidade de entrar em órbita, e a outra chamada Pathfinder, um simulador usado para treino dos astronautas.

Ainda devemos citar os dois veículos reutilizáveis da URSS, chamados Buran e Ptichka. Destes apenas o Buran chegou a voar, em 1988, em uma missão não tripulada. Ambas as naves foram desmontadas em novembro de 1995 após o abandono do projeto.


Estrutura:
O Ônibus Espacial é constituído por três partes: o veículo reutilizável, um tanque externo e dois foguetes propulsores de combustível sólido. O Ônibus Espacial é operado por motores traseiros e 44 mini-jatos de controle de órbita. A decolagem é feita na vertical, auxiliada pelos foguetes e aterra como avião (em uma pista convencional).

O veículo reutilizável possui asas em formato delta largo. É composto por uma estrutura de alumínio, sendo coberto/revestido por uma superfície de isolamento reutilizável , em formas de placas cerâmicas adensadas, cor preta, estas placas resistem aos 2.500 graus celsius da reentrada e são peças únicas projetadas uma à uma, individualmente por computador e coladas manualmente com um adesivo térmico especial ao corpo da espaçonave, em especial no Nariz e Bordos de ataque das asas e leme. O nariz, parte das asas e toda a parte inferior da nave estão cobertos por pequenas peças de cerâmica, a fim de resistir à elevada temperatura gerada através do atrito com a atmosfera quando o veículo regressa à Terra. Estas peças são numeradas, colocadas manualmente, e não existem duas peças iguais. Os 49 foguetes da nave possuem diferentes funções. Entre as principais funções estão a de descolagem, controle de reentrada e controle de rota.



A energia elétrica da nave é fornecida por células de combustível que produzem, como subproduto da operação , água potável , que é aproveitada pela tripulação porém seu excedente é descartado no espaço , saindo imediatamente como gelo quando em sombra ou vaporizando-se se em contato com a luz do Sol no espaço . A parte central da nave possui um compartimento de carga, capaz de levar ao espaço até quatro satélites. Esta estrutura está adaptada a transportar o laboratório Spacelab, assim como seu resgate de volta ao planeta. Um braço mecânico, chamado Remote Manipnulator System, de construção Canadense é operado pelos tripulantes na cabine de controle. Esse sistema é responsável em colocar os carregamentos em operação para fora do ônibus.

A parte frontal da nave possui o alojamento da tripulação e a cabine de comando. Esta área do ônibus espacial é semelhante às cabines dos aviões convencionais, porém, algumas características diferenciam os comandos de vôo espacial e vôo aéreo. A parte anterior do convés têm quatro estações de serviço, como o controle do sistema de manipulação à distância. O compartimento de carga tem seu ar retirado quando é necessário aos astronautas realizarem alguma actividade fora da nave. A entrada dos tripulantes na nave é através de uma escotilha, localizada na frente da nave, no alojamento da tripulação.

O tanque externo possui os mesmos propelentes utilizados pelos propulsores principais. Sua estrutura externa protege três tanques internos. Na parte frontal, um tanque contém oxigênio líquido sob pressão. Outro tanque interno contém a maioria dos equipamentos electrônicos, e um tanque traseiro comporta hidrogênio líquido sob pressão. As paredes do tanque externo são formadas por uma liga de alumínio, com 5,23 centímetros de espessura. Os propelentes são liberados para os sistemas principais de propulsão da nave, através da pressão do gás libertado pela própria combustão. Tal procedimento é feito de forma controlada.

Tanque externo em queda livre


Os 2 foguetes propulsores principais , dispostos lateralmente ao tanque fornecem a maior parte do impulso de lançamento. O propulsor é formado por quatro unidades tubulares de aço. Na parte frontal do foguete há uma cápsula em forma de ogiva que contém 4 pára-quedas, que são acionados em dois estágios para que ele caia no mar sem ser danificado para que possa ser reutilizado. A parte inferior do foguete tem um bico dirigível. O propulsor também é formado por oito pequenos foguetes, responsáveis pela separação deste do veículo espacial. Cada propulsor contém combustível sólido, que é acionado por um pequeno foguete motor. As chamas do foguete passam pelo interior do propulsor, atingindo o máximo impulso em menos de meio segundo.

Os ônibus espaciais são exclusivamente de trajetória orbital, ao contrário das naves Apollo e das naves Orion, já que suas limitações de vôo os impedem de sair da órbita terrestre baixa ; assim sendo , seria impossível por exemplo , que eles - os ônibus espaciais , viajassem até a lua.



Lançamento:
O lançamento é feito da mesma maneira que os foguetes: numa plataforma móvel , com o veículo na posição vertical preso ao tanque de combustível líquido central (hidrogênio e oxigênio líquidos ) , que por sua vez é preso aos dois foguetes laterais . No momento do lançamento, os sistemas de propulsão do veículo exercem um impulso de aproximadamente 30.800.000 Newton . A maioria da "fumaça' liberada no lançamento , é na verdade vapor d'água , uma vez que sob a base do foguete , existe um grande volume de água , como uma piscina que é responsável pela absorção do calor na plataforma , água esta que se evapora rapidamente durante o lançamento , dando a impressão de ser fumaça . Este valor de 30.800.000 newtons equivale a soma do impulso de descolagem de 30 aviões do modelo Jumbo/Boeing 747. Quando o ônibus espacial atinge 45 km de altitude, os 2 foguetes propulsores se separam do tanque principal central cor laranja e pousam no mar - primeiramente com a abertura de um para-quedas para em seguida e próximo ao mar , totalizar a abertura de 3 para-quedas cada foguete , pousando com relativa suavidade para em seguida serem recuperados por navios que os rebocam de volta à base através de longos cabos . Já o tanque central - elemento cor laranja de pouco mais de 700 toneladas , ao chegar a 110 km da superfície , quando o combustível deste se esgota ; acaba, este tanque externo separa-se da nave , sendo descartado - ele é o único elemento que não é reutilizável em cada missão , pois destróe-se completamente na operação de reentrada na atmosfera , sendo necessário a construção de um novo tanque para cada lançamento do ônibus , já que a estrutura toda deste tanque acaba se desintegrando ao reentrar na atmosfera. Um dado notável é leveza deste tanque , apesar das quase 700 toneladas , este pode ser considerado leve pois tem uma espessura de parede menor do que 2 centímetros !!! sendo feito em alumínio , com soldas robóticas de altíssima precisão, foi alvo de muita pesquisa pela NASA , visando a redução de seu peso , para uma maior economia no lançamento.



Os sistemas de manobras orbitais encarregam-se de colocar o ônibus espacial em órbita. No espaço, o veículo está apto a realizar diversas missões. O transporte de satélites e sondas espaciais, a reparação ou resgate de artefatos que estão em órbita e a realizações de pesquisas científicas são as principais funções do Space Shuttle - ônibus espacial em inglês.

quinta-feira, 25 de março de 2010

Freios ABS

O freio ABS (acrônimo para a expressão alemã Antiblockier-Bremssystem, embora mais frequentemente traduzido para a inglesa Anti-lock Braking System) é um sistema de frenagem (travagem) que evita que a roda bloqueie (quando o pedal de freio é pisado fortemente) e entre em derrapagem, deixando o automóvel sem aderência à pista. Assim, evita-se o descontrole do veículo (permitindo que obstáculos sejam desviados enquanto se freia) e aproveita-se mais o atrito estático, que é maior que o atrito cinético (de deslizamento). A derrapagem é uma das maiores causas ou agravantes de acidentes; na Alemanha, por exemplo, 40% dos acidentes são causados por derrapagens.


História:
Os primeiros sistemas ABS foram desenvolvidos inicialmente para aeronaves. Um sistema primitivo foi o sistema Maxaret de Dunlop, introduzido na década de 1950 e ainda utilizado em alguns modelos de aeronaves. Era um sistema totalmente mecânico.

O freio ABS atual foi criado pela empresa alemã Bosch, tornando-se disponível para uso em 1978, com o nome "Antiblockiersystem".

A versão atual do sistema (8.0) é eletrônica e pesa menos que 1,5 kg, comparado com os 6,3 kg da versão 2.0, de 1978.


Funcionamento:
O ABS atual é um sistema eletrônico que, utilizando sensores, monitora a rotação de cada roda e a compara com a velocidade do carro. Em situações de frenagem cotidianas, o sistema ABS não é ativado. Quando a velocidade da roda cai muito em relação à do carro, ou seja, na iminência do travamento, o sistema envia sinais para válvulas e bombas no sistema de óleo do freio, aliviando a pressão. Essa operação causa uma vibração quando se "pisa fundo" no pedal do freio, o que deve ser considerado pelo motorista como operação normal do sistema (leia mais em Efetividade do ABS).

A física da derrapagem
A vantagem do freio ABS se baseia num conhecimento da física. Quando as rodas ainda estão em movimento, elas sofrem com a superfície na qual deslizam uma força de atrito estático. Quando derrapam, elas sofrem uma força de atrito cinético. Como a força máxima de atrito estático tem sempre um valor maior do que a força máxima de atrito cinético, é mais vantajoso para a frenagem que a roda diminua sua rotação em movimento do que simplesmente travar.



Preço:
No Brasil, cerca de apenas 13% dos carros são equipados com ABS, enquanto na Europa e nos Estados Unidos o freio ABS faz parte, respectivamente, de 100% e 74% dos carros produzidos anualmente.

Um dos motivos desses índices é o fato de o freio ABS ser um item opcional caro no Brasil. O item é importado, elevando o preço do automóvel em cerca de R$ 3 mil. O desconhecimento dos brasileiros sobre o sistema ABS e suas vantagens à segurança do motorista faz com que haja uma pouca valorização do item no preço de revenda do automóvel que o possui.

Porém a empresa Bosch anunciou que começou a produzir o equipamento na cidade paulista de Campinas. Boa parte das peças ainda é importada, mas a empresa garante que o processo já é suficiente para baratear o equipamento no mercado brasileiro.


Efetividade do ABS:
Em superfícies como asfalto e concreto, tanto secas quando molhadas, a maioria dos carros equipados com ABS são capazes de atingir distâncias de frenagem melhores (menores) do que aqueles que não o possuem. Um motorista experiente sem ABS pode ser capaz de quase reproduzir ou até atingir, através de técnicas como o threshold breaking, o efeito e a performance do carro que possui ABS. Entretanto, para a maioria dos motoristas, o ABS reduz muito a força do impacto ou as chances de se sofrer impactos. A técnica recomendada para motoristas não experientes que possuem um carro com ABS, em uma situação de frenagem completa de emergência, é pressionar o pedal de freio o mais forte possível e, quando necessário, desviar dos obstáculos. Com freios normais, o motorista não pode desviar de obstáculos enquanto freia, já que as rodas estarão travadas. Dessa maneira, o ABS irá reduzir significativamente as chances de derrapagem e uma subseqüente perda de controle.


Em pedregulhos e neve forte, o ABS tende a aumentar a distância de frenagem. Nessas superfícies, as rodas travadas escavam o solo e param o veículo mais rapidamente. O ABS impede que isso ocorra. Algumas calibragens de ABS reduzem esse problema por diminuir o tempo de ciclagem, deixando as rodas rapidamente travar e destravar. O benefício primário do ABS nessas superfícies é aumentar a capacidade do motorista em manter o controle do carro em vez de derrapar, embora a perda de controle seja por vezes melhor em superfícies mais suaves como pedregulhos e deslizantes como neve ou gelo. Em uma superfície muito deslizante como gelo ou pedregulhos é possível que se trave todas as rodas imediatamente, e isso pode ser melhor que o ABS (que depende da detecção da derrapagem de cada roda individualmente). A existência do ABS não deve intimidar os motoristas a aprender a técnica do threshold breaking.

Quando ativado, o ABS faz com que o pedal de freio pulse notavelmente. Como a maioria dos motoristas raramente ou nunca freiou forte o suficiente para causar a travagem das rodas, e um número significante raramente se importa em ler o manual do carro, essa característica pode ser descoberta só no momento da emergência. Quando os motoristas se defrontam com a emergência que faz com que freiem forte e consequentemente enfrentam a pulsação do pedal pela primeira vez, muitos estranham e diminuem a pressão do pedal, consequentemente aumentando as distâncias de frenagem, contribuindo muitas vezes para um número de acidentes maior do que a habilidade especial do ABS seria capaz de reduzir. Alguns fabricantes implementaram então sistemas de avaliação de frenagem que determinam se o motorista está tentando fazer uma frenagem de emergência e mantém a força nesta situação. Apesar de tudo, o ABS pode significativamente melhorar a segurança e o controle dos motoristas sobre o carro em situações de trânsito se eles souberem que não devem soltar o pedal quando o sentir pulsar, graças ao ABS.



Perfil do usuário:
Os freios ABS são objeto de estudo de muitos experimentos em favor da teoria da compensação de risco, que defende que os motoristas se adaptam à segurança proporcionada pelo sistema ABS e passam a dirigir mais agressivamente.

Os dois maiores exemplos destes estudos são os das cidades de Munique e Oslo. Em ambos os casos, foram comparados taxistas de diferentes frotas, provando que os que possuíam carros equipados com ABS apresentavam um comportamento de risco maior do que aqueles que não possuíam ABS. No entanto, as taxas de colisões entre os que utilizavam ABS e os que não utilizavam não foram significativamente diferentes.

terça-feira, 23 de março de 2010

Laptop ou Notebook

Um laptop (no Brasil, também é chamado de notebook) ou computador portátil (em Portugal, abreviado frequentemente de portátil) é um computador portátil, leve, designado para poder ser transportado e utilizado em diferentes lugares com facilidade. Geralmente um laptop contém tela de LCD (cristal líquido), teclado, mouse (geralmente um touchpad, área onde se desliza o dedo), unidade de disco rígido, portas para conectividade via rede local ou fax/modem, gravadores de CD/DVD, os mais modernos não possuem mais a entrada para discos flexíveis (disquetes), quando há a necessidade de utilizar um desses conecta-se um adaptador a uma das portas USB.

Segundo o dicionário Aurélio, existe uma pequena distinção entre Laptop e Notebook, sendo o notebook aproximadamente do mesmo tamanho de um caderno universitário e necessariamente menor que o laptop. Apesar disso, não existe uma convenção oficial sobre a nomenclatura e na linguagem popular o uso dos dois nomes se faz de forma aleatória, sendo os computadores portáteis pequenos ocasionalmente chamados de laptops e os computadores portáteis grandes ocasionalmente chamados de notebooks.

A expressão laptop deriva da aglutinação dos termos em inglês lap (colo) e top (em cima) significando computador portátil, em contrapartida aos desktop (em cima da mesa).

Laptops podem ser divididos em duas categorias: os portáteis, voltados especialmente aos que necessitam de um computador como acessório de trabalho, mas que locomovem-se com frequência entre um lugar e outro, e os desktops replacements, voltados a pessoas que querem computadores com alguma mobilidade, e com perfomance semelhante à de um computador de mesa.

Laptops portáteis são pequenos e leves, e são designadas de modo a fazerem com que suas baterias sejam capazes de abastecer o laptop por um longo período, quatro a cinco horas ou mais). Isto vem a custo de outras especificações do laptop, como RAM (raramente superior a 1 GB), placa de vídeo (raramente superior a 128 MB, compartilhado), velocidade do processador raramente superior a 1,8 GHz, e raramente mais do que 80 GB de espaço no hard drive. As telas mais comuns são as de 14" (ou 14,1" em widescreen) e 15" (ou 15,4" em widescreen).


Atuais desktops replacements, por outro lado, são designados de modo a possuirem perfomance comparável a bons computadores de mesa (2 GB ou mais de RAM, placa de video 512 Mb dedicado, 160 GB de espaço ou mais e até 2,8 GHz (Core DUO, Core 2 DUO e até Quadre Core) de velocidade do processador. Tais laptops, voltados aos que querem perfomance (para uso de aplicativos pesados, tais como jogos, por exemplo) estão ficando mais leves, relativamente menores, e gastam mais lentamente suas baterias (que normalmente dura no maximo em laptops com baterias de 9 células 4 horas,no caso de aplicativos medios em peso). Desktop replacements comuns possuem entre 15 e 17 polegadas, embora alguns laptops possuam 19 ou mesmo 20 polegadas. Novos laptops tem tamanho de uma agenda e finos como uma capa de dvd, como um da Acer e Asus. eles são chamados de netbooks.



Osborne 1, um antigo laptop



Atualmente, muitos laptops são dotados de adaptadores de rede wireless, que possibilitam a conexão a redes de computadores sem fio. Essas redes podem ser instaladas em escritório, e já é muito comum encontrar também em residencias. Com os adaptadores wireless, os usuários de laptops podem acessar a internet em diversos estabelecimentos, tais como restaurantes e aeroportos, sem a necessidade de conectar fios, desde que esses locais ofereçam o serviço. O acesso à rede sem fio também pode ser controlada, sendo que o internauta somente poderá se conectar à rede através do uso de senhas ou cartões. Esse tipo de tarifação tem sido muito utilizada pois fornece ao estabelecimento a possibilidade de, além de cobrar pelo serviço oferecido, ter controle de todos os usuários do serviço. Um dos grandes exemplos de sistemas de tarifação é o ACCESSCARD, onde o internauta compra cartões pré-pagos, com tempo definido, e se loga ao sistema através da inserção de um código impresso no cartão. Mas hoje as operadoras de celular cobram uma taxa fixa de navegação de dados 3G.

domingo, 21 de março de 2010

Cabos USB

Universal Serial Bus (USB) é um tipo de conexão "ligar e usar" que permite a conexão de periféricos sem a necessidade de desligar o computador.

Antigamente, instalar periféricos em um computador obrigava o usuário a abrir a máquina, o que para a maioria das pessoas era uma tarefa quase impossível pela quantidade de conexões internas, que muitas vezes eram feitas através de testes perigosos para o computador, sem falar que na maioria das vezes seria preciso configurar jumpers e interrupções IRQs, tarefa difícil até para profissionais da área.

O surgimento do padrão PnP (Plug and Play) diminuiu toda a complicação existente na configuração desses dispositivos. O objetivo do padrão PnP foi tornar o usuário sem experiência capaz de instalar um novo periférico e usá-lo imediatamente sem mais delongas. Mas esse padrão ainda era suscetível a falhas, o que causava dificuldades para alguns usuários.

O USB Implementers Forum foi concebido na óptica do conceito de Plug and Play, revolucionário na altura da expansão dos computadores pessoais, feito sobre um barramento que adota um tipo de conector que deve ser comum a todos os aparelhos que o usarem, assim tornando fácil a instalação de periféricos que adotassem essa tecnologia, e diminuiu o esforço de concepção de periféricos, no que diz respeito ao suporte por parte dos sistemas operacionais (SO) e hardware. Assim, surgiu um padrão que permite ao SO e à placa-mãe diferenciar, transparentemente:

* A classe do equipamento (dispositivo de armazenamento, placa de rede, placa de som, etc);
* As necessidades de alimentação elétrica do dispositivo a uma distância de ate 5 metros sem a necessidade de outro equipamento, caso este não disponha de alimentação própria;
* As necessidades de largura de banda (para um dispositivo de vídeo, serão muito superiores às de um teclado, por exemplo);
* As necessidades de latência máxima;
* Eventuais modos de operação internos ao dispositivo (por exemplo, máquina digital pode operar, geralmente, como uma webcam ou como um dispositivo de armazenamento - para transferir as imagens).


Ainda, foi projetado de maneira que possam ser ligados vários periféricos pelo mesmo canal (i.e., porta USB). Assim, mediante uma topologia em árvore, é possível ligar até 127 dispositivos a uma única porta do computador, utilizando, para a derivação, hubs especialmente concebidos, ou se por exemplo as impressoras ou outro periféricos existentes hoje tivessem uma entrada e saida usb, poderíamos ligar estes como uma corrente de até 127 dispositivos, um ligado ao outro, os quais o computador gerenciaria sem nenhum problema, levando em conta o tráfego requerido e velocidade das informação solicitadas pelo sistema. Estes dispositivos especiais (os hub's anteriormente citados) - estes também dispositivos USB, com classe específica -, são responsáveis pela gestão da sua sub-árvore e cooperação com os nós acima (o computador ou outros hubs). Esta funcionalidade foi adaptada da vasta experiência em redes de bus, como o Ethernet - o computador apenas encaminhará os pacotes USB (unidade de comunicação do protocolo, ou URB, do inglês Uniform Request Block) para uma das portas, e o pacote transitará pelo bus até ao destino, encaminhado pelos hubs intermediários.


Concepção:
O padrão USB foi desenvolvido por um consórcio de empresas, entre as quais destacam-se: Microsoft, Apple, Hewlett-Packard, NEC, Intel e Agere.

Foi muito difícil para estas empresas encontrar um consenso sobre a abordagem do controlador. Dividiram-se então as opiniões, formando dois grupos distintos:
* UHCI - Universal Host Controller Interface, apoiado majoritariamente pela Intel, que transferia parte do processamento do protocolo para o software (driver), simplificando o controlador eletrônico;
* OHCI - Open Host Controller Interface, apoiado pela Compaq, Microsoft e National Semiconductor, que transferia a maior parte do esforço para o controlador eletrônico, simplificando o controlador lógico (driver).


Isto gerou algumas incompatibilidades e lançou a ameaça de dispersão do padrão. Pela experiência anterior em casos de adaptação de padrões (como o caso das extensões individualistas do HTML da Microsoft e da Netscape à versão 3 deste protocolo que, frequentemente, quebrava a compatibilidade entre sites), agora podia-se confirmar a desvantagem de não se conseguir a universalização. Porém, traria novas conclusões para a versão 2.0 deste protocolo, desta vez unidos sob o modelo EHCI, Enhanced Host Controller Interface, permitindo colmatar as falhas e reunir as qualidades dos dois modelos anteriores; mas sem dúvida, o avanço notável desta versão seria o aumento da largura de banda disponível - tornava-se agora possível, com um único driver, transferir som, vídeo e ainda assim usar a impressora, portudo isto pelo mesmo canal - até um total de 480 Megabaites/s no usb 2.0, e 4,8 GiB/s no usb 3.0.



História das versões:
* USB 0.7: Lançado em Novembro de 1994;
* USB 0.8: Lançada em Dezembro de 1994;
* USB 0.9: Lançada em Abril de 1995;

* USB 0.99: Lançado em Agosto de 1995;

* USB 1.0: Lançado em Janeiro de 1996, com taxas de transferência de dados de 1,5 Mbit / s (baixa velocidade) e 12 Mbit / s (Velocidade máxima);

* USB 2.0: Lançado em Abr. de 2000 com a velocidade de 480 Mbps;

* USB 3.0: Lançado em Set. de 2009 com a velocidade de 4,8 Gbps.




USB 1.1:
O padrão 1.1 foi lançado em 1998 para corrigir problemas encontrados no padrão 1.0. Ao ser lançado o padrão USB 1.1 trouxe uma série de vantagens pois graças a uma interface única, a tarefa de conectar diversos tipos de aparelho ao computador tornou-se mais fácil, e aumentou o diversificação de tipos de periféricos, porém tinha como um grande ponto fraco a baixa velocidade na transição de dados (1,5 a 12 Mbps), elevado em consideração as portas seriais, mas muito deficiente em relação a outros tipos de barramentos como o SCSI (80 a 160 Mbps) e o FireWire (400Mbps), principal concorrente cujo o maior desenvolvedor era a Apple. Até então a baixa transição não era um agravante para as aplicações da época, mas à medida que o uso crescia aumentava a necessidade de taxas maiores na transferência de dados entre um dispositivo e o computador, prejudicando o uso de equipamentos como HDs removíveis, gravadores de DVDs externos , e scanner de alta resolução tornando-se nesse necessário o upgrade do padrão.



USB 2.0:
O padrão USB 2.0 foi lançado em abril de 2000 com a velocidade de 480 Mbps, o equivalente a cerca de 60 MB por segundo. O conector continuou sendo o mesmo da versão anterior, totalmente compatível com dispositivos que funcionam com o USB 1.1, mas nesse caso com a mesma velocidade de transferência reduzida do padrão 1.1. Isso ocorre porque o barramento USB 2.0 tentará se comunicar à velocidade de 480 Mbps. Se não conseguir, tentará a velocidades mais baixas até obter êxito.

Uma outra novidade importante é que, a partir dessa versão, os fabricantes poderiam adotar o padrão em seus produtos sem a obrigatoriedade de pagar uma licença de uso da tecnologia. Esse foi um fator importante para a ampliação de novos periféricos que usam a tecnologia e o barateamento desses periféricos.

O lançamento do USB 2.0 também trouxe outra vantagem: o padrão FireWire foi padronizado principalmente para trabalhar com aplicações que envolvem vídeo e áudio, mas como a velocidade do USB 2.0 supera a velocidade das primeiras implementações do FireWire, ele também se tornou uma opção viável para aplicações multimídia, o que aumentou seu leque de utilidades.



USB 3.0:
Mantendo praticamente a mesma arquitetura e a mesma praticidade do USB 2.0, a sua designação comercial será USB SuperSpeed. Caracteriza-se principalmente por um aumento das velocidades de transferência que será de 4,8 Gigabits por segundo, o equivalente a mais ou menos 614.4 MiB/segundo, e ser full-duplex (transferindo dados bidirecionalmente, capacidade semelhante às ligações de rede). Encontra-se disponível as especificações da versão 3.0. Espera-se que comece a circular em 2010, que seja norma generalizada em 2011/2012, tendo sido recentemente anunciado pela empresa Buffalo, para o fim do mês de Outubro de 2009, o lançamento de um disco rígido externo que emprega a plataforma USB 3.0 Primeiro HD com USB 3.0.



Alguns dispositivos:
Entre os mais conhecidos dispositivos que utilizam-se da interface USB estão:

* Webcam;
* Teclado;
* Mouse;
* Unidades de armazenamento (HD, Pendrive, CD-ROM);
* Joystick;
* Gamepad;
* PDA;
* Câmera digital;
* Impressora;
* Placa-de-Som;
* Modem;
* MP3 Player;
* Alguns dispositivos usam apenas a alimentação eléctrica da USB sem nenhuma função de comunicação ou controle. São exemplos: pequenas luminárias e ventiladores;
* Adaptadores Bluetooth.

Entre os Sistemas Operacionais que oferecem suporte nativo à interface USB podemos citar:
* Linux;
* FreeBSD;
* Microsoft Windows 95 OSR 2.0, 2.1, 2.5 (apenas para a versão 1.1);
* Microsoft Windows 98, 98 (Second Edition);
* Microsoft Windows ME;
* Microsoft Windows 2000;
* Microsoft Windows XP;
* Microsoft Windows 2003;
* Microsoft Windows Vista;
* Microsoft Windows 7;
* Mac OS;
* Mac OS X;
* BeOS;
* Solaris.

sábado, 20 de março de 2010

Roteador

Roteador (estrangeirismo do inglês router, ou encaminhador) é um equipamento usado para fazer a comutação de protocolos, a comunicação entre diferentes redes de computadores provendo a comunicação entre computadores distantes entre si.

Roteadores são dispositivos que operam na camada 3 do modelo OSI de referência. A principal característica desses equipamentos é selecionar a rota mais apropriada para encaminhar os pacotes recebidos. Ou seja, escolher o melhor caminho disponível na rede para um determinado destino.

   


Funcionamento:
Os roteadores utilizam tabelas de rotas para decidir sobre o encaminhamento de cada pacote de dados recebido. Eles preenchem e fazem a manutenção dessas tabelas executando processos e protocolos de atualização de rotas, especificando os endereços e domínios de roteamento, atribuindo e controlando métricas de roteamento. O administrador pode fazer a configuração estática das rotas para a propagação dos pacotes ou pode configurar o roteador para que este atualize sua tabela de rotas através de processos dinâmicos e automáticos.

Os roteadores encaminham os pacotes baseando-se nas informações contidas na tabela de roteamento. O problema de configurar rotas estaticas é que, toda vez que houver alteração na rede que possa vir a afetar essa rota, o administrador deve refazer a configuração manualmente. Já a obtenção de rotas dinamicamente é diferente. Depois que o administrador fizer a configuração através de comandos para iniciar o roteamento dinâmico, o conhecimento das rotas será automaticamente atualizado sempre que novas informações forem recebidas através da rede. Essa atualização é feita com a troca de informações entre roteadores vizinhos em uma rede.





Protocolos de roteamento: 
São protocolos que servem para trocar informações de construção de uma tabela de roteamento. É importante ressaltar a diferença entre protocolo de roteamento e protocolo roteável. Protocolo roteável é aquele que fornece informação adequada em seu endereçamento de rede para que seus pacotes sejam roteados, como o TCP/IP e o IPX. Protocolo de roteamento possui mecanismos para o compartilhamento de informações de rotas entre os dispositivos de roteamento de uma rede, permitindo o roteamento dos pacotes de um protocolo roteado. Exemplo de protocolo de roteamento: RIP, OSPF, IGRP , BGP, EGP, etc.

Parte interna de um roteador, a saber: 1 eletrônica do telefone (para ADSL) 2 LED de status da rede 3 LED de status do USB 4 processador da Texas Instruments 5 porta JTAG de teste e programação 6 memória RAM de 8 MB 7 memória flash 8 regulador da alimentação 9 fusível da alimentação principal 10 conector de energia 11 botão de reiniciar 12 cristal de quartzo 13 porta ethernet 14 transformador ethernet 15 transmissor e receptor ethernet 16 porta USB 17 porta do telefone (RJ11) 18 fusível do conector de telefone.


Tipos:
Entre meados da década de 1970 e a década de 1980, microcomputadores eram usados para fornecer roteamento. Apesar de computadores pessoais poderem ser usados como roteadores, os equipamentos dedicados ao roteamento são atualmente bastante especializados, geralmente com hardware extra para acelerar suas funções como envio de pacotes e encriptação IPsec.

Roteadores modernos de grande porte assemelham-se a centrais telefônicas, cuja tecnologias atualmente estão sendo convergidas, e que no futuro os roteadores podem até mesmo substituir por completo.

Um roteador que conecta um cliente à Internet é chamado roteador de ponta. Um roteador que serve exclusivamente para transmitir dados entre outros roteadores (por exemplo, em um provedor de acesso) é chamado um roteador núcleo. Um roteador é usado normalmente para conectar pelo menos duas redes de computadores, mas existe uma variação especial usada para encaminhar pacotes em uma VLAN. Nesse caso, todos os pontos de rede conectados pertencem à mesma rede.

sexta-feira, 19 de março de 2010

Nanotecnologia

A nanotecnologia está associada a diversas áreas (como a medicina, eletrônica, ciência da computação, física, química, biologia e engenharia dos materiais) de pesquisa e produção na escala nano (escala atômica). O princípio básico da nanotecnologia é a construção de estruturas e novos materiais a partir dos átomos (os tijolos básicos da natureza). É uma área promissora, mas que dá apenas seus primeiros passos, mostrando, contudo, resultados surpreendentes (na produção de semicondutores, Nanocompósitos, Biomateriais, Chips, entre outros). Criada no Japão, a nanotecnologia busca inovar invenções, aprimorando-as e proporcionando uma melhor vida ao homem. Um dos instrumentos utilizados para exploração de materiais nessa escala é o Microscópio eletrônico de varredura, o MEV.

Imagem de um circuito integrado ampliada 2400 vezes.


O objetivo principal não é chegar a um controle preciso e individual dos átomos, mas elaborar estruturas estáveis com eles.


Nanômetro:
Richard P. Feynman foi o precursor do conceito da Nanotecnologia, embora não tenha utilizado este termo em sua palestra para a Sociedade Americana de Física, em 29 de dezembro de 1959, onde apresentou pela primeira vez suas idéias acerca do assunto. A palavra "Nanotecnologia" foi utilizada pela primeira vez pelo professor Norio Taniguchi em 1974 para descrever as tecnologias que permitam a construção de materiais a uma escala de 1 nanômetro. Para se perceber o que isto significa;km de extensão e um grão de areia de 1 mm, este grão está para esta praia como um nanômetro está para o metro. Em alguns casos, elementos da escala periódica da química mudam seu estado, ficando até explosivos em escala nanométrica. A nanotecnologia é a capacidade potencial de criar coisas a partir do menor elemento, usando as técnicas e ferramentas que estão a ser desenvolvidas nos dias de hoje para colocar cada átomo e cada molécula no lugar desejado. Se conseguirmos este sistema de engenharia molecular, o resultado será uma nova revolução industrial. Além disso, teria também importantes consequências econômicas, sociais, ambientais e militares.


Década de 80:
Nos anos 80, o conceito de Nanotecnologia foi popularizado por Eric Drexler por meio do livro "Engines of Creation" (Motores da Criação). Este livro, embora contendo algumas especulações próximas da ficção científica baseou-se no trabalho sério desenvolvido por Drexler enquanto cientista. Drexler foi o primeiro cientista a doutorar-se em nanotecnologia pelo MIT.



Nanotecnologia drexleriana:
Embora Eric Drexler seja considerado por muitos como o pai da nanotecnologia, a sua abordagem próxima da ficção científica é vista com desconfiança por outros cientistas mais interessados nos aspectos práticos da nanotecnologia. Eric Drexler fundou o "Foresight Institute" e tem-se dedicado à divulgação e desenvolvimento da Nanotecnologia rebatizada de molecular.




Abordagens:
Entretanto a nanotecnologia desenvolveu-se graças aos contributos de várias áreas de investigação. Existem atualmente 3 abordagens distintas à nanotecnologia: uma abordagem de cima para baixo que consiste na construção de dispositivos por desgaste de materiais macroscópicos; a construção de dispositivos que se formam espontaneamente a partir de componentes moleculares; a de materiais átomo a átomo.
*A primeira abordagem é a abordagem utilizada em microelectrônica para produzir chips de computadores e mais recentemente para produzir testes clínicos em miniatura.
*A segunda abordagem recorre às técnicas tradicionais de química e das ciências dos materiais.
*A terceira abordagem é aquela que levará mais tempo a produzir resultados significativos porque requer um controle fino da matéria só possíveis com o aperfeiçoamento da tecnologia.



Utilizações mais radicais:
Outras utilizações mais radicais da nanotecnologia, seria a sua utilização nas ciências computacionais, como por exemplo, na nanofotonica, em que nanocristais seriam criados de modo a permitir uma capacidade de busca na ordem dos milhares ou dezenas de milhares de bits.



Montador molecular ou Nanomontador:
Um montador molecular ou nanomontador (nanoassem) é uma máquina nanotecnológica de tamanho bastante reduzido capaz de organizar átomos e moléculas de acordo com instruções dadas. Para fazer esta tarefa é necessário energia, suprimento de matéria-prima (building blocks) bem como a programação a ser executada pelo montador.

Um montador molecular pode atuar de forma isolada ou em conjunto com vários outros montadores moleculares. Podendo, neste caso, ser capaz de construir objetos macroscópicos. Para isto é necessário um sistema de comunicação entre os montadores bem como um sistema de organização que permitam que eles trabalhem em conjunto.

Existe a possibilidade de se construir um montador universal. Este teria a capacidade de construir qualquer objeto possível, incluindo um outro montador. Assim este poderia se replicar de forma semelhante aos seres vivos. Uma vez construído o primeiro montador ele poderia se reproduzir várias vezes até o número necessário para executar uma determinada tarefa como, por exemplo, a construção de várias toneladas de um nanomaterial. Esta capacidade de reprodução é uma das grandes vantagens de um montador molecular e também é um dos seus grandes riscos. Um montador poderia se reproduzir descontroladamente e ameaçar vidas humanas de forma semelhante a epidemias. Um risco poderia ser a colonização de toda a terra por montadores moleculares, extinguindo toda a vida na terra. Só restariam os próprios montadores em uma massa (provavelmente) cinza chamada de "greygoo". Drexler argumenta que este cenário é bastante difícil uma vez nenhum ser vivo conhecido consegue se reproduzir além do limite imposto pela quantidade de energia e matéria-prima disponíveis. Apesar disto, especialistas advertem que é necessário tomar precauções, pois os riscos para a saúde humana não são conhecidos.

A construção de um montador molecular ainda está longe de ocorrer. Vários problemas persistem como a dificuldade de trabalhar com átomos individuais necessários para a construção do montador. Além disto, é difícil modelar o comportamento de objetos complexos em escala nanométrica que obedecem as leis quânticas.


Possíveis problemas:
Um dos possíveis problemas é a nanopoluição que é gerada por nanomateriais ou durante a confecção destes. Este tipo de poluição, formada por nanopartículas que podem ser muito perigosas uma vez que flutuem facilmente pelo ar viajando por grandes distâncias. Devido ao seu pequeno tamanho, os nanopoluentes podem entrar nas células de seres humanos, animais e plantas. Como a maioria destes nanopoluentes não existe na natureza, as células provavelmente não terão os meios apropriados de lidar com eles, causando danos ainda não conhecidos. Estes nanopoluentes poderiam se acumular na cadeia alimentar como os metais pesados e o DDT.


A importância para o Brasil e para Portugal:
A nanotecnologia é extremamente importante para o Brasil, assim como para Portugal, porque tanto a indústria brasileira como a portuguesa terão de competir internacionalmente com novos produtos para que a economia dos mesmos países se recuperem e retomem o crescimento econômico. Esta competição somente será bem sucedida com produtos e processos inovadores, que se comparem aos melhores que a indústria internacional oferece. Isto significa que o conteúdo tecnológico dos produtos oferecidos pela indústria brasileira e portuguesa terão de crescer substancialmente nos próximos anos e que a força de trabalho, principalmente brasileira, terá de receber um nível de educação em ciência e Tecnologia muito mais elevado do que o de hoje. Pelo referido, destaca-se o investimento que está a ser feito em Portugal, na cidade de Braga, com a construção do Laboratório Internacional Ibérico de Nanotecnologia (INL), estrutura que irá dedicar-se à investigação nesta área e que terá um investimento anual de 30 milhões de euros.




Produtos e serviços que já estariam no mercado:
Um levantamento sumário nas publicações que circulam sobre nanotecnologia aponta para os seguintes produtos e serviços que já estariam no mercado:
*Tecidos resistentes a manchas e que não amassam;
*Raquetes e bolas de tênis;
*Capeamento de vidros e aplicações antierosão a metais;
*Filtros de proteção solar;
*Material para proteção (“screening”) contra raios ultravioleta;
*Tratamento tópico de herpes e fungos;
*Nano-cola, capaz de unir qualquer material a outro;
*Pó antibactéria;
*Diversas aplicações na medicina como cateteres, válvulas cardíacas, marca-passo, implantes ortopédicos;
*Produtos para limpar materiais tóxicos;
*Produtos cosméticos;
*Sistemas de filtração do ar e da água.
*Microprocessadores e equipamentos eletrônicos em geral;
*Polimento de faces e superfícies com nanotecnologia sem micro-riscos.


Produtos em desenvolvimento:
As aplicações mais simples da nanotectologia talvez sejam as mais promissoras. A criação do material mais escuro do mundo, que absorve mais de 99,9% de toda a luz que recebe pode permitir um novo patamar no aproveitamento da radiação solar para geração de energia elétrica. Outra área de desenvolvimento promissor da nanotecnologia é a geração de eletricidade em termopar (Efeito Seebeck) semicondutor. Semicondutores não são indicados para um termopar de energia elétrica através do calor na escala macroscópica. Sabe-se, contudo, que junções semicondutoras podem gerar energia elétrica através da luz recebida em células fotovoltaicas e nesse sentido estuda-se converter calor diretamente em energia elétrica com semicondutores na escala da nanotecnologia. Na mesma linha estuda-se refrigerar um ambiente através de termopares da nanotecnologia em efeito análogo.

quinta-feira, 18 de março de 2010

Câmera Digital

A câmera digital, seja ela máquina fotográfica ou de cinema, revolucionou o processo de captura de imagens, contribuindo para a popularização da fotografia ou da técnica cinematográfica digital.

Ao invés de utilizar a película fotossensível (filme) para o registro das imagens, que requer, posteriormente à aquisição das imagens, um processo de revelação e ampliação das cópias, a câmera digital registra as imagens através de um sensor que entre outros tipos podem ser do tipo CMOS ou do tipo CCD, armazenando as imagens em cartões de memória. Uma câmera pode suportar um só ou vários tipos de memória, sendo os mais comuns: CompactFlash tipos I e II, SmartMedia, MMC e Memory stick e SD (os dois mais usados).


Estas imagens podem ser visualizadas imediatamente no monitor da própria câmera, podendo ser apagadas caso o resultado não tenha sido satisfatório. Posteriormente são transferidas para um e-mail, álbum virtual, revelação digital impressa, apresentadas em telas de TV ou armazenada em CD, disquete, pen-drive, etc.

Uma das características mais exploradas pelos fabricantes de câmeras digitais é a resolução do sensor da câmara, medida em megapixels.

Em teoria, quanto maior a quantidade de megapixels, melhor a qualidade da foto gerada, pois o seu tamanho será maior e permitirá mais zoom e ampliações sem perda de qualidade. Entretanto, a qualidade da foto digital não depende somente da resolução em megapixels, mas de todo o conjunto que forma a câmera digital. Os fatores que mais influenciam a qualidade das fotos/vídeos são a qualidade das lentes da objetiva, o algoritmo (software interno da câmera que processa os dados capturados) e os recursos que o fotógrafo pode usar para um melhor resultado, ou até mesmo eventuais efeitos especiais na foto. No entanto, dependendo do uso que será dado à fotografia, um número excessivo de megapixels não trará benefício adicional à qualidade da imagem e onerará o custo do equipamento.


Normalmente as câmaras voltadas ao uso profissional são dotadas de maior quantidade de megapixels, o que lhes permite fazer grandes ampliações. Já para o usuário amador, máquinas com resolução entre três e cinco megapixels geram excelentes resultados.


 
Em profundidade:
As câmeras convencionais dependem inteiramente de processos químicos e mecânicos, nem mesmo há necessidade de energia eléctrica para operar. Algumas utilizam energia para o flash e para o obturador.


Câmeras digitais, no entanto, têm um micro-computador para gravar as imagens electronicamente.

Tal como nas câmeras convencionais, a câmera digital contém uma série de lentes, que conduzem a luz para o sensor. Mas em vez de expor um filme fotográfico, utiliza um aparelho semicondutor, que registra a luz eletricamente através de uma gradação em volts, medindo a descarga elétrica gerada pela luz. O micro-computador então transforma essa informação elétrica e analógica em dados digitais, no caso de utilização de sensores CCD, tratando-se de uma CMOS, como veremos a seguir, a captação da imagem já é feita eletronicamente, de forma digital, poupando assim o tamanho e o preço deste tipo de sensor e facilitando sua transformação em imagem.


Existem dois tipos de sensores de imagem que convertem a luz em cargas eléctricas, são eles:
* CCD - charge coupled device;
*CMOS - complementary metal oxide semiconductor.


Assim que o sensor converte a luz em elétrons, ele lê o valor (a carga acumulada) em cada célula da imagem. E aqui é que vêm as diferenças entre os dois sensores:

O CCD transporta a carga pelo chip e lê o valor na esquina da linha. Um conversor analógico-para-digital então troca o valor do pixel para o valor digital, pela medição da quantidade de carga em cada célula.

O CMOS usam vários transistores para cada pixel para amplificar e mover a carga usando os tradicionais fios. O sinal já é digital por isso não necessita do conversor analógico-digital.

Resolução:
A resolução de uma imagem digital é a sua definição. Como a imagem na tela é formada pela justaposição de pequenos pontos quadriculados, chamados "pixels", a resolução é medida pela quantidade de pixels que há na área da imagem. Logo, sua unidade de medida é o "ppi", que significa "pixels per inch" ou pixels por polegada. A nomenclatura "dpi" - "dots per inches" é utilizada pela indústria gráfica e se relaciona com a quantidade de pontos necessários para uma impressão de qualidade, por isso, em termos fotográficos digitais deve-se utilizar a nomenclatura "ppi", que traduz a quantidade de pixels por linha do sensor ou da ampliação da fotografia.

Dessa forma, em uma imagem de tamanho definido, quando maior sua resolução, mais pixels haverá por polegada em ambas as dimensões - altura e largura -, levando a conclusão que imagens de "alta resolução" possuem "pixels" pequeninos, até mesmo invisíveis a olho nu, e, imagens de "baixa resolução" possuem "pixels" grandes que acabam por dar o efeito "pixelation", que deixa imagem quadriculada pelo o tamanho exagerado de seus pontos. Isso é comum acontecer quando tentamos ampliar uma imagem de "baixa resolução". Porém, esse conceito vem sendo discutido atualmente, já que sabemos que a quantidade exagerada de pixels por linha do sensor nem sempre corresponde a qualidade efetiva de captação.

Já se admite que o sensor deve conter muitos pixeis para ampliações maiores e melhor qualidade e nitidez, porém, se esses pontos/pixels registradores de luminosidade forem demasiadamente pequenos, sua qualidade pode ficar alterada e sua resolução subexplorada.

Para otimizar o uso da resolução de imagens temos que atentar ao meio, ou mídia em que ela será veiculada. Algumas dicas:

-Imagens para web e multimídia: 72 pixels por polegada (ppi, em inglês)

-Imagens para impressão: 300 pixels por polegada (ppi, em inglês)

-Imagens para impressão de banners, gráficas especiais ou gigantografia: acima de 600 pixels por polegada (ppi, em inglês).

Nas câmeras digitais a resolução é dada por "megapixels", que nada mais são que "milhões de pixels", dados pela multiplicação da resolução da altura pela da largura da imagem. Por exemplo:

-Imagem com 120 px X 160px = 0.019MPX chamada também de padrão QSIF.

-Imagem com 480px x 640px = 0.307MPX chamada também de padrão VGA.

-Imagem com 4.200px x 2690px = 11.298MPX chamada também de padrão WUQSXGA.



 Captando a cor:
A maior parte dos sensores utilizam o filtering para captar a luz nas suas três cores primárias. Assim que a câmera gravar as três cores, combina-as para criar o espectro todo.

Isto é feito de várias maneiras:
* Três sensores separados, presentes em câmeras de alta qualidade, em que cada um regista uma determinada cor. Existe um divisor de luz, que divide a luz pelas três cores que vão incidir em três sensores diferentes, cada sensor capta uma determinada cor. Nestas câmeras os três sensores vêm exatamente a mesma imagem só que em gamas de luz diferentes. Combinando as imagens dos três sensores, forma-se uma só cor.

* Um sensor, que vai captando a luz que vai atravessar um filtro vermelho, verde e azul (que está em rotação), ou seja o sensor grava a informação recebida para cada momento em que passa por um filtro diferente. A imagem não é rigorosamente a mesma para cada cor, mesmo que este processo seja feito em milésimos de segundo.

* Ainda temos o sistema mais econômico, que é ter uma matriz em que cada uma das células é uma cor primária, o que se faz é interpolação, ou um palpite educado, baseado na informação da célula vizinha, contudo essa interpolação, tão combatida pelos profissionais pode ser minimizada com o aumento de pixels, ou sensores de luminosidade, diminuindo a margem de erro.

O sistema mas comum é o Bayer filter pattern, que é uma matriz onde alterna em cada linha de acordo com dois tipos de linha: uma é a sucessão vermelho e verde, e a outra linha é a sucessão azul e verde. Portanto no total temos a mesma quantidade de células verdes do que a soma das células azuis e vermelhas. A razão disto é que o olho humano é mais sensível à luz verde.

Ora temos apenas um sensor e a informação de cada cor é gravada ao mesmo tempo. Então temos um mosaico de vermelho, verde e azul, onde cada pixel tem diferente intensidade. As câmaras têm então um algoritmo de "des-mosaico": a cor verdadeira de cada pixel será determinado pelo valor médio dos pixeis adjuntos. Existe também um outro sistema, o Foveon X3 sensor, que permite captar quatro cores, ciano, magenta, amarelo e preto ou CYMK, m inglês, e não três como os convencionais.


Exposição e focagem:
Para controlar a quantidade de luz que chega ao sensor(s), existem 2 componentes:

* a abertura, que é o tamanho de abertura do diafragma;
* a velocidade do obturador, que é o tempo de exposição de luz nos sensores.



Lente e foco
As lentes das câmaras digitais são muito similares às das convencionais.

No entanto é de referir que a distância focal é a distância entre as lentes e o sensor. Isto é que vai determinar o zoom da máquina. Aumentando a distância estaremos a fazer um zoom in. Existem as seguinte opções:
*Objetivas de foco fixo e de zoom fixo;
*Objetivas de zoom óptico com focagem automática;
*Objetivas de zoom digital;
*Sistemas de objetivas intermutáveis.


Armazenamento e compressão:
A maioria das câmeras digitais têm uma tela LCD, permitindo a visualização imediata das fotos. Esta pode considerar-se como uma grande vantagem em comparação com o método convencional.

As câmeras permitem um sistema de armazenamento de dados. Para a transferência dos dados por fios, existem várias conexões:
*Serial;
*Paralela;
*SCSI;
*USB;
 *FireWire.

Se o próprio sistema de armazenamento da câmera for amovível, podem ser dos seguintes tipos:
*SmartMedia (é usual cada fabricante desenvolver o seu sistema de memória);
*Compact Flash tipos 1 e 2;
*Memory Stick;
*MMC (até 2Gb) e seu sucessores: SD (até 4Gb), o atual SDHC (até 32Gb) e o novo SDXC (até 2048Gb).

O tipo de arquivos em que essas fotos são armazenadas costumam ter os seguintes formatos:
*TIFF - normalmente sem compressão;
*Jpeg - com compressão;
*RAW.

quarta-feira, 17 de março de 2010

Impressoras

Uma impressora ou dispositivo de impressão é um periférico que, quando conectado a um computador ou a uma rede de computadores, tem a função de dispositivo de saída, imprimindo textos, gráficos ou qualquer outro resultado de uma aplicação.

Herdando a tecnologia das máquinas-de-escrever, as impressoras sofreram drásticas mutações ao longo dos tempos. Também com o evoluir da computação gráfica, as impressoras foram se especializando a cada uma das vertentes. Assim, encontram-se impressoras otimizadas para desenho vetorial e para raster, e outras otimizadas para texto.

A tecnologia de impressão foi incluída em vários sistemas de comunicação, como o fax, por exemplo.
As impressoras são tipicamente classificadas quanto à escala cromática (em cores ou em preto-e-branco), páginas por minuto (medida de velocidade) e tipo.

Bidirect print: bidirect print consiste na impressão bidirecional. Quando o cabeçote da impressora vai para a direita ele imprime e quando retorna para esquerda também é feita a impressão. Este expediente tecnológico torna as impressoras mais rápidas.

Tipos de impressoras:
*Impressora de impacto - As impressoras de impacto baseiam-se no princípio da decalcação, i.e., ao colidir uma agulha ou roda de caracteres contra um fita de tinta dá-se a produção da impressão. As impressoras margarida e impressoras matriciais são exemplos de impressoras de impacto.

*Impressora de jato a tinta - Essas impressoras imprimem através de um cartucho de tinta que vai de 3 à 30 ml. Algumas têm uma ótima qualidade de impressão quase se igualando às de Laser. Sao as impressoras mais utilizadas.



*Impressora a laser - As impressoras a laser são o topo de gama na área da impressão e seus preços variam enormemente, dependendo do modelo. São o método de impressão preferencial em tipografia e funcionam de modo semelhante ao das fotocopiadoras. Utilizam Tonner revelador, no lugar de Tinta.


*Impressora térmica - Embora sejam mais rápidas, mais econômicas e mais silenciosas do que outros modelos de impressoras, as impressoras térmicas praticamente só são utilizadas hoje em dia em aparelhos de fax e máquinas que imprimem cupons fiscais e extratos bancários. O grande problema com este método de impressão é que o papel térmico utilizado desbota com o tempo, obrigando o utilizador a fazer uma fotocópia do mesmo.

No início do século XXI, modelos mais avançados, as impressoras de transferência térmica, difundiram-se ao permitir impressão em cores. Seu custo, todavia, ainda é muito superior ao das impressoras de jato de tinta.

*Impressora solvente - Estas impressoras são indicadas para profissionais de comunicação visual e artes gráficas como: Bureaux, empresas gráficas, grandes varejistas, entre outras. Como utiliza tinta a base de solvente é ideal para fazer impressões de banners, imagens de grandes formatos para pontos de venda, faixas, adesivos em vinil, material para adesivação automotiva, outdoors, ampliações, entre outros.

*Impressoras de cera térmica - Estas impressoras são mais usadas para transparências em apresentações empresariais e para prova de cor (criação de documentos e imagens teste para uma inspeção de qualidade antes do envio dos documentos mestre para serem impressos em impressoras industriais offset de quatro cores). As impressoras de cera térmica utilizam tambores CMYK direcionados por uma fita, e papel ou transparência especialmente cobertos. A cabeça de impressão contém elementos quentes que derretem cada cor de cera no papel conforme ele rola pela impressora. Elas são muitos úteis em lojas comercias onde são impressas notas de recibo comercial.

*Impressoras dye-sublimation - Usadas em empresas como agências de serviço — onde a qualidade profissional dos documentos, panfletos e apresentações é mais importante que o custo dos consumíveis — as impressoras dye-sublimation (ou dye-sub) são os cavalos de batalha da impressão CMYK de qualidade. Os conceitos por trás das impressoras dye-sublimation são similares aos das impressoras de cera térmica, exceto pelo uso de filme dye plástico difusivo ao invés de cera colorida. A cabeça de impressão aquece o filme colorido e vaporiza a imagem em papel especialmente coberto.

A dye-sub é bastante conhecida no mundo do design e publicações, assim como no campo da pesquisa científica, onde é necessário ter precisão e detalhes. Tais detalhes e qualidade de impressão têm um preço, já que as impressoras dye-sub também são conhecidas por seus altos custos de impressão.

Estas impressoras também são usadas para impressão cartões de PVC, ou de Polyester.

Elas são largamente utilizadas na area de seguraça e credenciamento, para impressão de crachás de identificação. E inclusive em alguns paises elas são utilizadas para confecção de carteiras de motoristas.

*Impressoras de tinta sólida - Usadas principalmente nos setores de embalagens e design industrial, as impressoras de tinta sólida são famosas por imprimir numa variedade de tipos de papel. As impressoras de tinta sólida, como o nome indica, usam espetos de tinta endurecidos, que são derretidos e espirrados através de pequenos bocais na cabeça de impressão. O papel é então enviado através de um rolamento fusor, que por sua vez força a tinta sobre o papel.

A impressora de tinta sólida é ideal para provas e protótipos de novos designs de embalagens de produtos. Sendo assim, a maioria das empresas de serviços não tem necessidade deste tipo de impressora.

*Impressoras de cartão PVC - As impressoras de cartões de identificação são ideais para empresas que necessitem imprimir cartões de identificação para segurança, cartões de fidelidade, cartões de membros de faculdades, escolas, clubes e associações, entre outros. Apresentam-se como uma ótima solução para bureaus de prestação de serviços, mercados educacionais (escolas, universidades), entidades recreativas (parques, clubes), supermercados, grandes magazines, hospitais, órgãos governamentais, programas de fidelidade, convênios, e empresas de todos os portes.

terça-feira, 16 de março de 2010

Modelos de tomadas da ABNT

A norma NBR 14136 estabelece o padrão brasileiro para tomadas e plugues elétricos e está baseada na norma internacional IEC 60906-1. A norma brasileira abrange todos os demais produtos relacionados como cabos de ligação dos equipamentos, cordões, conectores, extensões, etc. Os aparelhos eletroeletrônicos deverão ser dotados de tomadas e plugues elétricos (quando o aparelho incorporar tomadas) conforme o padrão.



Em termos de segurança, a norma NBR 14136 aumenta a segurança contra choques elétricos porque, além dos contatos elétricos das tomadas ficarem recuados em relação à face externa do plugue, inclui também um rebaixo (encaixe de plugue) na tomada. Este detalhe construtivo garante que não ocorra o risco de um contato acidental com partes vivas do circuito e conseqüente choque elétrico.



O rebaixo da tomada (poço) também funciona como guia, facilitando a inserção do plugue, principalmente quando a tomada encontra-se em local de difícil acesso ou de pouca visibilidade.



Riscos de sobrecargas:
A NBR 14136 unifica as diversas versões de plugues e tomadas existentes no mercado para dois modelos básicos: bipolar (2P) e bipolar com contato de aterramento (2P+T). O novo padrão foi idealizado de maneira a evitar a conexão de equipamentos com potência superior à que a tomada poderá suportar. Em termos de corrente elétrica nominal, a NBR 14136 prevê dois modelos de plugues e tomadas:

Plugues e tomadas para 10A;
Plugues e tomadas para 20A.
 
A diferença entre os modelos está no diâmetro do orifício de entrada da tomada, que no modelo de 20A é maior, bem como no diâmetro do pino do plugue de 20A, que também é maior. Como resultado, os modelos para 20A aceitam a inserção de ambos os plugues, mas os modelos de 10A apenas plugues de 10A, garantindo que a capacidade de corrente nominal não seja excedida.
 

Aterramento:
A norma NBR 14136 prevê para a tomada fixa o terceiro pino ou contato de aterramento, ou ainda contato PE, atendendo às exigências da norma brasileira para instalações elétricas, ABNT NBR 5410:2004. Essa providência também atende outra exigência da norma NBR 5410 quanto à presença de condutor de proteção nos circuitos elétricos de baixa tensão.

Graças às modificações colocadas pela norma NBR 14136 será possível diminuir o número de configurações de plugues e tomadas, o que irá favorecer a otimização de componentes no processo de produção e deixará de existir incompatibilidade de uso dos equipamentos dotados de plugues de três pinos (plugue dois-pólos-mais-terra – 2P+T), sem a anulação do pino de aterramento, como acontece atualmente com boa parte dos equipamentos de redes de computadores, por exemplo.


Compatibilidade:
O emprego de tomadas e plugues construídos segundo a norma NBR 14136 não impede o uso de aparelhos equipados com plugue de dois pinos, uma vez que as tomadas construídas segundo o novo padrão aceitam plugues de dois ou três pinos sem problemas. Inclusive, o plugue de dois pinos redondos, tradicionalmente usado no Brasil, é totalmente compatível com o novo modelo de tomada.

Aplicação da norma:
Para instalações existentes os novos modelos de tomada e plugue poderão ser usados nos projetos de retrofit da instalação elétrica ou quando houver necessidade de substituição de uma tomada existente por uma nova.

No caso de equipamentos dotados de plugues de três pinos que utilizam o modelo antigo e que necessitarem de conexão usando uma instalação equipada com o novo padrão, o procedimento é a troca do plugue antigo (aparelhos eletrodomésticos em geral) ou do cordão conector (computadores e demais equipamentos de informática, por exemplo).

A disseminação da norma NBR 14136 será gradual, sem nenhuma obrigação ou prazo no que se refere às instalações e equipamentos elétricos em uso. Apenas para os novos projetos de instalações elétricas sua utilização será exigida em função do disposto no item 6.5.3.1 da norma ABNT NBR 5410:2004 "todas as tomadas de corrente das instalações devem ser conforme a ABNT NBR 14136".

segunda-feira, 15 de março de 2010

Satélites Artificiais

Definição:
Um satélite artificial é qualquer corpo feito pelo homem e colocado em órbita ao redor da Terra ou de qualquer outro planeta. Nos dias de hoje, ao contrário do que ocorria no início da história dos satélites artificiais, o termo satélite vem sendo usado praticamente como um sinônimo para "satélite artificial". O termo "satélite artificial" tem sido usado quando se quer distingui-los dos satélites naturais, como a Lua.


Atualmente estão em órbita, para além dos satélites do Sistema de Posicionamento Global, satélites de comunicações, satélites científicos, satélites militares e uma grande quantidade de lixo espacial, ou seja, não se deve se referir à satélites apenas como um meio de transporte de dados ou apenas um meio de mapear ou espionar o sistema terrestre.

Tipos de satélites:
Os satélites de comunicações são satélites que retransmitem sinais entre pontos distantes da Terra. Estes satélites servem para retransmitir dados, sinais de televisão, rádio ou mesmo telefone. Os chamados telefones por satélite baseiam-se numa rede Iridium, uma rede de satélites de baixa altitude.

Os satélites científicos são utilizados para observar a Terra ou o espaço ou para realizar experiências em microgravidade. Os satélites de observação da Terra permitem estudar as mudanças climáticas, para estudar os recursos naturais, para observar fenómenos naturais, para o mapeamento de cidades e até para a espionagem (alguns foto-satélites tem o poder de aproximação de 1m de dimensão mas existem especulações de satélites secretos com maior poder de aproximação).

O Espaço é o local ideal para a realização de observações astronômicas, já que a luz emitida pelas estrelas não é perturbada pela atmosfera terrestre. Por este motivo é que os cientistas optaram por colocar o telescópio Hubble em órbita junto à outros que utilizam ondas de radar para fazer o mapeamento do espaço.

O espaço é também o local ideal para se realizarem experiências em condições de microgravidade. Estas experiências são realizadas a bordo do módulo orbital do Vaivém Espacial e a bordo da Estação Espacial Internacional.

Não há estatísticas oficiais, mas estima-se que já foram lançados aproximadamente 4.600 satélites, e que apenas cerca de 500 deles continuam em funcionamento. A União Soviética foi o primeiro país a colocar um satélite no espaço, o Sputnik, em 1957.


Em primeira aproximação, o satélite é afetado por uma única força, a força gravitacional exercida no satélite pela Terra. A intensidade desta força determina-se pela Lei da Atração Universal. Por outro lado, e pela 2ª lei de Newton, a intensidade da força é diretamente proporcional à intensidade da aceleração. A aceleração tem a mesma direção e o mesmo sentido que a força gravitacional.

Experiência pensada de Newton:
Um satélite sofre uma determinada aceleração que é independente da sua massa mas depende da altitude a que o satélite se encontra. A trajetória do satélite vai depender da sua aceleração e das suas condições iniciais: a posição inicial e a velocidade inicial.

A experiência pensada de Newton explica porque é que os satélites não caem para a Terra, apesar de serem constantemente puxados pela força gravitacional para o centro da Terra.

Newton imaginou um canhão muito poderoso capaz de lançar projéteis a grandes distâncias. Imaginou este canhão colocado a uma altitude elevada. Se a altitude for suficientemente elevada, o canhão está fora da atmosfera terrestre e a resistência do ar é desprezível. Se o canhão disparar um projétil com uma velocidade baixa, o projéctil perderá altitude até cair na Terra. Mas se a velocidade do projéctil ultrapassar um determinado valor, o projéctil quando cai já vai cair “fora da Terra”. Se a velocidade inicial do projéctil for suficientemente elevada, o projéctil cai continuamente sem nunca atingir a Terra.

Aumentando a velocidade consegue-se que o projéctil percorra cada vez distâncias maiores, até que o projéctil circundará a Terra numa órbita aproximadamente circular. Neste movimento não atua outra força além da força gravitacional e o projécil continuará em órbita em torno da Terra, mas qual a velocidade horizontal de lançamento necessária para colocar um objeto em órbita circular? Para responder a esta questão é necessário estudar um outro movimento - o movimento circular uniforme. Trata-se do movimento de uma partícula com velocidade inicial, atuada por uma força de intensidade constante cuja direcção varia continuamente, sendo, em cada instante perpendicular à velocidade.

História:
O primeiro satélite artificial foi o Sputnik (figura abaixo), lançado pela União Soviética em 4 de outubro de 1957. O lançamento colocou a URSS na frente da corrida espacial e iniciou a corrida espacial, uma das competições mais acirradas da Guerra Fria. Pesando cerca de 84 kg foi feito pelos soviéticos e emitia sons em determinadas freqüências. Meses depois os americanos lançaram seu primeiro satélite, o Explorer 1, que só pesava 14 kg e foi capaz de descobrir o Cinturão de Van Allen, um cinturão magnético que protege a Terra da radiação solar.


Tipos de satélites:
*Biosatélites - são satélites projetados para levar ao espaço organismos vivos para experimentação científica;
*Satélites miniaturizados - são satélites com dimensões e massas reduzidas. Hoje, esses satélites são categorizados como minisatélites (500–200 kg), microsatélites (menos de 200 kg) e nanosatélites (menos de 10 kg);
*Satélites de energia solar - são satélites que usam células solares para captar a energia solar e a convertem em um feixe de microondas, transmitido para grandes antenas na Terra por potentes transmissores a bordo do satélite. A energia captada pela antena pode então ser usada como uma fonte alternativa de energia;
*Estações espaciais - são estruturas fabricadas pelo homem e projetadas para permitir que seres humanos possam viver no espaço exterior. Uma estação espacial difere de uma espaçonave. Ao contrário das espaçonaves, as estações espaciais não possuem capacidade de propulsão nem de aterrissagem. Por outro lado as estações espaciais são projetadas para permitir a permanência humana por médios períodos de tempo, que variam de semanas até alguns anos.


Tipos de satélites por função:
*Armas anti-satélites - por vezes chamados de satélites assassinos, são satélites projetados para destruir satélites "inimigos" e outros tipos de alvos em órbita. Tanto os Estados Unidos quanto a antiga URSS possuem esses tipos de satélites;
*Satélites astronômicos - são satélites usados para observações astronômicas, tanto no óptico, quanto em outras bandas do espectro eletromagnético;
*Satélites de comunicação - são satélites estacionários utilizados em telecomunicação.

*Satélites do Sistema Global de Navegação (GPS) - são satélites que enviam sinais de rádio a receptores móveis na Terra possibilitando a determinação precisa de sua localização geográfica. A recepção direta do sinal dos satélites GPS, combinada com uma eletrônica cada vez melhor, permite que o sistema GPS determine a posição com um erro de poucos metros, em tempo real;
*Satélites de reconhecimento - são satélites projetados para observação da Terra ou antigos satélites de comunicação utilizados para fins militares ou de espionagem. Pouco se sabe sobre a capacidade real desses satélites, pois os países que os desenvolvem geralmente não divulgam informações sobre eles;
*Satélites de observação da Terra - são satélites projetados para uso não-militar, para, por exemplo, monitoramento ambiental, meteorologia, mapeamento geográfico, etc;
*Satélites meteorológicos - são satélites projetados essencialmente para monitorar o tempo e o clima na Terra.


sexta-feira, 12 de março de 2010

Fibra Óptica

Fibra óptica é um pedaço de vidro ou de materiais poliméricos com capacidade de transmitir luz. Tal filamento pode apresentar diâmetros variáveis, dependendo da aplicação, indo desde diâmetros ínfimos, da ordem de micrômetros (mais finos que um fio de cabelo) até vários milímetros.

A fibra óptica foi inventada pelo físico indiano Narinder Singh Kapany. Há vários métodos de fabricação de fibra óptica, sendo os métodos MCVD, VAD e OVD os mais conhecidos.


Como funciona:
A transmissão da luz pela fibra segue um princípio único, independentemente do material usado ou da aplicação: é lançado um feixe de luz numa extremidade da fibra e, pelas características ópticas do meio (fibra), esse feixe percorre a fibra por meio de reflexões sucessivas.

A fibra possui no mínimo duas camadas: o núcleo e o revestimento. No núcleo, ocorre a transmissão da luz propriamente dita. A transmissão da luz dentro da fibra é possível graças a uma diferença de índice de refracção entre o revestimento e o núcleo, sendo que o núcleo possui sempre um índice de refração mais elevado, característica que aliada ao ângulo de incidência do feixe de luz, possibilita o fenômeno da reflexão total.

As fibras ópticas são utilizadas como meio de transmissão de ondas electromagnéticas (como a luz) uma vez que são transparentes e podem ser agrupadas em cabos. Estas fibras são feitas de plástico ou de vidro. O vidro é mais utilizado porque absorve menos as ondas electromagnéticas. As ondas electromagnéticas mais utilizadas são as correspondentes à gama da luz infravermelha.

O meio de transmissão por fibra óptica é chamado de "guiado", porque as ondas eletromagnéticas são "guiadas" na fibra, embora o meio transmita ondas omnidirecionais, contrariamente à transmissão "sem-fio", cujo meio é chamado de "não-guiado". Mesmo confinada a um meio físico, a luz transmitida pela fibra óptica proporciona o alcance de taxas de transmissão (velocidades) elevadíssimas, da ordem de dez elevado à nona potência a dez elevado à décima potência, de bits por segundo (cerca de 1Gbps), com baixa taxa de atenuação por quilômetro. Mas a velocidade de transmissão total possível ainda não foi alcançada pelas tecnologias existentes. Como a luz se propaga no interior de um meio físico, sofrendo ainda o fenômeno de reflexão, ela não consegue alcançar a velocidade de propagação no vácuo, que é de 300.000 km/segundo, sendo esta velocidade diminuída consideravelmente.



Cabos fibra óptica atravessam oceanos. Usar cabos para conectar dois continentes separados pelo oceano é um projecto monumental. É preciso instalar um cabo com milhares de quilómetros de extensão sob o mar, atravessando fossas e montanhas submarinas. Nos anos 80, tornou-se disponível, o primeiro cabo fibra óptica intercontinental desse tipo, instalado em 1988, e tinha capacidade para 40.000 conversas telefônicas simultâneas, usando tecnologia digital. Desde então, a capacidade dos cabos aumentou. Alguns cabos que atravessam o oceano Atlântico têm capacidade para 200 milhões de circuitos telefônicos.

Para transmitir dados pela fibra óptica, é necessário equipamentos especiais, que contém um componente fotoemissor, que pode ser um diodo emissor de luz (LED) ou um diodo laser. O fotoemissor converte sinais elétricos em pulsos de luz que representam os valores digitais binários (0 e 1). Tecnologias como WDM e DWDM fazem a multiplexação de várias informações e a transformam em um único pulso de luz.

Vantagens:
Em Virtude das suas características, as fibras ópticas apresentam bastantes vantagens sobre os sistemas eléctricos:
*Dimensões reduzidas;
*Capacidade para transportar grandes quantidades de informação ( Dezenas de milhares de conversações num par de Fibra);
*Atenuação muito baixa, que permite grandes espaçamentos entre repetidores, com distância entre repetidores superiores a algumas centenas de quilômetros;
*Imunidade às interferências electromagnéticas;
*Matéria-prima muito abundante.

Desvantagens:
*Custo ainda elevado de compra e manutenção.

Aplicações:
Uma característica importante que torna a fibra óptica indispensável em muitas aplicações é o fato de não ser susceptível à interferência electromagnética, pela razão de que não transmite pulsos elétricos, como ocorre com outros meios de transmissão que empregam os fios metálicos, como o cobre. Podemos encontrar aplicações do uso de fibra óptica na medicina (endoscopias por exemplo) como também em telecomunicações (principalmente internet) em substituição aos fios de cobre.

Tipos de fibras:
As fibras ópticas podem ser basicamente de dois modos:
Monomodo:
*Permite o uso de apenas um sinal de luz pela fibra;
*Dimensões menores que as fibras ID;
*Maior banda passante por ter menor dispersão;
*Geralmente é usado laser como fonte de geração de sinal.

Multimodo:
*Permite o uso de fontes luminosas de baixa ocorrência tais como LEDs (mais baratas);
*Diâmetros grandes facilitam o acoplamento de fontes luminosas e requerem pouca precisão nos conectores;
*Muito usado para curtas distâncias pelo preço e facilidade de implementação pois a longa distância tem muita perda.

quinta-feira, 11 de março de 2010

Televisão Digital ou TV Digital

A Televisão digital, ou TV digital, usa um modo de modulação e compressão digital para enviar vídeo, áudio e sinais de dados aos aparelhos compatíveis com a tecnologia, proporcionando assim transmissão e recepção de maior quantidade de conteúdo por uma mesma freqüência (canal) podendo atingir o alvo de muito alta qualidade na imagem (alta definição).

Os padrões em operação comercial são capazes de transportar até 19 Mbps. Em termos práticos, isto é o equivalente a um programa em alta definição, que ocupa 15 Mbps, ou quatro programas em definição padrão, que consomem em média 4 Mbps cada.


História:
A história da televisão digital inicia-se nos anos 1970, quando a direção da rede pública de TV do Japão Nippon Hoso Kyokai (NHK) juntamente com um consórcio de cem estações comerciais, dão carta branca aos cientistas do NHK Science & Technical Research Laboratories para desenvolver uma TV de alta definição (que seria chamada de HDTV).

Inovações técnicas e tecnológicas da TV Digital
Qualidade técnica de imagem e som:
*Resolução de imagem - Os primeiros estudos sobre a melhoria da resolução da imagem foram realizados na universidade de Massachusetts (EUA), onde os aparelhos receptores de TV tinham apenas 30 linhas de vídeo. Ao longo das décadas de 1930 e 1940, os novos aparelhos já apresentavam 240 linhas de vídeo. Atualmente, um monitor analógico de boa qualidade apresenta entre 480 e 525 linhas. Na televisão digital de alta definição, chega-se a 1080 linhas com o padrão HDTV;

*Novo formato da imagem - A tela dos monitores digitais passará do formato 4:3, típico da TV analógica, para o formato 16:9, mais próximo do formato panorâmico;

*Qualidade do som - A televisão iniciou com som mono (um canal de áudio), evoluiu para o estéreo (dois canais, esquerdo e direito). Com a TV digital, passará para seis canais (padrão utilizado por sofisticados equipamentos de som e home theaters);

*Sintonia do Sinal sem fantasmas - A TV digital possibilitará a sintonia do sinal sem a presença de fantasmas e com qualidade de áudio e vídeo ausentes de ruídos e interferências.

Interatividade:
*Interatividade Local - O conteúdo é transmitido unilateralmente para o receptor, de uma só vez. A partir daí, o usuário pode interagir livremente com os dados que ficam armazenados no seu receptor. Um novo fluxo de dados ocorre apenas quando é solicitada uma atualização ou uma nova área do serviço é acessada.

*Interatividade com Canal de Retorno Não-Dedicado - A interatividade é estabelecida a partir da troca de informações por uma rede à parte do sistema de televisão, como uma linha telefônica. O recebimento das informações ocorre via ar, mas o retorno à central de transmissão se dá pelo telefone.

*Interatividade com Canal de Retorno Dedicado - Com a expansão das redes de banda larga, pode ser desenvolvido um meio específico para operar como canal de retorno. Para isso, o usuário da TV digital necessitaria não apenas de antenas receptoras, mas também de antenas transmissoras, e os sistemas, a capacidade de transportar os sinais até a central de transmissão.

Acessibilidade:
*Facilidades para Gravação de Programas - A introdução de sinais codificados de início e fim de programas facilitará o acionamento automático de videocassetes ou gravadores digitais dos usuários;

*Gravadores Digitais Incluídos nos Receptores ou Conversores - Alguns modelos de aparelhos receptores ou mesmo os conversores poderão incorporar gravadores digitais de alto desempenho (semelhantes aos discos rígidos utilizados nos computadores) que poderão armazenar muitas horas de gravação e permitir que o usuário escolha a hora de assistir o programa que desejar.

*Múltiplas Emissões de Programas - A transmissão de um mesmo programa em horários descontínuos (um filme, por exemplo, iniciando de 15 em 15 minutos) em diversos canais permitirá que o usuário tenha diversas oportunidades para assistir ao programa desejado a um horário escolhido.

Recepção:
*Otimização da Cobertura - A tecnologia digital possibilita flexibilidade para ajustar os parâmetros de transmissão de acordo com as características geográficas locais. Em áreas acidentadas ou com muitos obstáculos (grandes cidades com muitos edifícios, por exemplo) pode ser utilizado o recurso da transmissão hierárquica. Com este recurso, um programa pode ser transmitido (com sinal menos robusto) de modo a ser recebido em locais mais favoráveis, através de antenas externas, por exemplo, enquanto outro programa ou o mesmo programa do mesmo canal é transmitido (com sinal mais robusto) com uma menor resolução de imagem para recepção em todos os pontos da área de prestação do serviço. Isto permite que terminais portáteis ou móveis (instalados em veículos) possam receber sem problemas as transmissões.

TV Digital via satélite no Brasil:
Com uma antena parabólica e um receptor de satélite que receba sinal digital em banda C e apontando a antena para o satélite Brasilsat B3 os canais disponíveis são: RedeTV!, MTV, Rede Super, TV Gazeta, SBT, Band, Rede 21, MixTV, TV Cultura, TV Mundial, CineBrasil, SescTV, TV educativa, TV Sul Bahia, TV MIX Limeira, Record, Rede Familia, CNT, TV Shop Tour, TV Ra-Tim-Bum, Rede Globo, entre outros canais. A qualidade da imagem é digital (igual da TV a cabo), porém algumas emissoras ( Globo, SBT, Record, MTV, Band e RedeTV! ) já exibem alguns programas em HD ( alta definição ).

Meios de transmissão:
Assim como a televisão analógica convencional, o sinal digital viaja por diferentes meios - que deverão continuar coexistindo após a adoção do padrão digital.

*Terrestre - Transmitido por ondas de radiofrequência, os sinais digitais são transmitidos no ar e necessitam de antenas e receptores apropriados para a sua recepção. Este é provavelmente o meio mais aguardado da televisão digital já que seu custo econômico é o mais baixo, não há necessidade de pagar assinaturas bastando às grandes emissoras de televisão no país e suas retransmissoras efetuarem as devidas adaptações, exigindo também da parte dos consumidores, a aquisição de novos receptores. No Brasil, algumas companhias de televisão por assinatura já transmitem a sua programação usando um sistema semelhante denominado MMDS.

*Satélite - Já em uso no Brasil desde 1996 através das TVs por assinatura de banda Ku (SKY, Tecsat e DirecTV) este sistema permite a captação do sinal digital pelos utilizadores residentes em regiões remotas. Desde 1997 existe um satélite público da Embratel transmitindo sinais digitais a antenas parabólicas específicas, denominado de banda C digital sem custos financeiros para a recepção.

Atualmente, existem vários satélites com transmissões digitais abertas, chamados de sistemas Free to air (FTA), em formato DVB encontradas em satélites como a série BrasilSat (PAS B1, PAS B2, PAS B3 e PAS B4), Nahuel, Amazonas, Hispasat, entre outros, com programação variada, desde canais abertos (Rede Minas, TV Record, RedeTV!), emissoras regionais, rádios e canais estrangeiros.


*Cabo - Utiliza redes de cabo convencionais CATV para transmitir os sinais digitais que chegam à casa do assinante via operadoras de televisão por assinatura. Implantado em 2004 em grandes cidades brasileiras como São Paulo e Rio de Janeiro este meio de transmissão para televisão digital é atualmente o mais difundido em todo o mundo.

Normalmente as operadoras de televisão a cabo recebem quase todos os canais através de satélite. Após a recepção, filtragem e amplificação poderão existir dois processos para a transmissão no cabo, sendo um deles a codificação analógica dos canais (canais premium, pay-per-view, conteúdo explícito para adultos, etc) criando-se um empacotamento, modulação e depois a transmissão no cabo.

Alguns canais, dependendo do interesse da operadora podem ser transmitidos diretamente no cabo sem a codificação analógica, como é o caso da recepção dos canais locais da cidade em que a operadora de TV a cabo se situa, os chamados canais Off Air, porém passam pelo processo de recepção, filtragem amplificação, modulação e transmissão.

Em resumo, para os canais recebidos via satélite, eles são convertidos de sinais digitais (DVB-S), para sinais analógicos e depois transmitidos no cabo.

HDTV:
Em sua maior resolução de imagem - High Definition Television (HDTV) - Este padrão prioriza a nitidez e qualidade da imagem em detrimento do número máximo de canais a serem transportados em uma mesma freqüência. Atualmente, a resolução HDTV encontra resistência em avançar no mundo, sendo o alto custo da solução um dos principais obstáculos. O HDTV é atualmente utilizado em algumas grandes cidades localizadas em partes dos Estados Unidos, do Japão e de algumas regiões da Europa (para quem dispõe de uma TV com esta tecnologia).
Momento tecnológico no Brasil:
O Brasil foi o único país emergente onde emissoras e indústrias de equipamentos financiaram parte dos testes de laboratório e de campo para comparar a eficiência técnica dos três padrões tecnológicos existentes em relação à transmissão e recepção dos sinais. Devemos dar destaque a Universidade Presbiteriana Mackenzie, juntamente com equipamentos da NEC, que realizaram diversos testes em laboratório e em campo, para a escolha do padrão de TV digital japonês. E a Escola Politécnica da Universidade de São Paulo (EPUSP) que em seu laboratório de Sistemas Integrados, chegou a criar um padrão totalmente brasileiro de transmissão. A TV Digital no Brasil chegou às 20h48min do dia 2 de dezembro de 2007, com pronunciamento do Presidente da República. Inicialmente na Grande São Paulo, pelo padrão japonês com algumas adaptações. A RedeTV! foi a primeira rede de televisão a exibir em São Paulo a sua programação em formato digital de televisão. No dia 20 de Abril o sinal de Alta Definição foi liberado pela Rede Globo apenas na região metropolitana do Grande Rio. O sinal de TV digital também já está presente em Campinas,Cuiabá, Goiânia, Belo Horizonte, Porto Alegre, Fortaleza, Curitiba, Vitória, Florianópolis , Salvador, Uberlândia, Teresina, Santos , Brasília, Joinville, Recife , Manaus, Sorocaba, São Luís e Campo Grande.