Criando um Servidor DHCP no Win Server 2008 Datacenter

Criando um Servidor de Impressão no Cisco Packet Tracer

Como instalar um Servidor de Arquivos no Windows Server 2008

Instalando um servidor de Impressão no Win Server 2008 Datacenter

1-      Clique com o botão esquerdo do mouse em: Iniciar/Ferramentas administrativas/Gerenciador de servidores.


2-Clique com o botão esquerdo do mouse em: Funções/Adicionar Funções .

3   3-      Agora clique em Próximo.

3   4-      Marque a Opção Serviços de Impressão e Clique em próximo.

5-Clique em próximo.

6   6-      Verifique se a opção Servidor de Impressão  está marcada e clique em Próximo.


67-      Clique em Instalar e aguarde alguns instantes.

68-      Agora clique em Fechar.

Pronto!!! Nem foi tão difícil assim ne?







Tecnologia USB (Universal Serial Bus)



Introdução

USB é a sigla para Universal Serial Bus. Trata-se de uma tecnologia que tornou mais simples, fácil e rápida a conexão de diversos tipos de aparelhos (câmeras digitais, HDs externos, pendrives, mouses, teclados, MP3-players, impressoras, scanners, leitor de cartões, etc) ao computador, evitando assim o uso de um tipo específico de conector para cada dispositivo. Neste artigo, você verá as principais características dessa tecnologia, conhecerá os seus conectores, saberá um pouco de seu funcionamento e entenderá os motivos que levaram o USB a ser "presença obrigatória" em computadores e em vários outros dispositivos.

Surgimento do padrão USB

Antigamente, conectar dispositivos ao computador era uma tarefa pouco intuitiva, muitas vezes digna apenas de técnicos ou usuários com experiência no assunto. Para começar, diante de vários tipos de cabos e conectores, era necessário descobrir, quase que por adivinhação, em qual porta do computador conectar o dispositivo em questão. Quando a instalação era interna, a situação era pior, já que o usuário tinha que abrir o computador e quase sempre configurar jumpers e/ou IRQs. Somente de pensar em ter que encarar um emaranhado de fios e conectores, muitos usuários desistiam da ideia de adicionar um novo item à sua máquina.
Símbolo do USBDiante de situações desse tipo, a indústria entendeu a necessidade de criar um padrão que facilitasse a conexão de dispositivos ao computador. Assim, em 1995, um conjunto de empresas - entre elas, Microsoft, Intel, NEC, IBM e Apple - formou um consórcio para estabelecer um padrão. Surgia então o USB Implementers Forum. Pouco tempo depois disso, as primeiras especificações comerciais do que ficou conhecido como Universal Serial Bus (USB) surgiram. A imagem ao lado mostra o símbolo da tecnologia.
Na verdade, a tecnologia já vinha sendo trabalhada antes mesma da definição do consórcio como USB Implementers Forum. As primeiras versões estabelecidas datam de 1994:
- USB 0.7: novembro de 1994;
- USB 0.8: dezembro de 1994;
- USB 0.9: abril de 1995;
- USB 0.99: agosto de 1995;
- USB 1.0: janeiro de 1996;
- USB 1.1: setembro de 1998;
- USB 2.0: abril de 2000.
As versões que entraram para uso comercial em larga escala foram a 1.1 e a 2.0, que serão vistas com mais detalhes neste texto.

Vantagens do padrão USB

Um dos principais motivos que levou à criação da tecnologia USB é a necessidade de facilitar a conexão de variados dispositivos ao computador. Sendo assim, o USB oferece uma série de vantagens:
- Padrão de conexão: qualquer dispositivo compatível como USB usa padrões definidos de conexão (ver mais no tópico sobre conectores), assim não é necessário ter um tipo de conector específico para cada aparelho;
Plug and Play (algo como "Plugar e Usar"): quase todos os dispositivos USB são concebidos para serem conectados ao computador e utilizados logo em seguida. Apenas alguns exigem a instalação de drivers ou softwares específicos. No entanto, mesmo nesses casos, o sistema operacional reconhecerá a conexão do dispositivo imediatamente;
- Alimentação elétrica: a maioria dos dispositivos que usam USB não precisa ser ligada a uma fonte de energia, já que a própria conexão USB é capaz de fornecer eletricidade. Por conta disso, há até determinados dispositivos, como telefones celulares e MP3-players, que têm sua bateria recarregada via USB. A exceção fica por conta de aparelhos que consomem maior quantidade de energia, como scanners e impressoras;
- Conexão de vários aparelhos ao mesmo tempo: é possível conectar até 127 dispositivos ao mesmo tempo em uma única porta USB. Isso pode ser feito, por exemplo, através de hubs, dispositivos que utilizam uma conexão USB para oferecer um número maior delas. Mas, isso pode não ser viável, uma vez que a velocidade de transmissão de dados de todos os equipamentos envolvidos pode ser comprometida. No entanto, com uma quantidade menor de dispositivos, as conexões podem funcionar perfeitamente;
- Ampla compatibilidade: o padrão USB é compatível com diversas plataformas e sistemas operacionais. O Windows, por exemplo, o suporta desde a versão 98. Sistemas operacionais Linux e Mac também são compatíveis. Atualmente, é possível encontrar portas USB em vários outros aparelhos, como televisores, sistemas de comunicação de carros e até aparelhos de som, como mostra a foto abaixo:
USB em um aparelho de som
USB em um aparelho de som
Hot-swappable: dispositivos USB podem ser conectados e desconectados a qualquer momento. Em um computador, por exemplo, não é necessário reiniciá-lo ou desligá-lo para conectar ou desconectar o dispositivo;
- Cabos de até 5 metros: os cabos USB podem ter até 5 metros de tamanho, e esse limite pode ser aumentado com uso de hubs ou de equipamentos capazes de repetir os sinais da comunicação.

Sobre o funcionamento do USB

Como já informado, o barramento USB pode ser utilizado para prover energia elétrica a determinados dispositivos. Para que isso seja possível, os cabos USB contam com quatro fios internos: VBus (VCC), D+, D- e GND. O primeiro é o responsável pela alimentação elétrica. O segundo e o terceiro são utilizados na transmissão de dados (a letra "D" provém de data, dado em inglês). O quarto, por sua vez, é para controle elétrico, servindo como "fio-terra".
Vale frisar que, conforme dito no tópico anterior, os cabos USB devem ter, no máximo, 5 metros de comprimento. Isso é necessário porque, em cabos maiores, o tempo de transmissão dos dados pode exceder o limite de 1500 nanossegundos. Quando isso ocorre, a informação é considerada perdida.
A comunicação entre os dispositivos conectados via USB é feita através de um protocolo. Nele, o host, isto é, o computador ou o equipamento que recebe as conexões, emite um sinal para encontrar os dispositivos conectados e estabelece um endereço para cada um deles, lembrando que até 127 dispositivos podem ser endereçados. Uma vez estabelecida a comunicação, o host recebe a informação de que tipo de conexão o dispositivo conectado utiliza. Há quatro possibilidades:
Bulk: esse tipo é utilizado por dispositivos que lidam com grandes volumes de dados, como impressoras e scanners, por exemplo. O Bulk conta com recursos de detecção de erro para garantir a integridade das informações transmitidas;
Control: tipo utilizado para transmissão de parâmetros de controle e configuração do dispositivo;
Interrupt: tipo utilizado para dispositivos que transferem poucos dados, como mouses, teclados e joysticks;
Isochronous: esse tipo é aplicado em transmissões contínuas, onde os dados são transferidos a todo o momento, razão pela qual não há recursos de detecção de erros, já que isso atrasaria a comunicação. Dispositivos como caixas de som utilizam esse modo.

USB 1.1 e USB 2.0

Tal como ocorre com outras tecnologias, o padrão USB passa periodicamente por revisões em suas especificações para atender as necessidades atuais do mercado. A primeira versão do USB que se tornou padrão foi a 1.1. Essa versão, lançada em setembro de 1998, contém praticamente todas as características explicadas no tópico anterior, no entanto, sua velocidade de transmissão de dados não é muito alta: nas conexões mais lentas, a taxa de transmissão é de até 1,5 Mbps (Low-Speed), ou seja, de cerca de 190 KB por segundo. Por sua vez, nas conexões mais rápidas, esse valor é de até 12 Mbps (Full-Speed), cerca de 1,5 MB por segundo.
Na época do lançamento do USB 1.1, essas taxas não eram necessariamente baixas, uma vez que serviam à grande maioria dos dispositivos. No entanto, à medida que o uso do USB crescia, notou-se que também aumentava a necessidade de taxas maiores na transferência de dados. Dispositivos como scanners e câmeras digitais, por exemplo, passaram a trabalhar com resoluções mais altas, resultando em maior volume de informações.
Diante desse cenário e do surgimento de tecnologias "concorrentes", em especial, o FireWire (ou IEEE 1394), o consórcio responsável pelo USB se viu obrigado a colocar no mercado uma nova revisão da tecnologia. Surgia então em abril de 2000 o USB 2.0 (Hi-Speed), que é o padrão de mercado até os dias de hoje (considerando a data de publicação deste artigo no InfoWester).
O USB 2.0 chegou ao mercado oferecendo a velocidade de 480 Mbps, o equivalente a cerca de 60 MB por segundo. O padrão de conexão continua sendo o mesmo da versão anterior. Além disso, o USB 2.0 é totalmente compatível com dispositivos que funcionam com o USB 1.1. No entanto, nestes casos, a velocidade da transferência de dados será a deste último, obviamente. Isso ocorre porque o barramento USB tentará se comunicar à velocidade de 480 Mbps. Se não conseguir, tentará à velocidade de 12 Mbps e, por fim, se não obter êxito, tentará se comunicar à taxa de 1,5 Mbps. Quanto à possibilidade de um aparelho USB 2.0 funcionar em conexões USB 1.1, isso pode acontecer, mas dependerá, essencialmente, do fabricante e do dispositivo.
Uma coisa que é interessante destacar em relação ao USB 2.0 é que seu lançamento trouxe também uma novidade que serviu para tornar a tecnologia ainda mais popular: a partir da versão 2.0, fabricantes puderam adotar o padrão em seus produtos sem a obrigatoriedade de pagar royalties, ou seja, sem ter que pagar licenças de uso da tecnologia.
O lançamento do USB 2.0 também trouxe outra vantagem: o padrão FireWire foi padronizado principalmente para trabalhar com aplicações que envolvem vídeo e áudio, tendo a Apple como maior apoiador. Assim, é bastante prático conectar uma câmera de vídeo por este meio. Como a velocidade do USB 2.0 supera a velocidade das primeiras implementações do FireWire (com velocidade de até 400 Mbps), o padrão também se tornou uma opção viável para aplicações de mídia, o que aumentou seu leque de utilidades. Mas, os desenvolvedores do padrão FireWire não ficaram parados e lançaram especificações novas (o FireWire 800, que trabalha à 800 Mbps). Além disso, a necessidade de velocidades cada vez maiores de transmissão de dados ainda é realidade. Por conta disso, o USB continua sendo revisado. Esse trabalho deu espaço ao USB 3.0.
USB Flash Drive, no Brasil, conhecido como Pendrive
USB Flash Drive, no Brasil, conhecido como Pendrive

USB 3.0

Ass especificações desse padrão foram definidas no final de 2008, no entanto, os primeiros produtos compatíveis com o novo padrão começaram a chegar aos consumidores no segundo semestre de 2010. Eis as principais características do USB 3.0 (SuperSpeed):
- Transmissão bidirecional de dados: até a versão 2.0, o padrão USB permite que os dados trafeguem do dispositivo A para o B e do dispositivo B para o A, mas cada um em sua vez. No padrão 3.0, o envio e a recepção de dados entre dois dispositivos pode acontecer ao mesmo tempo;
- Maior velocidade: a velocidade de transmissão de dados é de até 4,8 Gbps, equivalente a cerca de 600 MB por segundo, um valor absurdamente mais alto que os 480 Mbps do padrão USB 2.0;
- Alimentação elétrica mais potente: o padrão USB 3.0 pode oferecer maior quantidade de energia: 900 miliampéres contra 500 miliampéres do USB 2.0;
- Compatibilidade: conexões USB 3.0 poderão suportar dispositivos USB 1.1 e USB 2.0.
Saiba mais sobre USB 3.0 nesta matéria publicada aqui mesmo no InfoWester.

Tipos de conectores

A tecnologia USB conta com vários tipos de conectores, sendo o tipo A o mais conhecido, uma vez que está presente na maioria esmagadora dos computadores compatíveis com a tecnologia, além de poder ser encontrado em outros tipos de aparelhos. Uma vez que o objetivo principal do padrão USB é facilitar a conexão de variados dispositivos ao computador, geralmente os cabos desses aparelhos são do tipo A em uma ponta e de algum dos outros tipos na outra, podendo a segunda ponta ter também algum formato proprietário, isto é, específico de um fabricante.
Nas imagens a seguir, os conectores (macho) estão do lado esquerdo, enquanto que seus respectivos encaixes (conectores fêmea) estão do lado direito:
USB A
É o tipo mais comum, estando presente na maioria absoluta dos computadores atuais. É também o tipo mais utilizado para os dispositivos de armazenamento de dados conhecidos como "pendrives":
USB A
USB B
Tipo comum de ser encontrado em dispositivos de porte maior, como impressoras e scanners:
USB B
Mini-USB
Utilizado em dispositivos de porte pequeno por ter tamanho reduzido, como câmeras digitais compactas e MP3-players. Na verdade, o Mini USB se chama USB Mini-B, já que existe um formato praticamente inutilizado chamado USB Mini-A. Eis os conectores Mini-USB:
Mini-USB
Micro-USB
USB Micro-A: formato mais novo, menor que o Mini-USB, voltado a dispositivos de espessura fina, como telefones celulares:
USB Micro-A
USB Micro-B: semelhante ao formato Micro-A, no entanto, seu encaixe é ligeiramente diferente e a tendência é a de que este seja, entre ambos, o mais popular:
USB Micro-B
Vale frisar que conectores fêmeas Micro-A podem ser chamados de Micro A-B por serem compatíveis com conectores machos de ambos os tipos.
Tal como informado no início do tópico, há fabricantes que utilizam USB com conectores proprietários. O cabo abaixo, utilizado em um MP3-player da Sony, é um exemplo:
USB com conector proprietário
Conectores proprietários costumam não ser bem aceitos por terem custo elevado em relação a padrões de mercado e por serem mais difíceis de encontrar.
HD externo conectado em notebook via USB
HD externo conectado em notebook via USB

Finalizando


O WUSB, atualmente, é capaz de transmitir dados em velocidades de até 480 Mbps para conexões em um raio de até 3 metros ou 110 Mbps para conexões em um raio de até 10 metros. Sua frequência de operação corresponde à faixa UWB (Ultra Wide Band), que estabelece taxas entre 3,1 GHz e 10,6 GHz.
Com a popularização de tecnologias de comunicação sem fio, comoBluetooth e Wi-Fi, há quem questione o futuro do USB, uma vez que a tendência é a de que todos os dispositivos passem a se comunicar sem o uso de cabos. O fato é que ainda vai levar alguns anos para isso acontecer de maneira significativa e, quando ocorrer, teremos como opção de conexão o Wireless USB (WUSB), que aliás, já é realidade.

Barramentos: ISA, AGP, PCI, PCI Express, AMR e outros


Introdução
Barramentos (ou, em inglês, bus) são, em poucas palavras, padrões de comunicação utilizados em computadores para a interconexão dos mais variados dispositivos. Neste artigo, você conhecerá algumas características dos principais barramentos presentes nos PCs, como ISAAGPPCIPCI Express e AMR. Note que muitos desses padrões já não são utilizados em computadores novos, mesmo assim, conhecê-los é importante.
Antes de começarmos, é importante você saber que, no decorrer deste texto, o InfoWester utilizará com certa freqüência a palavra slot. Esse termo faz referência aos encaixes físicos de cada barramento para a conexão de dispositivos (placas de vídeo, placas de rede, etc). Em geral, cada barramento possui um tipo de slot diferente.

Barramento ISA (Industry Standard Architecture)

O barramento ISA é um padrão não mais utilizado, sendo encontrado apenas em computadores antigos. Seu aparecimento se deu na época do IBM PC e essa primeira versão trabalha com transferência de 8 bits por vez e clock de 8,33 MHz (na verdade, antes do surgimento do IBM PC-XT, essa valor era de 4,77 MHz).
Na época do surgimento do processador 286, o barramento ISA ganhou uma versão capaz de trabalhar com 16 bits. Dispositivos anteriores que trabalhavam com 8 bits funcionavam normalmente em slots com o padrão de 16 bits, mas o contrário não era possível, isto é, de dispositivos ISA de 16 bits trabalharem com slots de 8 bits, mesmo porque os encaixes ISA de 16 bits tinham uma extensão que os tornavam maiores que os de 8 bits, conforme indica a imagem abaixo:
Slots ISA
Slots ISA
Repare na imagem acima que o slot contém uma divisão. As placas de 8 bits utilizam somente a parte maior. Como você já deve ter imaginado, as placas de 16 bits usam ambas as partes. Por conta disso, as placas-mãe da época passaram a contar apenas com slots ISA de 16 bits. Curiosamente, alguns modelos foram lançados tendo tanto slots de 8 bits quanto slots de 16 bits.
Se você está acostumado com slots mais recentes, certamente percebeu o quão grandes são os encaixes ISA. O de 16 bits, por exemplo, conta com 98 terminais. Por aí, é possível perceber que as placas de expansão da época (isto é, placas de vídeo, placas de som, placas de modem, etc) eram igualmente grandes. Apesar disso, não era difícil encontrar placas que não utilizavam todos os contatos dos slots ISA, deixando um espaço de sobra no encaixe.
Com a evolução da informática, o padrão ISA foi aos poucos perdendo espaço. A versão de 16 bits é capaz de proporcionar transferência de dados na casa dos 8 MB por segundo, mas dificilmente esse valor é alcançado, ficando em torno de 5 MB. Como essa taxa de transferência era suficiente para determinados dispositivos (placas de modem, por exemplo), por algum tempo foi possível encontrar placas-mãe que contavam tanto com slots ISA quanto com slots PCI (o padrão sucessor).

Barramento PCI (Peripheral Component Interconnect)

O barramento PCI surgiu no início de 1990 pelas mãos da Intel. Suas principais características são a capacidade de transferir dados a 32 bits e clock de 33 MHz, especificações estas que tornaram o padrão capaz de transmitir dados a uma taxa de até 132 MB por segundo. Os slots PCI são menores que os slots ISA, assim como os seus dispositivos, obviamente.
Mas, há uma outra característica que tornou o padrão PCI atraente: o recurso Bus Mastering. Em poucas palavras, trata-se de um sistema que permite a dispositivos que fazem uso do barramento ler e gravar dados direto na memória RAM, sem que o processador tenha que "parar" e interferir para tornar isso possível. Note que esse recurso não é exclusivo do barramento PCI.
Slots PCI
Slots PCI
Outra característica marcante do PCI é a sua compatibilidade com o recurso Plug and Play (PnP), algo como "plugar e usar". Com essa funcionalidade, o computador é capaz de reconhecer automaticamente os dispositivos que são conectados ao slot PCI. Atualmente, tal capacidade é trivial nos computadores, isto é, basta conectar o dispositivo, ligar o computador e esperar o sistema operacional avisar sobre o reconhecimento de um novo item para que você possa instalar os drivers adequados (isso se o sistema operacional não instalá-lo sozinho). Antigamente, os computadores não trabalhavam dessa maneira e o surgimento do recurso Plug and Play foi uma revolução nesse sentido. Além de ser utilizada em barramentos atuais, essa funcionalidade chegou a ser implementada em padrões mais antigos, inclusive no ISA.
O barramento PCI também passou por evoluções: uma versão que trabalha com 64 bits e 66 MHz foi lançada, tendo também uma extensão em seu slot. Sua taxa máxima de transferência de dados é estimada em 512 MB por segundo. Apesar disso, o padrão PCI de 64 bits nunca chegou a ser popular. Um dos motivos para isso é o fato de essa especificação gerar mais custos para os fabricantes. Além disso, a maioria dos dispositivos da época de auge do PCI não necessitava de taxas de transferência de dados maiores.

Barramento PCI-X (Peripheral Component Interconnect Extended)

Muita gente confunde o barramento PCI-X com o padrão PCI Express (mostrado mais abaixo), mas ambos são diferentes. O PCI-X nada mais é do que uma evolução do PCI de 64 bits, sendo compatível com as especificações anteriores. A versão PCI-X 1.0 é capaz de operar nas freqüêcias de 100 MHz e 133 MHz. Neste última, o padrão pode atingir a taxa de transferência de dados de 1.064 MB por segundo. O PCI-X 2.0, por sua vez, pode trabalhar também com as freqüências de 266 MHz e 533 MHz.
Slot PCI-X
Slot PCI-X

Barramento AGP (Accelerated Graphics Port)

Se antes os computadores se limitavam a exibir apenas caracteres em telas escuras, hoje eles são capazes de exibir e criar imagens em altíssima qualidade. Mas, isso tem um preço: quanto mais evoluída for uma aplicação gráfica, em geral, mais dados ela consumirá. Para lidar com o volume crescente de dados gerados pelos processadores gráficos, a Intel anunciou em meados de 1996 o padrão AGP, cujo slot serve exclusivamente às placas de vídeo.
A primeira versão do AGP (chamada de AGP 1.0) trabalha a 32 bits e tem clock de 66 MHz, o que equivale a uma taxa de transferência de dados de até 266 MB por segundo, mas na verdade, pode chegar ao valor de 532 MB por segundo. Explica-se: o AGP 1.0 pode funcionar no modo 1x ou 2x. Com 1x, um dado por pulso de clock é transferido. Com 2x, são dois dados por pulso de clock.
Em meados de 1998, a Intel lançou o AGP 2.0, cujos diferenciais estão na possibilidade de trabalhar também com o novo modo de operação 4x (oferecendo uma taxa de transferência de 1.066 MB por segundo) e alimentação elétrica de 1,5 V (o AGP 1.0 funciona com 3,3 V). Algum tempo depois surgiu o AGP 3.0, que conta com a capacidade de trabalhar com alimentação elétrica de 0,8 V e modo de operação de 8x, correspondendo a uma taxa de transferência de 2.133 MB por segundo.
Além da alta taxa de transferência de dados, o padrão AGP também oferece outras vantagens. Uma delas é o fato de sempre poder operar em sua máxima capacidade, já que não há outro dispositivo no barramento que possa, de alguma forma, interferir na comunicação entre a placa de vídeo e o processador (lembre-se que o AGP é compatível apenas com placas de vídeo). O AGP também permite que a placa de vídeo faça uso de parte da memória RAM do computador como um incremento de sua própria memória, um recurso chamado Direct Memory Execute.
Slot AGP
Slot AGP 8x (3.0)
Quanto ao slot, o AGP é ligeiramente menor que um encaixe PCI. No entanto, como há várias versões do AGP, há variações nos slots também (o que é lamentável, pois isso gera muita confusão). Essas diferenças ocorrem principalmente por causa das definições de alimentação elétrica existentes entre os dispositivos que utilizam cada versão. Há, por exemplo, um slot que funciona para o AGP 1.0, outro que funciona para o AGP 2.0, um terceiro que trabalha com todas as versões (slot universal) e assim por diante. A ilustração abaixo mostra todos os tipos de conectores:
Versões do AGP
As variações do AGP. Ilustração por Wikipedia.
Como você deve ter reparado na imagem acima, o mercado também conheceu versões especiais do AGP chamadas AGP Pro, direcionadas a placas de vídeo que consomem grande quantidade de energia.
Apesar de algumas vantagens, o padrão AGP acabou perdendo espaço e foi substituído pelo barramento PCI Express.

Barramento PCI Express

O padrão PCI Express (ou PCIe ou, ainda, PCI-EX) foi concebido pela Intel em 2004 e se destaca por substituir, ao mesmo tempo, os barramentos PCI e AGP. Isso acontece porque o PCI Express está disponível em vários segmentos: 1x, 2x, 4x, 8x e 16x (há também o de 32x, mas até o fechamento deste artigo, este não estava em uso pela indústria). Quanto maior esse número, maior é a taxa de transferência de dados. Como mostra a imagem abaixo, esse divisão também reflete no tamanho dos slots PCI Express:
Slots PCI Express 16x e 1x
Slots PCI Express 16x (branco) e 1x (preto)
O PCI Express 16x, por exemplo, é capaz de trabalhar com taxa de transferência de cerca de 4 GB por segundo, característica que o faz ser utilizado por placas de vídeo, um dos dispositivos que mais geram dados em um computador. O PCI Express 1x, mesmo sendo o mais "fraco", é capaz de alcançar uma taxa de transferência de cerca de 250 MB por segundo, um valor suficiente para boa parte dos dispositivos mais simples.
Com o lançamento do PCI Express 2.0, que aconteceu no início de 2007, as taxas de transferência da tecnologia praticamente dobraram.
Saiba mais sobre a tecnologia PCI Express nesta matéria publicada aqui no InfoWester.

Barramentos AMR, CNR e ACR

Os padrões AMR (Audio Modem Riser), CNR (Communications and Network Riser) e ACR (Advanced Communications Riser) são diferentes entre si, mas compartilham da idéia de permitir a conexão à placa-mãe de dispositivos Host Signal Processing (HSP), isto é, dispositivos cujo controle é feito pelo processador do computador. Para isso, o chipset da placa-mãe precisa ser compatível. Em geral, esses slots são usados por placas que exigem pouco processamento, como placas de som, placas de rede ou placas de modem simples.
O slot AMR foi desenvolvido para ser usado especialmente para funções de modem e áudio. Seu projeto foi liderado pela Intel. Para ser usado, o chipset da placa-mãe precisava contar com os circuitos AC'97 e MC'97 (áudio e modem, respectivamente). Se comparado aos padrões vistos até agora, o slot AMR é muito pequeno:
Slot AMR
Slot AMR
O padrão CNR, por sua vez, surgiu praticamente como um substituto do AMR e também tem a Intel como principal nome no seu desenvolvimento. Ambos são, na verdade, muito parecidos, inclusive nos slots. O principal diferencial do CNR é o suporte a recursos de rede, além dos de áudio e modem.
Em relação ao ACR, trata-se de um padrão cujo desenvolvimento tem como principal nome a AMD. Seu foco principal são as comunicações de rede e USB. Esse tipo foi por algum tempo comum de ser encontrado em placas-mãe da Asus e seu slot é extremamente parecido com um encaixe PCI, com a diferença de ser posicionado de forma contrária na placa-mãe, ou seja, é uma espécie de "PCI invertido".

Outros barramentos

Os barramentos mencionados neste texto foram ou são bastante utilizados pela indústria, mas há vários padrões que, por razões diversas, tiveram aceitação mais limitada no mercado. É o caso, por exemplo, dos barramentos VESA, MCA e EISA:
VESA: também chamado de VLB (VESA Local Bus), esse padrão foi estabelecido pela Video Electronics Standards Association (daí a sigla VESA) e funciona, fisicamente, como uma extensão do padrão ISA (há um encaixe adicional após um slot ISA nas placas-mãe compatíveis com o padrão). O VLB pode trabalhar a 32 bits e com a freqüência do barramento externo do processador (na época, o padrão era de 33 MHz), fazendo com que sua taxa de transferência de dados pudesse alcançar até 132 MB por segundo. Apesar disso, a tecnologia não durou muito tempo, principalmente com a chegada do barramento PCI;
MCA: sigla para Micro Channel Architecture, o MCA foi idealizado pela IBM para ser o substituto do padrão ISA. Essa tecnologia trabalha à taxa de 32 bits e à freqüência de 10 MHz, além de ser compatível como recursos como Plug and Play e Bus Mastering. Um dos empecilhos que contribuiu para a não popularização do MCA foi o fato de este ser um barramento proprietário, isto é, pertencente à IBM. Por conta disso, empresas interessadas na tecnologia tinham que pagar royalties para inserí-la em seus produtos, idéia essa que, obviamente, não foi bem recebida;
EISA: sigla de Extended Industry Standard Architecture, o EISA é, conforme o nome indica, um barramento compatível com a tecnologia ISA. Por conta disso, pode operar a 32 bits, mas mantém sua freqüência em 8,33 MHz (a mesma do ISA). Seu slot é praticamente idêntico ao do padrão ISA, no entanto, é mais alto, já que utiliza duas linhas de contatos: a primeira é destinada aos dispositivos ISA, enquanto que a segunda serve aos dispositivos de 32 bits.
Finalizando
Os barramentos abordados neste artigo servem, essencialmente, à conexão de dispositivos diretamente na placa-mãe, através de slots específicos. No entanto, há outras tecnologias com finalidades semelhantes, como o SATA, além daquelas que permitem a conexão de um dispositivo sem a necessidade de abertura do computador, como o USB, o FireWire e o Bluetooth (este último, sem fio)

 

Processadores - Parte 2: fabricação, miniaturalização e encapsulamento


Introdução

No artigo Processadores - Parte 1, os conceitos mais básicos de um processador foram abordados, comoclockFront Side Bus (FSB) e memória cache. Nesta segunda parte, você conhecerá outros conceitos relacionados aos processadores, comominiaturalização e encapsulamento. No entanto, o mais importante é que você também encontrará resposta para uma pergunta muito comum: como os processadores são fabricados?

É claro que esse é um assunto de extrema complexidade. Por esse motivo, somente os conceitos mais básicos serão explicados aqui. Todavia, essa explanação será suficiente para que você possa ter uma noção de como os processadores são fabricados. Antes de começar, uma sugestão: leia a primeira parte deste artigo para não se "perder" diante de algum termo técnico mencionado aqui ;)
Vamos lá?

Silício

O primeiro passo na fabricação de processadores consiste, obviamente, na obtenção de matéria-prima. Geralmente, os chips são formados por silício, e com os processadores não é diferente. O silício é um elemento químico extremamente abundante, tanto que é considerado o segundo mais comum na Terra. É possível extraí-lo de areia, granito, argila, entre outros.

Esse elemento químico é utilizado para a constituição de vários materiais resistentes, como vidro e cerâmica. No entanto, é também semicondutor, isto é, tem a capacidade de conduzir eletricidade. Essa característica somada à sua existência em abundância faz com que o silício seja um elemento extremamente utilizado pela indústria eletrônica.

Para você ter uma ideia da importância desse material, a concentração de empresas que utilizam silício em seus produtos eletrônicos em várias cidades da Califórnia, nos EUA, fez com que a região recebesse o nome de Vale do Silício (Silicon Valley). É lá que estão localizadas, por exemplo, as sedes da AMD e daIntel, as maiores fabricantes de microprocessadores do mundo.

Fabricação de processadores

A fabricação dos processadores se inicia em modernos centros tecnológicos especializados. Esses locais são tão sofisticados e de construção de valor tão elevado, que existem poucos no mundo. Nos laboratórios desses centros, uma determinada quantidade de cristal de silício é colocada em uma espécie de haste e, posteriormente, inserida em silício fundido submetido a uma pressão e a uma temperatura extremamente alta - em torno dos 300º. A haste é então retirada e girada ao mesmo tempo. Esse processo (chamado de técnica Czochralski) faz com que o material que se juntou à haste forme uma espécie de cilindro (também conhecido como "ingot"). Seu diâmetro varia de acordo com o avanço da tecnologia, mas em geral possui entre 200 e 300 milímetros. O mesmo vale para o seu comprimento: de 1 a 2 metros. É importante frisar que esses cilindros precisam ser formados de silício puro. O processo de purificação desse material é complexo, o que encarece ainda mais a fabricação.
Cilindro formado por silício (ingot). Imagem por Wikipedia
Cilindro formado por silício (ingot). Imagem por Wikipedia
Uma vez concluída essa etapa, o cilindro é "fatiado", isto é, cortado em várias partes. Cada uma dessas divisões recebe o nome de wafer. Cada "fatia" é polida até ficar perfeita, sem variações, manchas, diferenças de brilho ou qualquer irregularidade em sua composição. Sua espessura, geralmente é menor que 1 milímetro. Em uma etapa mais adiante, cada wafer será dividido em vários "quadradinhos" (ou "pastilhas"), que posteriormente serão separados e formarão os processadores em si.
No passo seguinte, a superfície do wafer passa por um processo de oxidação, onde a aplicação de gases - especialmente oxigênio - e temperatura elevada forma uma camada de dióxido de silício. Essa camada servirá de base para a construção de milhares e milhares de transistores, em poucas palavras, minúsculos componentes capazes de "amplificar" ou "chavear" sinais elétricos, além de outras funções relacionadas.
Na próxima etapa, os wafers passam por um processo onde recebem uma camada de material fotossensível, isto é, que reage à luz. Nessa etapa, cada um dos blocos que se transformará em processador recebe luz ultravioleta em certos pontos e em determinadas intensidades. Os pontos da camada fotossensível que reagem à luz ultravioleta se tornam mais "gelatinosos" e são posteriormente removidos, deixando expostos os respectivos pontos da camada de dióxido de silício. Com isso, tem-se pontos cobertos com camada fotossensível e pontos cobertos com dióxido de silício. Obviamente, a camada fotossensível restante tem dióxido de silício por baixo. As partes deste último que não estiverem protegidas pela camada fotossensível são então removidas através de outro procedimento. No próximo passo, a camada fotossensível é removida. O que sobra então é utilizado como estrutura para a montagem dos transistores, procedimento esse que continua sendo feito a partir de aplicação de mais materiais e exposição à luz ultravioleta.
Engenheiro segurando um wafer - Imagem por Intel
Engenheiro segurando um wafer - Imagem por Intel
Quem tem alguma experiência com fotos baseadas em filmes, provavelmente perceberá que as etapas descritas acima lembram bastante os procedimentos de revelação de fotografias. De fato, os princípios são essencialmente os mesmos.
É importante frisar que um único processador pode conter milhões de transistores. Só como exemplo, os primeiros processadores da linha Intel Core 2 Duo possuem cerca de 291 milhões de transistores em um único chip. Assim como acontece com qualquer processador, esses transistores são divididos e organizados em agrupamentos, onde cada grupo é responsável por uma função.
Uma vez terminada a montagem dos transistores, os wafers são "recortados" em um formato que lembra pequenos quadrados ou pastilhas. Cada unidade se transformará em um processador. Como os wafers são redondos, o que sobra da borda, obviamente, não pode virar um processador, então esse material é descartado, assim como qualquer unidade que apresentar defeito ou anormalidade.
Você pode ter se perguntado se não seria ideal fabricar wafers quadrados ou retangulares para evitar desperdício na borda. Teoricamente, seria, mas os wafers são formados por cilindros devido à técnica de fabricação explicada no início deste tópico, onde uma haste é inserida em silício e, em seguida, retirada e girada. Esse procedimento faz com que um cilindro seja constituído naturalmente.
Wafer de silício - repare que as bordas são desperdiçadas - Imagem por Intel
Wafer de silício - repare que as bordas são desperdiçadas - Imagem por Intel
É importante frisar que cada wafer dá origem a centenas de processadores, portanto, todo o processo de fabricação é realizado com base em uma série de cuidados. Para começar, os laboratórios das fábricas são locais extremamente limpos e protegidos (conhecidos como "clean room"), tanto é que as poucas pessoas que acompanham a produção utilizam roupas que lembram astronautas (como mostra a segunda foto deste tópico). Além disso, as máquinas responsáveis pela produção precisam estar perfeitamente ajustadas para seguir as instruções dos projetos dos chips que estão sendo fabricados.
Wafer, pastilha (die), processador - Montagem baseada em imagens da Intel
Wafer, pastilha (die), processador - Montagem baseada em imagens da Intel

Diferença de clock

Quando os processadores chegam ao mercado, eles são classificados em linhas, por exemplo, Intel Core 2 Duo, AMD Phenom II e assim por diante. Cada uma dessas linhas é constituída por processadores de diversas velocidades de processamento. Como exemplo, a linha Intel Core 2 Duo possui os modelos E8400, E8500 e E8600. O que os diferencia é que o clock do primeiro é de 3 GHz, o clock do segundo é de 3,16 GHz e, por fim, o clock do terceiro é de 3,33 GHz.
Todos esses processadores são oriundos do mesmo projeto, portanto, têm a mesma arquitetura. O que torna um modelo mais rápido que o outro é que a fabricação do mais veloz foi mais perfeita que a dos modelos imediatamente inferiores. Pequenos detalhes durante todo o processo de fabricação fazem com que, dentro de um mesmo wafer, as "pastilhas" sejam ligeiramente diferentes uma das outras. Isso pode acontecer, por exemplo, em virtude de pequenos desvios nas camadas, em pequenas diferenças na passagem do feixe de luz, entre outros.
Por esse motivo, os wafers passam por testes que apontam com qual frequência cada chip pode utilizar. Apenas depois disso é que o wafer é cortado e os chips passam para a fase de encapsulamento. Esses testes também apontam quais chips deverão ser descartados por não terem condições de uso.

Miniaturalização

A indústria conseguiu elevar a capacidade dos processadores ao longo do tempo sem que, para tanto, tivesse que aumentar o tamanho físico desses dispositivos. Esse feito é possível graças ànanotecnologia, em poucas palavras, um ramo da ciência que envolve as pesquisas que lidam com itens medidos na casa dos nanômetros. Para quem não sabe, um nanômetro equivale a um milionésimo de milímetro, isto é, um milímetro dividido por um milhão, e sua sigla é nm. A medida mais usada, no entanto, é o micron, que equivale a um milésimo de milímetro, ou seja, um milímetro dividido por mil.
Graças às pesquisas de nanotecnologia, é possível deixar os transistores dos chips cada vez menores. O processador Intel 486, por exemplo, tem cerca de 1 milhão de transistores, sendo que cada um deles conta com praticamente 1 micron de tamanho. Muito pequeno, não? Na verdade, é um tamanho monstruoso, se comparado aos processadores atuais. Só para você ter uma ideia, neste artigo já foi dito que os primeiros processadores da linha Intel Core 2 Duo contam com cerca de 291 milhões de transistores. Esses chips utilizam tecnologia de fabricação de 0,065 micron (ou 65 nanômetros), sendo que os mais recentes dessa linha são fabricados com 0,045 micron (45 nanômetros).
As pesquisas sobre miniaturalização de chips indicam que será possível levar esse processo até a casa dos 25 nanômetros (ou um valor não muito menor que isso). Depois disso, a indústria chegará a um limite físico onde os transistores provavelmente serão formados por poucos átomos e não poderão mais ser diminuídos. É claro que pesquisas já estão em andamento para criar uma saída para esse problema. Uma delas é a "computação quântica" , que muito mais que contornar os limites físicos dos processadores da "computação clássica", poderá revolucionar a computação como um todo.

Encapsulamento dos processadores

Nas etapas de encapsulamento, o processador é inserido em uma espécie de "carcaça" que o protege e contém contatos metálicos para a sua comunicação com os componentes do computador. Cada modelo de processador pode contar com tipos de encapsulamento diferentes, que variam conforme o seu projeto. Em geral, os processadores possuem em sua parte superior uma espécie de "tampa" metálica chamada "Integrated Heat Spreader" (IHS), que serve para protegê-lo e, muitas vezes, para facilitar a dissipação de calor. Esse componente normalmente cobre toda a parte superior do chip e, dentro dele, no centro, fica o processador em si (também chamado de "die"). No entanto, em alguns modelos, o IHS não é utilizado. Nesses casos, a ausência dessa proteção pode facilitar a dispersão de calor devido ao contato direto do die com o cooler (ventoinha) do processador e reduzir custos de fabricação.
É importante frisar que há várias tecnologias usadas no encapsulamento dos processadores. A aplicação de cada uma varia conforme o projeto do chip. Eis os tipos principais, tendo como base tecnologias da Intel:
- PGA: sigla de Pin Grid Array (algo como "matriz de pinos"), esse é um tipo de encapsulamento que faz com que o processador utilize pinos de contato que devem ser inseridos em um encaixe adequado na placa-mãe do computador (ver soquete, logo abaixo). Seu material básico pode ser cerâmica (Ceramic Pin Grid Array - CPGA) ou plástico (Plastic Pin Grid Array - PPGA). Há também um tipo chamado Flip Chip Pin Grid Array (FC-PGA) onde a pastilha fica parcialmente exposto na parte superior do chip;
Intel Pentium 4 - Encapsulamento FC-PGA2, que é semelhante ao FC-PGA, mas conta com um IHS (não presente no FC-PGA)
Intel Pentium 4 - Encapsulamento FC-PGA2, que é semelhante ao FC-PGA, 
mas conta com um IHS (não presente no FC-PGA)
- SECC: sigla para Single Edge Contact Cartridge, este tipo faz com que o processador utilize um encaixe linear (ligeiramente semelhante aos slots de memória, por exemplo) ao invés de contatos em formato de pinos. Para isso, o processador é montado dentro de uma espécie de cartucho;
Intel Pentium II - Encapsulamento SECC - Imagem por Intel
Intel Pentium II - Encapsulamento SECC - Imagem por Intel
- SEPP: sigla para Single Edge Processor Package, este tipo é semelhante ao SECC, no entanto, o processador fica acoplado em um placa que não é protegida por um cartucho;
- LGA: sigla para Land Grid Array, esse é um padrão recente da Intel. Tem alguma semelhança com os padrões PGA, tendo como principal diferença o fato de que os processadores não utilizam pinos de contato em sua parte inferior, mas sim pontos metálicos. Quando o processador é encaixado na placa-mãe, esses pontos ficam em contato com pinos existentes no soquete (lembrando que nos padrões PGA há furos ao invés de pinos no soquete). No que se refere ao LGA, a Intel utilizava (até o fechamento deste texto no InfoWester) um tipo chamado FC-LGA4 (Flip Chip Land Grid Array, onde o número 4 indica o número de revisão do padrão).
Processador com encapsulamento FC-LGA4 - Repare que n�o h� pinos, somente contatos met�licos - Imagem por Wikimedia
Processador com encapsulamento FC-LGA4 - 
Repare que não há pinos, somente contatos metálicos - 
Imagem por Wikimedia
Na parte inferior dos processadores com encapsulamentos nos padrões PGA e semelhantes, ficam expostos uma série de contatos metálicos que fazem a comunicação entre o processador em si e os componentes do computador. Para isso, esse contatos são encaixados em uma área apropriada na placa-mãe da máquina, chamada de soquete (ou socket). Acontece que a quantidade e a disposição desses pinos varia conforme o modelo do processador. Por exemplo, a linha Intel Core 2 Duo e alguns dos modelos mais recentes da linha Pentium 4 utilizam o soquete 775 (LGA 775):
Soquete LGA 775 - Imagem por Intel
Soquete LGA 775 - Imagem por Intel
Já os processadores AMD Phenom X4 utilizam o soquete AM2+:
Soquete AM2/AM2+ - Imagem por Wikipedia
Soquete AM2/AM2+ - Imagem por Wikipedia
Processador Phenom X4 - Imagem por AMD
Processador Phenom X4 - Imagem por AMD

Isso deixa claro que é necessário utilizar placa-mãe e processador com o mesmo soquete no momento de montar um computador. Porém, é importante frisar que isso não é garantia de compatibilidade entre ambos. É possível, por exemplo, que uma determinada placa-mãe utilize o mesmo soquete de um processador lançado depois de sua chegada ao mercado. Apesar de ambos terem o mesmo soquete, uma incompatibilidade pode ocorrer, já que o chipset da placa-mãe pode não ter sido preparado para receber aquele processador. Por essa razão, é importante checar sempre no site do fabricante ou no manual da placa-mãe quais processadores esta suporta.
Note que a disposição de pinos (ou pontos de contato, no caso de chips com encapsulamento do tipo LGA) é feita de forma que o usuário tenha apenas uma forma de encaixar o processador na placa-mãe. Com isso, impede-se inserções erradas que possam resultar em danos ao computador. Por essa razão, se o usuário não estiver conseguindo encaixar o processador, deve evitar esforços e procurar no manual da placa-mãe a orientação correta.

Nomes-código dos núcleos

Todo processador chega ao mercado tendo um nome que permita facilmente identificá-lo, como Pentium 4, Core 2 Duo, Itanium, Athlon 64, Phenom, etc. O que pouca gente sabe é que o núcleo dos processadores recebe outra denominação antes mesmo de seu lançamento oficial: o nome-código.
A utilização de nomes-código é importante porque permite distinguir as características de arquitetura de cada chip. Mesmo dentro de uma determinada linha é possível encontrar processadores com diferenças em seu projeto. Podemos utilizar como exemplo os primeiros modelos da linha Intel Core 2 Duo, que são baseados nos núcleos de nomes Conroe e Merom. O primeiro é direcionado a desktops, enquanto que o segundo é voltado a computadores portáteis (como notebooks). Sendo assim, o Merom possui recursos que otimizam seu desempenho para exigir menos energia (por exemplo, utiliza voltagem menor e FSB reduzido, se comparado ao Conroe).

Finalizando

Os processadores são dispositivos altamente complexos, mas igualmente fascinantes. Chega a ser difícil acreditar que um chip que cabe na ponta do dedo pode realizar tantas coisas. Infelizmente, não é possível encontrar muitos documentos e imagens que detalhem os locais e as etapas da fabricação dos processadores. E não é difícil entender o motivo: esses lugares são bastante protegidos e contam com uma política extremamente rigorosa de acesso, pois simples grãos de poeira ou até mesmo as luzes do flash das câmeras podem prejudicar a produção. Além disso, é notório que cada fabricante tenta se proteger de espionagem industrial.

Conhecendo o disco rígido (HD)


Introdução

disco rígido ou HD (Hard Disk), é o dispositivo de armazenamento de dados mais usado nos computadores. Nele, é possível guardar não só seus arquivos como também todos os dados do seu sistema operacional, sem o qual você não conseguiria utilizar o computador. Neste artigo, você verá alguns detalhes do funcionamento dos HDs e conhecerá alguns de seus recursos (como IDE, ATAPI, DMA, capacidade real, entre outros).

Características e funcionamento dos HDs


Surgimento

O disco rígido não é um dispositivo novo, mas sim uma tecnologia que evoluiu com o passar do tempo. Um dos primeiros HDs que se tem notícia é o IBM 305 RAMAC. Disponibilizado no ano de 1956, era capaz de armazenar até 5 MB de dados (um avanço para a época) e possuía dimensões enormes: 14 x 8 polegadas. Seu preço também não era nada convidativo: o 305 RAMAC custava cerca de 30 mil dólares.
Com o passar dos anos, os HDs foram aumentando sua capacidade de armazenamento, ao mesmo tempo em que se tornaram menores, mais baratos e mais confiáveis. Apenas para ilustrar o quão "gigante" eram os primeiros modelos, a foto abaixo mostra um disco rígido utilizado pelo Metrô de São Paulo em seus primeiros anos. O dispositivo está em exposição no Centro de Controle Operacional da empresa:
Antigo HD do M etrô de São Paulo

Componentes de um HD

Para que você possa compreender o funcionamento básico dos discos rígidos, precisa conhecer seus principais componentes. Os tão mencionados discos, na verdade, ficam guardados dentro de uma espécie de "caixa de metal". Essas caixas são seladas para evitar a entrada de material externo, pois até uma partícula de poeira pode danificar os discos, já que estes são bastante sensíveis. Isso significa que se você abrir seu disco rígido em um ambiente despreparado e sem o uso dos equipamentos e das técnicas apropriadas, as chances de você perdê-lo são extremamente grandes.
HD visto por cima e por baixo
A figura acima mostra um HD visto por baixo e por cima. Note que a parte inferior contém uma placa com chips. Trata-se da placa lógica, um item muito importante para o funcionamento do HD.
A placa lógica contém chips responsáveis por diversas tarefas. O mais comum é conhecido comocontroladora, pois gerencia uma série de itens do HD, como a movimentação dos discos e das cabeças de leitura/gravação (mostradas adiante), o envio e recebimento de dados entre os discos e o computador, e até rotinas de segurança.
Outro dispositivo comum à placa lógica é um pequeno chip de memória conhecido como buffer. Cabe a ele a tarefa de armazenar pequenas quantidades de dados durante a comunicação com o computador. Como esse chip consegue lidar com os dados de maneira mais rápida que os discos rígidos, ele agiliza o processo de transferência de informações. No momento em que este artigo era escrito no InfoWester, era comum encontrar HDs que possuíam buffers de 2 MB e 8 MB.
A parte interna dos HDs (isto é, o interior da "caixinha") é mais interessante. A foto abaixo mostra um HD aberto. Note que há indicativos que descrevem os componentes mais importantes. Estes são detalhados logo abaixo da imagem:
HD por dentro
Pratos e motor: esse é o componente que mais chama a atenção. Os pratos são os discos onde os dados são armazenados. Eles são feitos de alumínio (ou de um tipo de cristal) recoberto por um material magnético e por uma camada de material protetor. Quanto mais trabalhado for o material magnético (ou seja, quanto mais denso), maior é a capacidade de armazenamento do disco. Note que os HDs com grande capacidade contam com mais de um prato, um sobre o outro. Eles ficam posicionados sob ummotor responsável por fazê-los girar. Para o mercado de PCs, é comum encontrar HDs que giram a 7.200 rpm (rotações por minuto), mas também há modelos que alcançam a taxa de 10 mil rotações, tudo depende da evolução da tecnologia. Até pouco tempo atrás, o padrão do mercado era composto por discos rígidos que giram a 5.400 rpm. Claro que, quanto mais rápido, melhor;
Cabeça e braço: os HDs contam com um dispositivo muito pequeno chamado cabeça (ou cabeçote) de leitura e gravação. Trata-se de um item de tamanho reduzido que contém uma bobina que utiliza impulsos magnéticos para manipular as moléculas da superfície do disco, e assim gravar dados. Há uma cabeça para cada lado dos discos. Esse item é localizado na ponta de um dispositivo denominado braço, que tem a função de posicionar os cabeçotes sob a superfície dos pratos. Olhando por cima, tem-se a impressão de que a cabeça de leitura e gravação toca nos discos, mas isso não ocorre. Na verdade, a distância entre ambos é extremamente pequena. A "comunicação" ocorre pelos já citados impulsos magnéticos;
Atuador: também chamado de voice coil, o atuador é o responsável por mover o braço sob a superfície dos pratos, e assim permitir que as cabeças façam o seu trabalho. Para que a movimentação ocorra, o atuador contém em seu interior uma bobina que é "induzida" por imãs.
Note que o trabalho entre esses componentes precisa ser bem feito. O simples fato da cabeça de leitura e gravação encostar na superfície de um prato é suficiente para causar danos a ambos. Isso pode facilmente ocorrer em caso de quedas, por exemplo.

Gravação e leitura de dados

A superfície de gravação dos pratos é composta de materiais sensíveis ao magnetismo (geralmente, óxido de ferro). O cabeçote de leitura e gravação manipula as moléculas desse material através de seus pólos. Para isso, a polaridade das cabeças muda numa freqüência muito alta: quando está positiva, atrai o pólo negativo das moléculas e vice-versa. De acordo com essa polaridade é que são gravados os bits (0 e 1). No processo de leitura de dados, o cabeçote simplesmente "lê" o campo magnético gerado pelas moléculas e gera uma corrente elétrica correspondente, cuja variação é analisada pela controladora do HD para determinar os bits.
Para a "ordenação" dos dados no HD, é utilizado um esquema conhecido como "geometria dos discos". Nele, o disco é "dividido" em cilindros, trilhas e setores:
Ilustração de geometria de disco
As trilhas são círculos que começam no centro do disco e vão até a sua borda, como se estivesse um dentro do outro. Essas trilhas são numeradas da borda para o centro, isto é, a trilha que fica mais próxima da extremidade do disco é denominada trilha 0, a trilha que vem em seguida é chamada trilha 1, e assim por diante, até chegar à trilha mais próxima do centro. Cada trilha é dividida em trechos regulares chamados de setor. Cada setor possui uma determinada capacidade de armazenamento (geralmente, 512 bytes).
E onde entra os cilindros? Eis uma questão interessante: você já sabe que um HD pode conter vários pratos, sendo que há uma cabeça de leitura e gravação para cada lado dos discos. Imagine que é necessário ler a trilha 42 do lado superior do disco 1. O braço movimentará a cabeça até essa trilha, mas fará com que as demais se posicionem de forma igual. Isso ocorre porque o braço se movimenta de uma só vez, isto é, ele não é capaz de mover uma cabeça para uma trilha e uma segunda cabeça para outra trilha.
Isso significa que, quando a cabeça é direcionada à trilha 42 do lado superior do disco 1, todas as demais cabeças ficam posicionadas sob a mesma trilha, só que em seus respectivos discos. Quando isso ocorre, damos o nome de cilindro. Em outras palavras, cilindro é a posição das cabeças sobre as mesmas trilhas de seus respectivos discos.
Note que é necessário preparar os discos para receber dados. Isso é feito através de um processo conhecido como formatação. Há dois tipos de formatação: formatação física e formatação lógica. O primeiro tipo é justamente a "divisão" dos discos em trilhas e setores. Esse procedimento é feito na fábrica. A formatação lógica, por sua vez, consiste na aplicação de um sistema de arquivos apropriado a cada sistema operacional. Por exemplo, o Windows é capaz de trabalhar com sistemas de arquivos FAT eNTFS. O Linux pode trabalhar com vários sistemas de arquivos, entre eles, ext3 e ReiserFS.