Postagens do Blog

Mostrando postagens com marcador GERAÇÕES. Mostrar todas as postagens
Mostrando postagens com marcador GERAÇÕES. Mostrar todas as postagens

terça-feira, 15 de maio de 2018

COMPUTADOR QUANTICO

COMPUTADOR QUANTICO


COMPUTADOR QUANTICO
Depois de ler o artigo, responda a seguinte enquete.

A computação quântica mudará os conceitos atuais da informática, que utiliza-se de circuitos eletrônicos para armazenar bits e efetuar o processamento. A diferença entre o processamento e armazenamento dos computadores convencionais (o que utilizamos hoje) e o quântico, é que os computadores convencionais utilizam bits, que podem ser 0 e 1, ou melhor entendendo, se houver um barramento de 8 bits, tem-se 28 combinações de 0 e 1, precisamente 256 possibilidades, onde estas possibilidades são processadas uma a uma, se fosse no bit quântico todas as possibilidades seriam processadas ao mesmo tempo, veja a tabela 1. O computador quântico utiliza-se de Qubits, que pode ser 0, 1 e 0 e 1, graças a uma propriedade da física quântica: a superposição, que permite que o Qubit assuma dois valores simultaneamente, fazendo que haja um processamento paralelo tornando a velocidade de processamento muito mais rápida que a dos computadores convencionais. Para um entendimento aproximado do que ocorre, os processadores atuais conseguem transmitir até 8 bits por ciclo, onde em um barramento de 64 bits (8 Bytes) a transmissão passa a 64 Bytes por ciclo (pois cada barramento está transmitindo 1 Byte por ciclo, vezes 64 que é o número de barramentos, chegamos a 64 Bytes por ciclo. O número de Qubits em relação aos bits é a seguinte:

Tabela 1

QUBIT

BIT

1 Qubit

2 bits

2 Qubits

4 bits

3 Qubits

8 bits

8 Qubits

256 bits

Já existe um computador quântico de 53 Qubits (253) ou seja 8 Petabits simultâneos de processamento, pois graças a superposição dos 8 Petabits são processados simultaneamente e não separadamente como nos computadores convencionais. Se eu fosse utilizar o exemplo do barramento de 64 bits, eu teria que transmitir simultaneamente 247 bits por barramento a cada ciclo de clock, e mesmo assim não chegaria à velocidade de processamento do computador quântico. O que caracteriza o computador quântico, é que o mesmo utiliza os sistemas quânticos, que é o armazenamento do Qubit em átomos, elétrons, íons, fótons e outras partículas, pois o que define o Qubit é o spin, que a cada mudança na direção do módulo (Spin UP e Spin DOWN) , pode assumir os valores 0, 1 e 0 e 1 simultaneamente, tornando a velocidade de processamento altíssima.

Os computadores modernos estão cada vez mais rápidos, com a criação do computador quântico pela DWAVE, depois comprado e aperfeiçoado pela NASA e pela Google, no final do ano passado a IBM garantiu ter criado um computador quântico mais avançado já feito.

A cada Qubit adicionado, tem-se um aumento exponencial na velocidade de processamento, vide Tabela 2.

Tabela 2



Conheça o IonQ

Grato,
Jefferson Daminelli Garcia

Veja também:
Entender o porque das gerações dos computadores







terça-feira, 31 de outubro de 2017

ENTENDER O PORQUÊ DAS GERAÇÕES DOS COMPUTADORES



Depois de ler o artigo, responda a seguinte enquete.

A evolução dos computadores ao longo do tempo em função da mudança no hardware (desenvolvimento do componente responsável pelo processamento da informação, ou seja, evolução da válvula para o transistor, e do transistor para o circuito integrado) teve como consequência computadores mais rápidos, gasto de energia menor e tamanho reduzido. Tudo começou com nossos ancestrais controlando os bens, calculando quantidades, foi algo que acompanhou a humanidade desde os primórdios das civilizações. Desta necessidade cavaram-se buracos na areia, colocando pedrinhas dentro para que se controlassem os seus pertences. Foi o primeiro homem colocar as pedrinhas em uma corda, que nasceu o ábaco que foi utilizado por mais de 2000 anos até que Blaise Pascal criasse a sua Pascaline, Leibnitz aperfeiçoasse a Pascaline acrescentando a multiplicação e a divisão. Em 1801 apareceu Joseph Marie Jacquard com seu tear mecânico que utilizava cartões perfurados alimentando a mente brilhante de Charles Babbage com a sua máquina analítica cuja entrada dos dados era por cartões perfurados metálicos, e logo em seguida em 1890 surgia a máquina de tabular de Herman Holerith que deu origem a uma indústria de máquinas de tabular, e que após transformações virou IBM. O estímulo para criar o primeiro computador eletrônico foi durante a segunda guerra mundial segundo Tanembaum (2010, p. 10), pois a artilharia do exército americano precisava de cálculos precisos e rápidos para atingir os seus alvos, pois o cálculo manual levava a muitos erros. John Mauchley sabia que o exército estava interessado em calculadoras eletrônicas, e, em 1943 o mesmo apresentou uma proposta juntamente com seu aluno de pós-graduação J. Presper Eckert que foi aceita em 1943, logo em seguida construíram o computador eletrônico que batizaram de ENIAC. Do ENIAC à válvulas, os componentes evoluíram para transistores e depois para os circuitos integrados. Com a criação do transistor vieram outras utilizações, como a utilização dos transistores nas memórias com tecnologia SRAM, que são utilizadas em memória cache, segundo (Hennessy e Patterson, 2008, p. 223) as SRAMs não precisam ser atualizadas, como as DRAMS (tecnologia utilizada em memórias RAM que precisam de refresh) e, portanto, o tempo de acesso é muito próximo ao tempo do ciclo e as SRAMs normalmente utilizam seis transistores por bit, para impedir que a informação seja modificada quando lida, só precisando a SRAM de um mínimo de energia para reter a carga no modo de standby. Entre a primeira e a segunda guerra mundial surgiram máquinas eletro mecânicas que já faziam vários cálculos, e após o final da segunda guerra mundial surgiu o ENIAC com as suas válvulas que trabalhavam com a incrível velocidade de 1000 instruções por segundo, dando origem a primeira geração dos computadores, a segunda geração foi caracterizada pelos transistores e a terceira geração foi a dos circuitos integrados. Percebemos que as gerações foram classificadas em 1ª, 2ª e 3ª geração em função da mudança no hardware (desenvolvimento do componente responsável pelo processamento da informação) como linha divisória entre elas, e que alguém menos avisado achou que quando os circuitos integrados passaram a abrigar dentro deles 10, 100, 1000, 1000000 de transistores ou mais caracterizou o nascimento da 4ª, 5ª, 6ª e outras gerações. Como a evolução se deu em torno do hardware, deduz-se dentro de uma análise bem definida que para ser 4ª geração tem que haver mudanças profundas no hardware, algo muito diferente de circuitos integrados com seus transistores, ou seja, algo que torne o funcionamento do computador muito diferente do que é hoje, e isto já está surgindo, o computador quântico cuja arquitetura é em camadas, não existem instruções, nem barramentos, nem transistores, ou seja, o processamento dos dados é feito no átomo, podendo ser utilizado os elétrons, prótons, nêutrons e as partículas menores.  O computador quântico executa cálculos utilizando propriedades da física quântica, as quais os físicos quânticos não conseguem explicar. Uma destas propriedades é o fato de o elétron ser uma partícula e se comportar como uma onda, outro comportamento estranho é o emaranhamento quântico ou entrelaçamento que é: o que acontece em um átomo reflete no outro átomo, estes que podem estar a milhões de quilômetros um do outro, imagine este recurso sendo utilizado para gerar backups instantâneos. Temos também a superposição: um corpo pode estar em dois lugares ao mesmo tempo, um qubit pode ser 0 e 1 simultaneamente, ou seja alterou o conceito de bit, porque o bit assume valores 0 ou 1 e o qubit 0, 1 ou 0 e 1 simultaneamente. Um computador que utiliza as propriedades da física quântica acima mencionada vai ter que utilizar um sistema operacional bem diferente dos que existem atualmente, ou, seja sem instruções. Várias modificações ao longo das gerações dos computadores foram alterando a rapidez do processamento de dados, a primeira delas foi a máquina de Von Neumann ou arquitetura de Von Neumann que começou com uma CPU formada por uma UC (unidade de controle), ULA (unidade lógica e aritmética) que caracterizam a CPU, uma entrada de dados (unidade i/o), saída de dados (i/o) e uma memória RAM que até hoje armazenam os dados e instruções, as quais, carregadas na memória possam ser acessadas pela unidade de controle para que possam ser lidos e decodificados. A ULA se houver alguma operação lógica ou aritmética, será acionada para resolvê-los. A memória RAM passou por várias tecnologias (FPM, EDO, SDRAM, DDR, DDR2, DDR3, DDR4) que ao longo do tempo foram evoluindo em velocidade, largura de barramento, voltagem na placa mãe, diminuição no tempo de acesso a leitura dos dados, número de bits transmitidos por ciclo de clock e, o mais importante, componentes eletrônicos que formam a célula para armazenamento dos dados na memória. A memória DRAM (dynamic RAM é composta de um transistor mos e um capacitor para armazenamento de bits na célula), esta estrutura tem um problema: preciso executar um refresh para reforçar o sinal armazenado no capacitor (0 ou 1) e isto demanda um tempo gasto pela memória para manter o dado armazenado confiável. A memória SRAM (static RAM) é composta por seis transistores ou quatro transistores e dois resistores para armazenamento dos bits nas células e isto fazem com que o tempo de resposta da memória estática seja menor, ou seja, mais rápido, ou seja, dois transistores ficam responsáveis pela tarefa de controle, enquanto que os demais ficam responsáveis pelo armazenamento elétrico, isto é, pela formação do bit. Os barramentos da placa mãe (ISA, EISA, PCI, PCIEXPRESS) ao avaliar os diagramas, verifica-se que, ao longo do tempo, o barramento local (barramento que comunica a CPU ao subsistema de memória) evoluíram para FSB (barramento que liga a cpu ao chipset ponte norte) e o Quickpath Interconnect (barramento que liga a CPU ao chipset ponte sul) utilizando um barramento que transmite simultaneamente nos dois sentidos. Os Chipsets são evolução de controle por software da memória CMOS para o barramento EISA, controlador VL BUS para o barramento Vesa local bus e ponte PCI para o barramento PCI. A rapidez na execução das instruções surgiu com a filosofia RISC que é rápida, pois as instruções são executadas no hardware através de um menor numero de circuitos internos e frequências mais altas, além de os operandos serem armazenados em registradores, diferente do CISC que, possui microcódigo e os operandos são armazenados na memória, tendo como consequência um processamento mais lento em função da leitura na memória ser feita em dois ciclos ou mais, e, no registrador é efetuada a leitura em um ciclo apenas. Quando necessitamos de computadores que necessitam de resposta em tempo real utilizamos RISC, senão, utilizamos CISC. Hoje temos ARM (Advanced RISC Machine) que é uma evolução do RISC, muito utilizados em portáteis (celulares, notebooks, netbooks, tablets e outros).As memórias cache tiveram uma evolução que começou instalada na placa mãe, depois passou para dentro do processador, hoje temos memórias cache L1, L2 e L3 (que trabalha na velocidade do processador). Lembremos que a memória cache na hierarquia das memórias (registradores, cache, RAM, rom, dispositivos de massa) ocupa o segundo lugar, pois a mesma é formada por transistores, ou transistores e resistores (memórias SRAM). Hoje a utilização do computador na sociedade é de grande importância, por isso temos que ter o computador ideal para a tarefa ideal, sendo de vital importância para a governança de TI, que tem como um dos objetivos agregar valores reduzindo custos. É relatado ao longo do texto o surgimento do ábaco, máquinas de calcular até chegar-se ao computador. Quando surgiu o computador veio às gerações, e com a descoberta do transistor a evolução dos processadores, memórias e demais recursos que acompanham os computadores nos dias de hoje. Este artigo procura passar a compreensão para o leitor, da evolução dos componentes de hardware, tendências de utilização da física quântica pelos computadores atuais e consequentemente uma rapidez maior no processamento dos atuais computadores.


A IMPORTÂNCIA DOS DADOS

Quando se fala em processamento dos atuais computadores, estamos mencionando dados que estão sendo transformados, os quais após este processamento viram informações importantes para a empresa que os utilizarão para seu planejamento estratégico. Depois da leitura do texto acima sobre a evolução dos computadores, você se perguntou, de como surgiu o dado? Para início de conversa, o dado é o novo petróleo, sem o armazenamento adequado nos discos rígidos dos computadores, as empresas não teriam como fazer o seu planejamento, e os computadores surgiram, graças à necessidade humana de armazenar dados para poder organizar melhor as nossas tarefas cotidianas.

Grato,
Jefferson Daminelli Garcia



Veja também:





Postagem em Destaque

Maquina Virtual

  O QUE É UMA MÁQUINA VIRTUAL Uma máquina virtual , conhecida como guest, é criada dentro de um ambiente de processamento, chamado host. ...

Postagens Mais Visitadas

Últimas Postagens