Postagens do Blog

Mostrando postagens com marcador GERAÇÕES. Mostrar todas as postagens
Mostrando postagens com marcador GERAÇÕES. Mostrar todas as postagens

terça-feira, 15 de maio de 2018

COMPUTADOR QUANTICO

COMPUTADOR QUANTICO


COMPUTADOR QUANTICO
Depois de ler o artigo, responda a seguinte enquete.

A computação quântica mudará os conceitos atuais da informática, que utiliza-se de circuitos eletrônicos para armazenar bits e efetuar o processamento. A diferença entre o processamento e armazenamento dos computadores convencionais (o que utilizamos hoje) e o quântico, é que os computadores convencionais utilizam bits, que podem ser 0 e 1, ou melhor entendendo, se houver um barramento de 8 bits, tem-se 28 combinações de 0 e 1, precisamente 256 possibilidades, onde estas possibilidades são processadas uma a uma, se fosse no bit quântico todas as possibilidades seriam processadas ao mesmo tempo, veja a tabela 1. O computador quântico utiliza-se de Qubits, que pode ser 0, 1 e 0 e 1, graças a uma propriedade da física quântica: a superposição, que permite que o Qubit assuma dois valores simultaneamente, fazendo que haja um processamento paralelo tornando a velocidade de processamento muito mais rápida que a dos computadores convencionais. Para um entendimento aproximado do que ocorre, os processadores atuais conseguem transmitir até 8 bits por ciclo, onde em um barramento de 64 bits (8 Bytes) a transmissão passa a 64 Bytes por ciclo (pois cada barramento está transmitindo 1 Byte por ciclo, vezes 64 que é o número de barramentos, chegamos a 64 Bytes por ciclo. O número de Qubits em relação aos bits é a seguinte:

Tabela 1

QUBIT

BIT

1 Qubit

2 bits

2 Qubits

4 bits

3 Qubits

8 bits

8 Qubits

256 bits

Já existe um computador quântico de 53 Qubits (253) ou seja 8 Petabits simultâneos de processamento, pois graças a superposição dos 8 Petabits são processados simultaneamente e não separadamente como nos computadores convencionais. Se eu fosse utilizar o exemplo do barramento de 64 bits, eu teria que transmitir simultaneamente 247 bits por barramento a cada ciclo de clock, e mesmo assim não chegaria à velocidade de processamento do computador quântico. O que caracteriza o computador quântico, é que o mesmo utiliza os sistemas quânticos, que é o armazenamento do Qubit em átomos, elétrons, íons, fótons e outras partículas, pois o que define o Qubit é o spin, que a cada mudança na direção do módulo (Spin UP e Spin DOWN) , pode assumir os valores 0, 1 e 0 e 1 simultaneamente, tornando a velocidade de processamento altíssima.

Os computadores modernos estão cada vez mais rápidos, com a criação do computador quântico pela DWAVE, depois comprado e aperfeiçoado pela NASA e pela Google, no final do ano passado a IBM garantiu ter criado um computador quântico mais avançado já feito.

A cada Qubit adicionado, tem-se um aumento exponencial na velocidade de processamento, vide Tabela 2.

Tabela 2

COMPUTADOR FOTÔNICO

O computador fotônico se baseia na superposição quântica, um fenômeno que permite que os fótons existam em dois estados ao mesmo tempo. 
O que é a superposição quântica? 
  • A superposição quântica é um princípio fundamental da mecânica quântica.
  • Ela afirma que um sistema físico, como um elétron, pode estar em todos os estados teoricamente possíveis ao mesmo tempo, antes de ser medido.
  • Quando medido, o sistema se mostra em um único estado.
Como a superposição quântica funciona no computador fotônico?
  • Os fótons podem fluir em ambas as direções simultaneamente, o que representa um valor que é uma combinação de 0 e 1. 
  • Para que os fótons possam fluir em ambas as direções simultaneamente, o ambiente ideal precisa ser uma configuração que permita a superposição de ondas e a interferência. Geralmente, isso acontece em ambientes onde há uma estrutura que suporta a transmissão bidirecional, como em um espelho semi-refletor ou em um sistema de cavidade óptica bem ajustado. Além disso, a ausência de perdas e de obstáculos que possam absorver ou dispersar a luz também é fundamental. Assim, um ambiente controlado, com materiais transparentes e uma configuração que permita a passagem e reflexão equilibradas, é o cenário perfeito para esse tipo de fluxo de fótons!
  • Para que os fótons possam fluir em ambas as direções ao mesmo tempo e criar interferência, o ambiente ideal precisa ser cuidadosamente controlado. Geralmente, isso acontece em sistemas chamados de cavidades ópticas ou interferômetros, onde os fótons podem refletir de um lado para o outro de forma controlada.

    O ambiente ideal deve ter algumas características importantes:

    1. Materiais transparentes ou refletivos controlados: Usar espelhos altamente refletivos e, ao mesmo tempo, parcialmente transmissivos, como espelhos semi-refletivos, permite que os fótons entrem, saiam e reflitam várias vezes, criando condições para interferência.

    2. Ausência de perdas: É importante que o ambiente minimize absorções e dispersões, para que os fótons mantenham sua coerência e possam interferir de forma eficaz.

    3. Estabilidade e isolamento: O ambiente deve ser isolado de vibrações, variações de temperatura e ruídos externos, que podem perturbar a fase dos fótons e prejudicar a interferência.

    4. Controle preciso da fase: Para que a interferência seja observada, é necessário ajustar a fase dos fótons, o que exige um ambiente com controle preciso de comprimento de onda e caminhos ópticos.

    Resumindo, um ambiente com espelhos bem posicionados, materiais de alta qualidade, estabilidade térmica e isolamento, além de controle de fase, é o cenário ideal para que os fótons possam fluir em ambas as direções e criar interferência.

  • Pode-se dividir a luz em duas vias e atrasar a fase de uma delas. Essa técnica é bastante comum em experimentos de interferência, como em interferômetros. Ao dividir a luz, por exemplo, usando um espelho semi-refletor, você gera dois caminhos diferentes para os fótons. Depois, ao passar por um dispositivo que altera o comprimento do caminho ou ajusta a fase — como um espelho móvel ou um meio com índice de refração diferente — você consegue atrasar ou adiantar a fase de uma das vias. Nesse controle de fase é fundamental para criar interferência construtiva ou destrutiva, dependendo do ajuste. Assim, ao recombinar as duas vias, você pode observar padrões de interferência que dependem do atraso de fase introduzido. É uma técnica muito utilizada em experimentos de óptica, comunicação e até em tecnologias quânticas!

  • Os computadores quânticos funcionam com uma lógica diferente daquela presente nos computadores clássicos. 
  • A superposição de bits quânticos fornece aos computadores quânticos seu paralelismo inerente, permitindo que processem milhões de operações simultaneamente. 
A superposição quântica é utilizada em criptografia quântica. 
Até o momento, foi possível entrelaçar 18 qubits em apenas 6 fótons, o que corresponde a 3 qubits por fóton. Este é um recorde de qubits vinculados entre si através do entrelaçamento quântico. 
Explicação
  • Qubit é uma unidade de informação quântica que pode representar 0, 1 ou uma proporção de ambos os estados. 
  • Computador quântico é uma máquina programável que realiza cálculos e algoritmos manipulando e lendo informações armazenadas em sistemas quânticos. 
  • Sistemas quânticos podem ser formados por átomos, moléculas, prótons, elétrons e fótons. 
  • O entrelaçamento quântico é uma técnica que permite vincular vários qubits entre si. 
É possível capturar fótons em armadilhas magneto-ópticas e em armadilhas de luz, conhecidas como ARAPUCA. 
Armadas magneto-ópticas 
  • Capturam átomos que são desacelerados pela troca de momento entre os fótons e os átomos
  • Usam a força de radiação de dois pares ortogonais de feixes laser
Armadas de luz (ARAPUCA) 
  • Capturam fótons
  • Incluem guias luminosas que canalizam os fótons na direção do sensor
  • Foram usadas em experimentos de neutrinos no Fermilab
Como são os fótons?
  • São as partículas que compõem a luz 
  • São pequenos “pacotes” que transportam a energia contida nas radiações eletromagnéticas 
  • São emitidos quando um elétron de um átomo “salta” de uma órbita superior para uma inferior 
  • São absorvidos quando um fóton faz um elétron de um átomo “saltar” de uma órbita inferior para uma superior 
A mecânica quântica afirma que os fótons podem se comportar como ondas ou partículas, dependendo das condições do experimento. 
O spin do fóton não possibilita a superposição do fóton, mas é uma propriedade que ajuda a descrever o comportamento dos fótons. 

Conheça o IonQ

Grato,
Jefferson Daminelli Garcia

Veja também:
Entender o porque das gerações dos computadores







terça-feira, 31 de outubro de 2017

ENTENDER O PORQUÊ DAS GERAÇÕES DOS COMPUTADORES



Depois de ler o artigo, responda a seguinte enquete.

A evolução dos computadores ao longo do tempo em função da mudança no hardware (desenvolvimento do componente responsável pelo processamento da informação, ou seja, evolução da válvula para o transistor, e do transistor para o circuito integrado) teve como consequência computadores mais rápidos, gasto de energia menor e tamanho reduzido. Tudo começou com nossos ancestrais controlando os bens, calculando quantidades, foi algo que acompanhou a humanidade desde os primórdios das civilizações. Desta necessidade cavaram-se buracos na areia, colocando pedrinhas dentro para que se controlassem os seus pertences. Foi o primeiro homem colocar as pedrinhas em uma corda, que nasceu o ábaco que foi utilizado por mais de 2000 anos até que Blaise Pascal criasse a sua Pascaline, Leibnitz aperfeiçoasse a Pascaline acrescentando a multiplicação e a divisão. Em 1801 apareceu Joseph Marie Jacquard com seu tear mecânico que utilizava cartões perfurados alimentando a mente brilhante de Charles Babbage com a sua máquina analítica cuja entrada dos dados era por cartões perfurados metálicos, e logo em seguida em 1890 surgia a máquina de tabular de Herman Holerith que deu origem a uma indústria de máquinas de tabular, e que após transformações virou IBM. O estímulo para criar o primeiro computador eletrônico foi durante a segunda guerra mundial segundo Tanembaum (2010, p. 10), pois a artilharia do exército americano precisava de cálculos precisos e rápidos para atingir os seus alvos, pois o cálculo manual levava a muitos erros. John Mauchley sabia que o exército estava interessado em calculadoras eletrônicas, e, em 1943 o mesmo apresentou uma proposta juntamente com seu aluno de pós-graduação J. Presper Eckert que foi aceita em 1943, logo em seguida construíram o computador eletrônico que batizaram de ENIAC. Do ENIAC à válvulas, os componentes evoluíram para transistores e depois para os circuitos integrados. Com a criação do transistor vieram outras utilizações, como a utilização dos transistores nas memórias com tecnologia SRAM, que são utilizadas em memória cache, segundo (Hennessy e Patterson, 2008, p. 223) as SRAMs não precisam ser atualizadas, como as DRAMS (tecnologia utilizada em memórias RAM que precisam de refresh) e, portanto, o tempo de acesso é muito próximo ao tempo do ciclo e as SRAMs normalmente utilizam seis transistores por bit, para impedir que a informação seja modificada quando lida, só precisando a SRAM de um mínimo de energia para reter a carga no modo de standby. Entre a primeira e a segunda guerra mundial surgiram máquinas eletro mecânicas que já faziam vários cálculos, e após o final da segunda guerra mundial surgiu o ENIAC com as suas válvulas que trabalhavam com a incrível velocidade de 1000 instruções por segundo, dando origem a primeira geração dos computadores, a segunda geração foi caracterizada pelos transistores e a terceira geração foi a dos circuitos integrados. Percebemos que as gerações foram classificadas em 1ª, 2ª e 3ª geração em função da mudança no hardware (desenvolvimento do componente responsável pelo processamento da informação) como linha divisória entre elas, e que alguém menos avisado achou que quando os circuitos integrados passaram a abrigar dentro deles 10, 100, 1000, 1000000 de transistores ou mais caracterizou o nascimento da 4ª, 5ª, 6ª e outras gerações. Como a evolução se deu em torno do hardware, deduz-se dentro de uma análise bem definida que para ser 4ª geração tem que haver mudanças profundas no hardware, algo muito diferente de circuitos integrados com seus transistores, ou seja, algo que torne o funcionamento do computador muito diferente do que é hoje, e isto já está surgindo, o computador quântico cuja arquitetura é em camadas, não existem instruções, nem barramentos, nem transistores, ou seja, o processamento dos dados é feito no átomo, podendo ser utilizado os elétrons, prótons, nêutrons e as partículas menores.  O computador quântico executa cálculos utilizando propriedades da física quântica, as quais os físicos quânticos não conseguem explicar. Uma destas propriedades é o fato de o elétron ser uma partícula e se comportar como uma onda, outro comportamento estranho é o emaranhamento quântico ou entrelaçamento que é: o que acontece em um átomo reflete no outro átomo, estes que podem estar a milhões de quilômetros um do outro, imagine este recurso sendo utilizado para gerar backups instantâneos. Temos também a superposição: um corpo pode estar em dois lugares ao mesmo tempo, um qubit pode ser 0 e 1 simultaneamente, ou seja alterou o conceito de bit, porque o bit assume valores 0 ou 1 e o qubit 0, 1 ou 0 e 1 simultaneamente. Um computador que utiliza as propriedades da física quântica acima mencionada vai ter que utilizar um sistema operacional bem diferente dos que existem atualmente, ou, seja sem instruções. Várias modificações ao longo das gerações dos computadores foram alterando a rapidez do processamento de dados, a primeira delas foi a máquina de Von Neumann ou arquitetura de Von Neumann que começou com uma CPU formada por uma UC (unidade de controle), ULA (unidade lógica e aritmética) que caracterizam a CPU, uma entrada de dados (unidade i/o), saída de dados (i/o) e uma memória RAM que até hoje armazenam os dados e instruções, as quais, carregadas na memória possam ser acessadas pela unidade de controle para que possam ser lidos e decodificados. A ULA se houver alguma operação lógica ou aritmética, será acionada para resolvê-los. A memória RAM passou por várias tecnologias (FPM, EDO, SDRAM, DDR, DDR2, DDR3, DDR4) que ao longo do tempo foram evoluindo em velocidade, largura de barramento, voltagem na placa mãe, diminuição no tempo de acesso a leitura dos dados, número de bits transmitidos por ciclo de clock e, o mais importante, componentes eletrônicos que formam a célula para armazenamento dos dados na memória. A memória DRAM (dynamic RAM é composta de um transistor mos e um capacitor para armazenamento de bits na célula), esta estrutura tem um problema: preciso executar um refresh para reforçar o sinal armazenado no capacitor (0 ou 1) e isto demanda um tempo gasto pela memória para manter o dado armazenado confiável. A memória SRAM (static RAM) é composta por seis transistores ou quatro transistores e dois resistores para armazenamento dos bits nas células e isto fazem com que o tempo de resposta da memória estática seja menor, ou seja, mais rápido, ou seja, dois transistores ficam responsáveis pela tarefa de controle, enquanto que os demais ficam responsáveis pelo armazenamento elétrico, isto é, pela formação do bit. Os barramentos da placa mãe (ISA, EISA, PCI, PCIEXPRESS) ao avaliar os diagramas, verifica-se que, ao longo do tempo, o barramento local (barramento que comunica a CPU ao subsistema de memória) evoluíram para FSB (barramento que liga a cpu ao chipset ponte norte) e o Quickpath Interconnect (barramento que liga a CPU ao chipset ponte sul) utilizando um barramento que transmite simultaneamente nos dois sentidos. Os Chipsets são evolução de controle por software da memória CMOS para o barramento EISA, controlador VL BUS para o barramento Vesa local bus e ponte PCI para o barramento PCI. A rapidez na execução das instruções surgiu com a filosofia RISC que é rápida, pois as instruções são executadas no hardware através de um menor numero de circuitos internos e frequências mais altas, além de os operandos serem armazenados em registradores, diferente do CISC que, possui microcódigo e os operandos são armazenados na memória, tendo como consequência um processamento mais lento em função da leitura na memória ser feita em dois ciclos ou mais, e, no registrador é efetuada a leitura em um ciclo apenas. Quando necessitamos de computadores que necessitam de resposta em tempo real utilizamos RISC, senão, utilizamos CISC. Hoje temos ARM (Advanced RISC Machine) que é uma evolução do RISC, muito utilizados em portáteis (celulares, notebooks, netbooks, tablets e outros).As memórias cache tiveram uma evolução que começou instalada na placa mãe, depois passou para dentro do processador, hoje temos memórias cache L1, L2 e L3 (que trabalha na velocidade do processador). Lembremos que a memória cache na hierarquia das memórias (registradores, cache, RAM, rom, dispositivos de massa) ocupa o segundo lugar, pois a mesma é formada por transistores, ou transistores e resistores (memórias SRAM). Hoje a utilização do computador na sociedade é de grande importância, por isso temos que ter o computador ideal para a tarefa ideal, sendo de vital importância para a governança de TI, que tem como um dos objetivos agregar valores reduzindo custos. É relatado ao longo do texto o surgimento do ábaco, máquinas de calcular até chegar-se ao computador. Quando surgiu o computador veio às gerações, e com a descoberta do transistor a evolução dos processadores, memórias e demais recursos que acompanham os computadores nos dias de hoje. Este artigo procura passar a compreensão para o leitor, da evolução dos componentes de hardware, tendências de utilização da física quântica pelos computadores atuais e consequentemente uma rapidez maior no processamento dos atuais computadores.


A IMPORTÂNCIA DOS DADOS

Quando se fala em processamento dos atuais computadores, estamos mencionando dados que estão sendo transformados, os quais após este processamento viram informações importantes para a empresa que os utilizarão para seu planejamento estratégico. Depois da leitura do texto acima sobre a evolução dos computadores, você se perguntou, de como surgiu o dado? Para início de conversa, o dado é o novo petróleo, sem o armazenamento adequado nos discos rígidos dos computadores, as empresas não teriam como fazer o seu planejamento, e os computadores surgiram, graças à necessidade humana de armazenar dados para poder organizar melhor as nossas tarefas cotidianas.

Grato,
Jefferson Daminelli Garcia



Veja também:





Postagem em Destaque

Planejamento Financeiro

  A importância do planejamento financeiro começa com a criação de uma planilha (Veja a planilha abaixo), onde você coloca o que você recebe...

Postagens Mais Visitadas

Últimas Postagens