Então, tenho investigado os últimos avanços em computação quântica em 2024 e, honestamente, este ano pareceu diferente do ciclo de hype habitual. Em vez de um anúncio massivo que desaparece no nada, tivemos três desenvolvimentos principais completamente separados de empresas diferentes, usando abordagens de hardware totalmente distintas. Esse é o tipo de padrão que realmente indica que um campo está avançando, em vez de simplesmente girar em círculos.



Deixe-me explicar o que realmente aconteceu, porque os detalhes importam mais do que os títulos. O Google lançou o Willow em dezembro—um chip supercondutor de 105 qubits que fez algo que o campo vinha perseguindo há uns 30 anos. Quando eles adicionaram mais qubits, a taxa de erro caiu em vez de subir. Isso parece óbvio até você perceber que é o oposto do que a computação quântica vinha fazendo para sempre. Mais qubits sempre significaram mais ruído, mais erros em cascata, menos confiabilidade. Willow mudou essa equação usando sua arquitetura de correção de erros. Eles executaram um cálculo em menos de cinco minutos que levaria supercomputadores clássicos 10 septilhões de anos para terminar. Sim, 10 elevado à 25ª potência. A publicação na Nature também importa—anteriores reivindicações de supremacia quântica foram criticadas de forma legítima, então ter uma metodologia revisada por pares é realmente significativo.

Mas aqui está o ponto: o teste do Willow ainda é limitado. Ele prova que certos cálculos são intratáveis classicamente, não que estamos de repente resolvendo descoberta de drogas ou modelagem climática amanhã. O valor real é arquitetônico—ele prova que a computação quântica com correção de erros em grande escala não é mais apenas teórica.

Depois, há o trabalho da Microsoft e da Quantinuum de abril, que recebeu menos atenção da imprensa, mas provavelmente mais dos pesquisadores de verdade. Eles construíram qubits lógicos com taxas de erro 800 vezes menores do que os qubits físicos subjacentes. Essa é a verdadeira linha divisória na computação quântica—qubits físicos são barulhentos e frágeis, enquanto qubits lógicos codificam informações de forma redundante para que erros possam ser detectados e corrigidos. O problema sempre foi que você precisava de tantos qubits físicos para construir um lógico que a sobrecarga matava todo o conceito. Uma melhoria de 800x muda completamente esse cálculo.

A Microsoft avançou ainda mais em novembro, trabalhando com a Atom Computing para criar e entrelaçar 24 qubits lógicos usando átomos de itérbio ultrafrios e neutros. 99,963% de fidelidade em operações de um único qubit. Uma arquitetura de hardware completamente diferente, o que importa porque significa que múltiplos caminhos viáveis estão funcionando simultaneamente, em vez de apostar tudo em uma única abordagem. Então, a Quantinuum chegou a 50 qubits lógicos entrelaçados em dezembro. Isso não é mais uma visão de futuro—é o presente.

A contribuição da IBM foi mais discreta, mas vale atenção. O processador Heron R2 atingiu 156 qubits em novembro, com uma aceleração de 50x em cargas de trabalho que anteriormente levavam 120 horas. Mais importante, eles apresentaram um novo código de correção de erros—o código bivariado bicycle qLDPC—que alcança a mesma supressão de erros que códigos convencionais, mas com 10 vezes menos sobrecarga. Esse ganho de eficiência é o que faz a computação quântica tolerante a falhas parecer um problema de engenharia com uma solução, e não uma impossibilidade teórica.

O que muitas vezes passa despercebido: o NIST publicou os primeiros padrões de criptografia pós-quântica em agosto. Isso importa porque é a primeira vez que um órgão de padronização importante reconhece oficialmente que computadores quânticos capazes de quebrar a criptografia atual não são mais apenas teóricos. Governos e empresas precisam começar a fazer a transição agora. O prazo desde a publicação do padrão até a implantação generalizada costuma ser de uma década ou mais, então o relógio começou em 2024.

Observando os últimos avanços em computação quântica em 2024 coletivamente, o campo basicamente provou que parou de avançar em uma direção e começou a progredir em todas as dimensões simultaneamente—hardware, correção de erros, qubits lógicos, eficiência de software. Passou de agir como física teórica para agir como engenharia, com marcos verificáveis de forma independente.

Isso significa que a computação quântica chegou? Nem exatamente. Willow ainda não está rodando aplicações de descoberta de drogas. Os qubits lógicos da Quantinuum podem detectar erros, mas a correção de erros completa ainda está sendo desenvolvida. Os sistemas de átomos neutros da Microsoft precisam de infraestrutura que ainda não existe em escala. O processador Starling totalmente corrigido da IBM não está previsto até 2029.

Mas o que realmente importou em 2024 foi provar que o campo poderia avançar em múltiplas abordagens simultaneamente. A questão mudou de se a computação quântica com correção de erros em grande escala é possível para qual abordagem escala mais rápido e quando aplicações práticas justificam o investimento. Essa é uma conversa fundamentalmente diferente daquela que tínhamos há alguns anos.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar