A gigante da tecnologia, a IBM, lançou o primeiro computador quântico com mais de 1.000 qubits, alcançando um marco histórico. Essa conquista não é apenas um número impressionante, mas um grande passo para o futuro da computação, abrindo caminhos para resoluções de problemas até então inatingíveis pela computação clássica.
O chip, nomeado Condor, possui 1.121 qubits supercondutores, organizados em um padrão de colmeia. Isso segue uma trajetória de sucesso da IBM, que já havia apresentado chips de 127 e 433 qubits nos anos anteriores.
Para contextualizar, os qubits são para os computadores quânticos o que os bits são para os computadores clássicos. No entanto, os qubits operam em um território onde as leis da física quântica permitem que eles existam em múltiplos estados simultaneamente, uma propriedade conhecida como superposição.
Essa capacidade extraordinária dos qubits de existir em vários estados ao mesmo tempo é o que torna a computação quântica tão promissora. Por meio de fenômenos como entrelaçamento e superposição, um computador quântico pode realizar cálculos complexos a velocidades exponencialmente mais rápidas do que os computadores tradicionais, revolucionando campos que vão desde a criptografia até a pesquisa farmacêutica, passando pela otimização de sistemas complexos.
Tem mais artigo pra você saber mais sobre os avanços em relação ao computador quântico. Clica aqui pra ler mais sobre o entrelaçamento de luzes de átomos multitarefa.
Desafios do computador quântico
Um dos desafios mais significativos está principalmente relacionado à estabilidade dos qubits. Por isso, um aspecto crucial no desenvolvimento do computador quântico é a correção de erros.
Na computação quântica, a estabilidade e precisão dos qubits são essenciais. Um qubit físico é a unidade básica de informação quântica, similar a um bit em computadores clássicos, mas com a capacidade de existir em múltiplos estados ao mesmo tempo, mas esses qubits físicos são extremamente sensíveis a distúrbios, o que os torna propensos a erros.
Para lidar com isso, os pesquisadores desenvolveram uma técnica onde combinam vários desses qubits físicos para formar o que chamamos de ‘qubit lógico’. Um qubit lógico é, basicamente, um grupo de qubits físicos trabalhando juntos de forma coordenada, o que os torna mais estáveis e menos suscetíveis a erros. Esta abordagem melhora a confiabilidade dos cálculos quânticos, mas tem um custo: é preciso um número significativo de qubits físicos para formar um único qubit lógico. Portanto, enquanto aumenta a precisão, também aumenta a complexidade e os recursos necessários para a computação quântica.
A estratégia da IBM para avançar na computação quântica
Em um movimento estratégico, a IBM agora está direcionando seu foco para melhorar a resistência a erros dos seus chips quânticos, em vez de simplesmente aumentar seu tamanho. A empresa também apresentou seu novo chip chamado Heron, que, embora menor em termos de número de qubits, com 133, possui uma taxa de erro três vezes menor do que os processadores quânticos anteriores da empresa, indicando um avanço importante na confiabilidade e na viabilidade prática da computação quântica.
Os pesquisadores estão entusiasmados com um esquema alternativo de correção de erros conhecido como verificação de paridade de baixa densidade quântica (qLDPC, do inglês quantum low-density parity check), um método que promete reduzir drasticamente o número de qubits físicos necessários para cada qubit lógico, potencialmente cortando esse número por um fator de 10 ou mais. A ideia é criar chips projetados para abrigar alguns qubits corrigidos pelo qLDPC em apenas cerca de 400 qubits físicos e, em seguida, interconectar esses chips.
No entanto, a implementação do qLDPC com qubits supercondutores apresenta desafios substanciais e pode levar anos até que experimentos comprovem sua eficácia. Alternativas, como o uso de átomos individuais para o qLDPC, também estão sendo exploradas. Além disso, a técnica qLDPC exige que cada qubit esteja diretamente conectado a pelo menos seis outros, uma exigência que não é atendida pelos chips supercondutores típicos.
Para superar isso, a IBM planeja adicionar uma camada extra ao design de seus chips quânticos, permitindo as conexões extras necessárias para o esquema qLDPC.
Essa nova abordagem da IBM não é apenas uma mudança de estratégia, mas uma redefinição do caminho da computação quântica. A empresa prevê que, até o final desta década, será capaz de realizar cálculos úteis que hoje são inalcançáveis, como simular o funcionamento de moléculas catalisadoras, – uma realidade que acreditam se aproximar a cada avanço.
A IBM, com seu novo chip de 1.000 qubits e uma nova abordagem focada na correção de erros, está na vanguarda dos avanços em relação à computação quântica. Resolver problemas complexos em uma fração do tempo que levaria em um computador clássico está a alguns anos de distância, mas cada vez mais próxima, de se tornar realidade.
Fonte: Nature