In laboratórios em Pequim, um chip discretamente radical desafia a ideia de que a inteligência artificial tem de engolir eletricidade para crescer.
Este processador experimental da Universidade de Pequim abandona a lógica binária tradicional e regressa a uma forma mais antiga, analógica, de computação, prometendo IA que corre mais depressa enquanto consome apenas uma fração da energia usada pelas melhores GPUs da atualidade.
A China aposta no analógico para quebrar o muro energético da IA
O progresso da IA na última década foi impulsionado por centros de dados cada vez maiores, cheios de processadores gráficos vorazes em energia. Cada novo modelo precisa de mais silício, mais arrefecimento e mais eletricidade do que o anterior.
A equipa chinesa por trás do novo chip argumenta que esta trajetória bate num muro. Alegam que o seu processador analógico de IA executa certas tarefas 12 vezes mais depressa do que chips digitais avançados, usando ao mesmo tempo cerca de 1/200 da energia.
Um chip de IA que seja simultaneamente mais rápido e 200 vezes mais eficiente não se limitaria a cortar custos; reescreveria a economia da computação à escala.
O trabalho, liderado pelo investigador Sun Zhong, da Universidade de Pequim, e publicado na Nature Communications, não pretende substituir todos os processadores digitais. Em vez disso, mira algumas das operações matemáticas mais intensivas em energia que estão no coração da IA moderna.
O que “analógico” significa quando o seu telefone é totalmente digital
Antes de a eletrónica digital dominar, os engenheiros construíam computadores analógicos usando tensões, correntes e eixos rotativos para modelar sistemas físicos. Eram volumosos e limitados, mas surpreendentemente eficazes em tarefas específicas como balística ou sistemas de controlo.
O novo chip chinês revisita essa herança com materiais modernos e circuitos à escala de nanómetros.
Como a computação analógica difere do seu portátil
Chips digitais representam toda a informação como sequências de zeros e uns. Cada operação é decomposta em muitos pequenos passos, executados sequencialmente por portas lógicas.
- Um processador digital divide cada cálculo em operações cronometradas e ordenadas.
- Um circuito analógico usa sinais elétricos contínuos, deixando a natureza realizar muitas operações de uma só vez.
Num chip analógico de IA, os valores são codificados como tensões ou correntes. Quando esses sinais atravessam uma rede cuidadosamente desenhada de componentes, a física do circuito executa a matemática numa única passagem.
Esse paralelismo, combinado com a ausência de necessidade de comutar milhares de milhões de transístores individuais em cada passo, explica as poupanças energéticas dramáticas.
Porque o analógico saiu de moda e depois voltou
As máquinas analógicas clássicas caíram em desuso porque eram difíceis de programar, difíceis de reconfigurar e propensas a ruído e deriva. Os sistemas digitais, pelo contrário, escalaram magnificamente com a Lei de Moore e deram resultados precisos e repetíveis.
Várias tendências estão agora a alterar o equilíbrio:
- O escalamento dos transístores traz retornos decrescentes, tornando a força bruta digital menos atrativa.
- As cargas de trabalho de IA toleram pequenos erros numéricos, o que se adequa à natureza imperfeita do analógico.
- Novas técnicas de fabrico melhoram a estabilidade e a calibração de circuitos analógicos.
O chip da Universidade de Pequim situa-se exatamente nesta interseção: troca um pouco de precisão numérica por enormes ganhos de velocidade e eficiência em tarefas do tipo IA.
Um chip feito para cargas de trabalho reais de IA, não apenas equações de laboratório
Muitos protótipos analógicos do passado ficaram presos a problemas “de brinquedo”. Este pretende lidar com dados do mundo real. Os investigadores testaram-no em sistemas de recomendação, uma aplicação de trabalho pesado para gigantes da Internet.
Pense nos algoritmos que a Netflix, a Amazon ou o TikTok usam para sugerir o que poderá querer ver, comprar ou percorrer a seguir. Nos bastidores, trituram matrizes enormes de históricos de utilizadores e atributos de conteúdo. Esse tipo de carga de trabalho é extremamente exigente tanto em memória como em computação.
Nestas tarefas de recomendação, o chip analógico chinês processou conjuntos de dados comparáveis em dimensão aos usados por plataformas comerciais. Entregou resultados muito mais rapidamente do que hardware digital avançado, reduzindo o consumo de energia a uma fração mínima.
A equipa também experimentou compressão de imagem. Aqui, o chip reconstruiu imagens comprimidas com qualidade visual próxima da de métodos digitais convencionais de alta precisão, enquanto reduzia para metade os requisitos de armazenamento nos casos de teste.
Muitas vezes, a IA não precisa de aritmética perfeita; precisa de resultados “suficientemente bons”, de forma rápida e barata - e os circuitos analógicos prosperam nesse regime.
O truque matemático escondido: fatorização de matriz não negativa
No centro deste avanço está uma técnica com um nome desajeitado: fatorização de matriz não negativa, ou NMF (non-negative matrix factorisation).
O que a NMF realmente faz
Imagine que tem uma enorme folha de cálculo de números - utilizadores e filmes, clientes e produtos, píxeis e níveis de brilho. A NMF tenta decompor essa grande matriz em duas matrizes mais pequenas, mais fáceis de interpretar, sob a restrição de que todos os valores permanecem não negativos.
Isto revela padrões ocultos:
- Em recomendações, pode descobrir “gostos” ou “temas” subjacentes.
- Em imagens, pode separar uma fotografia em blocos de construção básicos ou características.
- Em áudio, pode separar sons em fontes, como notas ou instrumentos.
Em hardware digital, a NMF é computacionalmente pesada, especialmente quando os conjuntos de dados contêm milhões de entradas. Pode exigir milhares ou milhões de atualizações iterativas para uma única análise.
A equipa chinesa implementou estas operações de NMF diretamente na circuitaria analógica, usando um layout “na memória” (in-memory) em que os mesmos componentes tanto armazenam como processam dados. Na prática, a matemática matricial acontece numa única operação física, em vez de numa longa sequência de instruções.
Computação na memória: eliminar o engarrafamento do tráfego de dados
Um dos maiores estrangulamentos na IA moderna não é a potência de cálculo bruta, mas o transporte interminável de dados entre chips de memória e processadores. Cada viagem desperdiça tempo e energia e gera calor.
A computação na memória reorganiza as coisas para que a maioria dos cálculos ocorra onde os dados já estão. O chip analógico de NMF segue esta filosofia: matrizes de elementos semelhantes a memória executam operações à medida que correntes as atravessam.
| Arquitetura | Onde os dados vivem | Onde a matemática acontece | Perfil energético |
|---|---|---|---|
| GPU tradicional | Memória fora do chip e no chip | Núcleos digitais separados | Elevado, devido ao movimento constante de dados |
| Chip analógico de NMF | Dentro de matrizes analógicas | Nas próprias matrizes, via física | Baixo, movimento mínimo de dados |
Este redesenho não resolve todos os desafios da IA, mas ataca a parte mais dolorosa do treino e inferência à escala: o tráfego de memória.
Como se compara a hardware da classe Nvidia
A GPU Nvidia H100 tornou-se um símbolo da vaga atual de IA. Consegue realizar biliões de operações por segundo, mas também consome centenas de watts por chip e, muitas vezes, funciona em racks que puxam dezenas de quilowatts.
A equipa da Universidade de Pequim estima que, para tarefas do tipo NMF, o seu design analógico pode correr pelo menos uma ordem de grandeza mais depressa do que essas GPUs, usando 1/200 da potência. Algumas projeções em materiais universitários chegam mesmo a sugerir ganhos de velocidade de 1.000 vezes em configurações específicas, embora esses valores venham com muitas ressalvas.
Crucialmente, essas comparações aplicam-se a uma classe estreita de cargas de trabalho. Chips digitais de uso geral continuam a ganhar em flexibilidade, precisão e ecossistemas de software maduros. O chip analógico parece mais um acelerador de propósito específico que poderia coexistir com CPUs e GPUs em futuros centros de dados.
Se as GPUs digitais são camiões que transportam qualquer coisa, os aceleradores analógicos são comboios de alta velocidade construídos para uma linha e uma carga específicas.
Usos potenciais e impacto no mundo real
Onde este tipo de chip poderá importar primeiro
Vários setores destacam-se como beneficiários iniciais se a tecnologia escalar para além do laboratório:
- Plataformas de streaming e redes sociais – Recomendações mais rápidas e baratas para vídeo, música e feeds.
- Telecomunicações e redes na periferia (edge) – IA local em estações base ou routers com orçamentos energéticos apertados.
- Monitorização industrial – Deteção de padrões em fluxos de sensores sem arrefecimento pesado no local.
- Imagiologia na saúde – Compressão e análise onde hospitais não conseguem alojar grandes centros de dados.
Para operadores de centros de dados, um ganho de eficiência de 200 vezes em algumas cargas de trabalho poderia reduzir faturas de eletricidade e infraestrutura de arrefecimento. Para regiões que tentam expandir capacidade de IA sem pressionar redes elétricas, isso importa tanto quanto o desempenho bruto.
Riscos e obstáculos práticos
A tecnologia também enfrenta barreiras sérias:
- Ruído e precisão – Circuitos analógicos captam interferências e derivam com a temperatura, o que pode prejudicar a exatidão.
- Complexidade de fabrico – Fabricar e calibrar grandes matrizes analógicas à escala é difícil.
- Modelo de programação – Programadores estão habituados a código digital, não a configurar matrizes físicas.
- Normalização – Cada design analógico é altamente especializado, o que abranda o crescimento do ecossistema.
Há também um ângulo geopolítico. Uma classe doméstica de aceleradores de IA, menos dependente de fabricantes ocidentais, encaixa na ambição da China de autossuficiência em semicondutores e IA. Isso pode acelerar financiamento e adoção, mesmo que a tecnologia permaneça inicialmente de nicho.
O que isto significa para o futuro do hardware de IA
O chip analógico de NMF não sinaliza o fim da computação digital. Em vez disso, ilustra uma mudança para arquiteturas mais diversas, ajustadas a “kernels” matemáticos específicos.
Podemos em breve ver sistemas de IA que misturam:
- CPUs de uso geral para lógica de controlo.
- GPUs ou aceleradores digitais para treinar grandes redes neuronais.
- Matrizes analógicas na memória para fatorização de matrizes, blocos de atenção ou padrões recorrentes.
Para utilizadores do dia a dia, o efeito poderá surgir de forma discreta: recomendações mais inteligentes em dispositivos de baixo consumo, funcionalidades de IA em smartphones mais baratos, ou serviços na nuvem que deixam de aumentar preços apenas para pagar a conta da eletricidade.
Para decisores políticos a lidar com a pegada de carbono da IA, a ideia de que truques analógicos “à antiga” podem reduzir o consumo energético em duas ordens de grandeza oferece uma rara nota de encorajamento num setor normalmente definido por crescimento implacável tanto de potência como de procura.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário