Um experimento realizado em maio de 2025 conseguiu executar um modelo de inteligência artificial baseado no Llama 2 em um computador equipado com um processador Pentium II de 350 MHz e apenas 128 MB de memória RAM. A façanha foi possível graças à arquitetura BitNet, que permite compressão extrema de redes neurais com consumo mínimo de recursos computacionais.
Um modelo de linguagem rodando com 260 mil parâmetros e 39 tokens por segundo
A demonstração foi conduzida pela EXO Labs, empresa liderada por Andrej Karpathy, em parceria com pesquisadores da Universidade de Oxford. O teste utilizou uma CPU Intel Pentium II, lançada em 1997, para processar um modelo reduzido do Llama 2, obtendo uma taxa de 39,31 tokens por segundo. Mesmo com desempenho modesto, o resultado foi considerado satisfatório dentro das limitações do sistema.
O modelo empregado operava com 260 mil parâmetros, resultado da aplicação da tecnologia BitNet. Essa arquitetura utiliza pesos ternários (-1, 0 e 1), em vez dos tradicionais pesos float32, permitindo redução significativa no tamanho do modelo sem comprometer sua funcionalidade básica.
Nova arquitetura pode reduzir modelos de bilhões de parâmetros para menos de 2 GB
Segundo os pesquisadores, a técnica de compressão aplicada no experimento permite reduzir modelos comuns de 7 bilhões de parâmetros para arquivos de apenas 1,38 GB. Isso torna viável a execução de tarefas de linguagem natural mesmo em dispositivos modestos, sem o apoio de GPUs ou servidores especializados.
A proposta da EXO Labs é utilizar essas inovações para provar que o avanço da inteligência artificial não depende exclusivamente de hardware de ponta. A empresa defende que algoritmos otimizados podem permitir uso mais sustentável, acessível e democrático da tecnologia, sem a necessidade de constante atualização de equipamentos.
Impactos para países em desenvolvimento e sustentabilidade ambiental
A possibilidade de rodar modelos de IA em máquinas antigas pode beneficiar setores públicos e privados em regiões com infraestrutura tecnológica limitada. Escolas, unidades de saúde e pequenos negócios poderiam adotar sistemas de inteligência artificial mesmo sem acesso a servidores de alto desempenho ou conexões rápidas.
Do ponto de vista ambiental, a reutilização de equipamentos antigos para aplicações avançadas contribui para a redução de lixo eletrônico e para o menor consumo energético. Essa abordagem está alinhada com políticas de sustentabilidade que vêm sendo adotadas por empresas e governos em todo o mundo.
BitNet abre caminho para execução de modelos com até 100 bilhões de parâmetros
A EXO Labs afirma que, com melhorias adicionais na arquitetura BitNet, será possível rodar modelos de até 100 bilhões de parâmetros em processadores convencionais, com velocidades próximas à leitura humana. Essa possibilidade representa uma mudança de paradigma no desenvolvimento de IA, com foco na eficiência algorítmica em vez de potência bruta.
A informação foi divulgada por Farmingdale e complementada com dados públicos disponíveis em canais institucionais da EXO Labs e na documentação técnica sobre a arquitetura BitNet, publicada em abril de 2025.