Como os chineses venceram Trump e a OpenAI

Bernhard, do Moon of Alabama – 24 de janeiro de 2025

O entusiasmo em torno da Inteligência Artificial, a tentativa fracassada dos EUA de monopolizá-la e a recente reação da China são uma lição sobre como inovar. Eles também mostram que os EUA estão perdendo a capacidade de fazer isso.

Em meados de 2023, quando o hype da Inteligência Artificial ganhou as manchetes, escrevi:

A “inteligência artificial” é (em sua maior parte) um reconhecimento de padrões glorificado

Atualmente, há um certo entusiasmo com relação a uma família de grandes modelos de linguagem, como o ChatGPT. O programa lê a entrada de linguagem natural e a processa em alguma saída de conteúdo de linguagem natural relacionada. Isso não é novidade. A primeira Entidade Computacional Artificial Linguística da Internet (Alice) foi desenvolvida por Joseph Weizenbaum no MIT no início da década de 1960. Tive conversas engraçadas comELIZA

na década de 1980 em um terminal de mainframe. O ChatGPT é um pouco mais sofisticado e seus resultados iterativos, ou seja, as “conversas” que ele cria, podem surpreender algumas pessoas. Mas a propaganda em torno dele é injustificada.

Atualmente, a correção factual do resultado dos melhores modelos de linguagem de grande porte é estimada em 80%. Eles processam símbolos e padrões, mas não têm compreensão do que esses símbolos ou padrões representam. Eles não conseguem resolver problemas matemáticos e lógicos, nem mesmo os mais básicos.

Há aplicativos de nicho, como a tradução de idiomas escritos, em que a IA ou o reconhecimento de padrões tem resultados surpreendentes. Mas ainda não se pode confiar que eles acertem todas as palavras. Os modelos podem ser assistentes, mas sempre será necessário verificar novamente os resultados.

Em geral, a correção dos modelos atuais de IA ainda é muito baixa para permitir que eles decidam qualquer situação do mundo real. Mais dados ou mais poder de computação não mudarão isso. Se quisermos superar suas limitações, precisaremos encontrar algumas ideias fundamentalmente novas.

Mas o entusiasmo continuou. Um grande modelo de IA, o ChatGPT, foi fornecido por uma organização sem fins lucrativos, a OpenAI. Mas seu CEO, Sam Altman, logo percebeu a grande quantidade de dólares que poderia ganhar. Um ano depois de defender a estrutura sem fins lucrativos da OpenAI, Altman efetivamente assaltou a diretoria e tornou a organização privada:

A OpenAI, fabricante do ChatGPT, está trabalhando em um plano para reestruturar seu negócio principal em uma corporação beneficente com fins lucrativos que não será mais controlada por seu conselho sem fins lucrativos, disseram à Reuters pessoas familiarizadas com o assunto, em um movimento que tornará a empresa mais atraente para os investidores.

O executivo-chefe Sam Altman também receberá, pela primeira vez, participação acionária na empresa com fins lucrativos, que poderá valer US$ 150 bilhões após a reestruturação, uma vez que também tentará remover o limite de retorno para os investidores, acrescentaram as fontes.

O modelo de linguagem grande do ChatGTP fornecido pela OpenAI era de código fechado. Uma caixa preta, executada na nuvem, com a qual se podia pagar para conversar ou usar para traduzir, gerar conteúdo ou analisar determinados problemas.

O treinamento e a manutenção do ChatGTP exigiam grandes quantidades de poder de computação e dinheiro. Era um pouco caro, mas não havia nenhuma tecnologia nova nele. Os algoritmos que ele usava eram bem conhecidos e os dados de treinamento necessários para “programá-lo” eram conteúdo da Internet disponível gratuitamente.

Apesar de todo o alarde sobre a IA, não se trata de uma tecnologia secreta ou mesmo nova. As barreiras de entrada para qualquer concorrência são baixas.

Essa é a razão pela qual Yves, da Naked Capitalism, apontando para Edward Zitron, perguntou: “Como o OpenAI sobrevive?” Ela não sobrevive. Ou tem pouca chance de sobreviver. As discussões nos EUA nunca reconheceram esses fatos.

Os políticos pensavam na IA como a próxima grande novidade que aumentaria o controle dos EUA sobre o mundo. Eles tentaram impedir qualquer concorrência em potencial à liderança que os EUA acreditavam ter nesse campo. A Nvidia, a última grande fabricante de chips dos EUA, perdeu bilhões quando foi proibida de vender seus modelos mais recentes especializados em IA para a China.

Há dois dias, Trump anunciou o Stargate, um investimento de US$ 500 bilhões em infraestrutura de IA nos EUA:

Três grandes empresas de tecnologia anunciaram na terça-feira que criarão uma nova empresa, chamada Stargate, para desenvolver a infraestrutura de inteligência artificial nos Estados Unidos.

O CEO da OpenAI, Sam Altman, o CEO da SoftBank, Masayoshi Son, e o presidente da Oracle, Larry Ellison, compareceram à Casa Branca na tarde de terça-feira ao lado do presidente Donald Trump para anunciar a empresa, que Trump chamou de “o maior projeto de infraestrutura de IA da história”.

As empresas investirão US$ 100 bilhões no projeto para começar, com planos de investir até US$ 500 bilhões no Stargate nos próximos anos. Espera-se que o projeto crie 100.000 empregos nos EUA, disse Trump.

A Stargate construirá “a infraestrutura física e virtual para alimentar a próxima geração de IA”, incluindo data centers em todo o país, disse Trump. Ellison disse que o primeiro projeto de dados do grupo, de 1 milhão de pés quadrados, já está sendo construído no Texas.

No mesmo dia, mas com muito menos barulho, uma empresa chinesa publicou outro modelo de IA:

Apresentamos nossos modelos de raciocínio de primeira geração, DeepSeek-R1-Zero e DeepSeek-R1. O DeepSeek-R1-Zero, um modelo treinado por meio de aprendizagem por reforço (RL) em larga escala sem ajuste fino supervisionado (SFT) como uma etapa preliminar, demonstrou um desempenho notável no raciocínio. Com a RL, o DeepSeek-R1-Zero surgiu naturalmente com vários comportamentos de raciocínio poderosos e interessantes.

Os novos modelos do DeepSeek têm benchmarks melhores do que qualquer outro modelo disponível. Eles usam uma combinação diferente de técnicas, menos dados de treinamento e muito menos poder de computação para conseguir isso. São baratos de usar e, em contraste com o OpenAI, são realmente de código aberto.

Escreve a Forbes:

Os controles de exportação dos EUA sobre semicondutores avançados tinham a intenção de desacelerar o progresso da IA na China, mas podem ter inadvertidamente estimulado a inovação. Sem poder contar apenas com o hardware mais recente, empresas como a DeepSeek, sediada em Hangzhou, foram forçadas a encontrar soluções criativas para fazer mais com menos.

Este mês, a DeepSeek lançou seu modelo R1, usando técnicas avançadas, como o aprendizado por reforço puro, para criar um modelo que não só está entre os mais formidáveis do mundo, mas é totalmente de código aberto, tornando-o disponível para qualquer pessoa no mundo examinar, modificar e desenvolver.

O desempenho do DeepSeek-R1 é comparável ao dos principais modelos de raciocínio da OpenAI em uma série de tarefas, incluindo matemática, codificação e raciocínio complexo. Por exemplo, no benchmark de matemática AIME 2024, o DeepSeek-R1 obteve uma pontuação de 79,8% em comparação com os 79,2% do OpenAI-o1. No benchmark MATH-500, o DeepSeek-R1 obteve 97,3% contra 96,4% do o1. Em tarefas de codificação, o DeepSeek-R1 alcançou o percentil 96,3 no Codeforces, enquanto o o1 alcançou o percentil 96,6 – embora seja importante observar que os resultados de benchmark podem ser imperfeitos e não devem ser interpretados em excesso.

Mas o mais notável é que o DeepSeek conseguiu atingir esse objetivo em grande parte por meio da inovação, em vez de depender dos mais recentes chips de computador.

Nature também está impressionada:

Um modelo de linguagem grande construído na China, chamado DeepSeek-R1, está entusiasmando os cientistas como um rival acessível e aberto para modelos de “raciocínio”, como o o1 da OpenAI.

“Isso é selvagem e totalmente inesperado”, escreveu Elvis Saravia, pesquisador de IA e cofundador da empresa de consultoria de IA DAIR.AI, sediada no Reino Unido, no X.

O R1 se destaca por outro motivo. A DeepSeek, a start-up de Hangzhou que criou o modelo, lançou-o como “open-weight”, o que significa que os pesquisadores podem estudar e desenvolver o algoritmo. Publicado sob uma licença MIT, o modelo pode ser reutilizado livremente, mas não é considerado totalmente de código aberto, pois seus dados de treinamento não foram disponibilizados.

“A abertura do DeepSeek é notável”, diz Mario Krenn, líder do Laboratório de Cientistas Artificiais do Instituto Max Planck para a Ciência da Luz em Erlangen, Alemanha. Em comparação, o o1 e outros modelos criados pela OpenAI em São Francisco, Califórnia, incluindo seu mais recente esforço o3, são “essencialmente caixas pretas”, diz ele.

Até mesmo os investidores de longo prazo da Internet, que já viram de tudo, estão impressionados:

Marc Andreessen 🇺🇸 @pmarca –9:19 UTC – Jan 24,

O Deepseek R1 é um dos avanços mais incríveis e impressionantes que já vi e, como código-fonte aberto, é um grande presente para o mundo. 🤖🫡

Nature acrescenta:

A DeepSeek não divulgou o custo total do treinamento do R1, mas está cobrando das pessoas que usam sua interface cerca de um trigésimo do custo de execução do o1. A empresa também criou mini versões “destiladas” do R1 para permitir que pesquisadores com poder de computação limitado possam brincar com o modelo.

Isso de fato funciona!

Brian Roemmele @BrianRoemmele –14:34 UTC – Jan 23,

Pessoal, acho que conseguimos!
Se os testes noturnos forem confirmados, teremos o OPEN SOURCE DeepSeek R1 em execução a 200 tokens por segundo em um Raspberry Pi não conectado à Internet.
Uma IA de fronteira completa, melhor do que a “OpenAI”, que pertence totalmente a você e está em seu bolso, livre para usar!
Disponibilizarei a imagem do Pi assim que todos os testes forem concluídos.
Basta colocá-la em um Raspberry Pi e você terá IA!
Esse é apenas o começo do poder que ocorre quando você verdadeiramente abre o código-fonte de um modelo de IA.

O hardware Rasberry Pi mais recente custa a partir de US$ 50. O software é gratuito.

Essa é uma chamada de morte para a OpenAI:

Arnaud Bertrand @RnaudBertrand –14:23 UTC – Jan 21,

A maioria das pessoas provavelmente não se dá conta de como a Deepseek da China é uma má notícia para a OpenAI.

Eles criaram um modelo que se iguala e até supera o modelo o1 mais recente da OpenAI em vários benchmarks, e estão cobrando apenas 3% do preço.

Basicamente, é como se alguém tivesse lançado um celular equivalente ao iPhone, mas o estivesse vendendo por US$ 30 em vez de US$ 1.000. É muito dramático.

Além disso, eles estão lançando o código aberto, de modo que você tem a opção – que a OpenAI não oferece – de não usar a API deles e executar o modelo de forma “gratuita”. …

A história de fundo do DeepSeek também é incrível.

Em 2007, três engenheiros chineses se propuseram a criar um fundo de quant (especulação financeira) usando IA. Eles contrataram pessoas famintas recém-saídas das universidades. Seu fundo High-Flyer foi um pouco bem-sucedido, mas nos últimos anos o governo chinês começou a reprimir a engenharia financeira, o comércio quântico e a especulação.

Com tempo disponível e capacidade de computação não utilizada em seu quarto nos fundos, os engenheiros começaram a construir os modelos do DeepSeek. Os custos eram mínimos. Enquanto a OpenAI, a Meta e o Google gastaram bilhões para desenvolver suas IAs, os custos de treinamento para os modelos publicados do DeepSeek foram de apenas US$ 5 a 6 milhões.

Henry Shi @henrythe9ths –23:20 PM – Jan 20,

7. A lição?

Às vezes, ter menos significa inovar mais. O DeepSeek prova que você não precisa disso:
– Bilhões em financiamento
– Centenas de PhDs
– Um pedigree famoso
Apenas mentes jovens e brilhantes, a coragem de pensar de forma diferente e a determinação de nunca desistir

Outra lição é que as mentes jovens e brilhantes não devem ser desperdiçadas para otimizar a especulação financeira, mas para criar coisas que possam ser usadas.

O DeepSeek demonstra como é impossível usar barreiras comerciais e tecnológicas para manter a tecnologia longe dos concorrentes. Eles podem, com recursos decentes, simplesmente inovar em torno delas.

Mesmo bilhões de dólares, marqueteiros barulhentos como Trump e vigaristas que se autopromovem como Sam Altman não conseguem competir com sucesso com um banco profundo de engenheiros bem treinados.

Como autor em Guancha remarks (tradução automática):

Na guerra de ciência e tecnologia entre a China e os EUA, a vantagem exclusiva da China vem justamente da proibição dos EUA. Pode-se dizer que nossa forte vontade de sobreviver foi forçada por Washington, e a maximização de nossos recursos limitados é o segredo para superar isso. Na história, esse tipo de acontecimento não é novo, ou seja, os fracos prevalecem sobre os fortes e os pequenos lutam contra os grandes.

O lado americano cairá em um dilema no estilo do Vietnã, confiando demais em sua própria vantagem absoluta, desperdiçando assim muitos recursos e perdendo-se para o consumo interno.

Quanto tempo levará para os EUA (re)aprenderem essa lição?


Fonte: https://www.moonofalabama.org/2025/01/how-the-chinese-beat-trump-and-openai.html#more

3 Comments

  1. Alexandro Vieira Lopes said:

    Texto muito bom. Tomara que o Brasil, possa pegar este código fonte e usar para o bem!

    29 January, 2025
    Reply
  2. Kapito said:

    Os ianques sempre foram muito estúpidos, deve ser por causa da pior comida do mundo que eles comem diariamente.

    26 January, 2025
    Reply
  3. Marco Santos said:

    Ufa, já estava nos limites do sistema nervoso ( como sábios da grana entendem o que seria “inteligência), indignado com: cadê a reação de técnicos e cientistas de verdade com esses canalhas do avanço tecnológico? Ninguém fala nada?? Grande notícia!!! Obrigado!

    26 January, 2025
    Reply

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.