Recebi e-mails de leitores perguntando o que penso sobre o DeepSeek. Preciso começar com dois avisos. Primeiro, o de sempre: sou um investidor generalista de valor, não um especialista em tecnologia (semana passada, estava analisando um banco e uma empresa de petróleo), então meu conhecimento de modelos de IA é superficial. Segundo, e mais incomum, ainda não temos todos os fatos, mas já temos grandes definições. Mas essa história pode representar uma grande mudança de passo tanto na IA quanto na geopolítica.
“Finja inferioridade e encoraje a arrogância do seu oponente“ .– Sun Tzu, em “A Arte da Guerra“
Fonte: Zero Hedge – por Vitaliy Katsenelson
Aqui está o que sabemos:
DeepSeek — uma startup de um ano na China que surgiu de um fundo de hedge — construiu um modelo de linguagem grande (LLM) totalmente funcional que tem desempenho equivalente aos modelos de IA mais recentes. Esta parte da história foi verificada pela indústria: DeepSeek foi testado e comparado a outros LLMs de ponta. Eu, pessoalmente, tenho brincado com DeepSeek nos últimos dias, e os resultados que ele gerou foram muito semelhantes aos produzidos por ChatGPT e Perplexity — só que mais rápidos.
Isso por si só é impressionante, especialmente considerando que há apenas seis meses, Eric Schmidt (ex-CEO do Google, e certamente não um generalista) arrogantemente sugeriu que a China estava de dois a três anos atrás dos EUA em IA.
Mas aqui está a parte realmente chocante — e não verificada: a DeepSeek alega que treinou seu modelo por apenas US$ 5,6 milhões, enquanto seus equivalentes nos EUA supostamente gastaram centenas de milhões ou até bilhões de dólares para fazer o mesmo. Isso é de 20 a 200 vezes menos.
As implicações, se verdadeiras, são impressionantes. Apesar dos controles de exportação do governo dos EUA sobre chips de IA para a China, a DeepSeek supostamente treinou seu LLM em chips de geração mais antiga, usando uma pequena fração do poder de computação e eletricidade que seus concorrentes ocidentais têm.

Enquanto todos presumiam que o futuro da IA estava em chips melhores e mais rápidos — onde a única escolha real é Nvidia ou Nvidia — esta empresa chinesa até então desconhecida alcançou quase paridade com suas contrapartes americanas do Vale do Silício (ou “Vale do Desespero” depois do DeepSeek) nadando em dinheiro e data centers cheios dos mais recentes chips Nvidia.
A DeepSeek (supostamente) tinha enormes restrições de computação pelas sanções dos EUA à China e, portanto, teve que usar uma lógica diferente, tornando-se mais eficiente com hardware abaixo da média para atingir um resultado semelhante. Em outras palavras, esta startup “pequena e desorganizada”, em sua busca para criar um “cérebro” de IA melhor, usou cérebros onde todos os outros estavam se concentrando em músculos — ela literalmente ensinou a IA a raciocinar.
Participe do Concurso de Cachorro-Quente
Os americanos adoram comida (lixo) e esportes, então deixe-me explicar com uma analogia de comida e esporte. O Nathan’s Famous International Hot Dog Eating Contest alega 1916 como sua origem (embora isso possa ser parcialmente uma lenda). Na década de 1970, quando os registros oficiais começaram, os competidores vencedores comiam em média cerca de 15 cachorros-quentes. Isso aumentou gradualmente para cerca de 25 — até Takeru Kobayashi chegar do Japão em 2001 e quebrar o paradigma ao consumir 50 cachorros-quentes, algo amplamente considerado impossível. Seu segredo não era um apetite prodigioso, mas sim sua metodologia única; ele separava os cachorros-quentes dos pães e mergulhava os pães na água, reinventando completamente a abordagem.
Então, alguns anos depois, veio Joey Chestnut, que construiu a inovação de Kobayashi para levar o recorde bem além de 70 cachorros-quentes e até 83. Uma vez que Kobayashi quebrou o paradigma, os limites percebidos desapareceram, forçando todos a repensar seus métodos. Joey Chestnut capitalizou isso.
O DeepSeek pode ser o Kobayashi da IA, impulsionando toda a indústria para uma nova era de inovação tipo “Joey Chestnut”. Se as alegações sobre usar chips mais antigos e gastar drasticamente menos forem precisas, podemos ver as empresas de IA se afastando da busca obstinada por maior capacidade de computação e em direção a um design de modelo aprimorado.
Nunca pensei que citaria os estóicos para explicar a demanda futura por chips de GPU, mas Epicteto disse: “A felicidade não vem de querer mais, mas de se contentar com o que você tem.” Dois milênios atrás, ele certamente não estava falando sobre GPUs, mas poderia muito bem ter falado. ChatGPT, Perplexity e Gemini do Google terão que repensar sua fome por mais computação e energia e ver se podem conseguir mais querendo (usando) o que têm.
Se não o fizerem, serão devorados por centenas de novas startups, corporações e prováveis governos entrando no espaço. Quando você começa a soletrar bilhões com um “M”, você reduz drasticamente as barreiras de entrada no mercado.
Até o DeepSeek, a IA deveria estar ao alcance de apenas algumas empresas extremamente bem financiadas (as “Magnificent Seven”-Apple, Microsoft, Tesla, Alphabet, Meta, Nvidia e Amazon ) armadas com os últimos chips da Nvidia. O DeepSeek pode ter quebrado esse paradigma também.
O enigma da Nvidia
O impacto na Nvidia não está claro. Por um lado, o sucesso da DeepSeek pode diminuir a demanda por seus chips e trazer suas margens de volta à terra, à medida que as empresas percebem que um futuro mais brilhante para a IA pode não estar simplesmente em conectar mais processadores Nvidia, mas em fazer os modelos rodarem de forma mais eficiente. A DeepSeek pode ter reduzido a urgência de construir mais data centers e, assim, cortar a demanda por chips Nvidia.
Por outro lado (estou sendo um economista de dois braços aqui), barreiras menores à entrada levarão a mais participantes e maior demanda geral por GPUs. Além disso, a DeepSeek alega que, como seu modelo é mais eficiente, o custo de inferência (executar o modelo) é uma fração do custo de executar o ChatGPT e requer muito menos memória — potencialmente acelerando a adoção de IA e, portanto, gerando mais demanda por GPUs. Então, isso pode ser uma boa notícia para a Nvidia, dependendo de como isso se desenrolar.
Minha opinião sobre a Nvidia não mudou muito. É só uma questão de tempo até que a Meta, o Google, a Tesla, a Microsoft e uma série de startups transformem as GPUs em commodities e reduzam os preços.
Da mesma forma, mais concorrência significa que os próprios LLMs provavelmente se tornarão commodities — é isso que a concorrência faz — e a avaliação do ChatGPT pode ser uma vítima óbvia.
Ondas de choque geopolíticas
As consequências geopolíticas são enormes. Os controles de exportação e as sanções podem ter inadvertidamente estimulado novas inovações, e eles podem não ser tão eficazes daqui para frente. Os EUA podem não ter o controle da IA que muitos acreditavam que tinham, e os países que não gostam muito de nós terão sua própria IA.
Nós nos confortamos há muito tempo, depois de terceirizar a fabricação para a China, dizendo que somos o berço da inovação — mas a IA pode inclinar a balança em uma direção que não nos favorece.

Deixe-me dar um exemplo. Em uma entrevista recente com o Wall Street Journal, o chefe de produto da OpenAI revelou que várias versões do ChatGPT foram inscritas em competições de programação anonimamente. De cerca de 28 milhões de programadores em todo o mundo, esses primeiros modelos ficaram entre os 2–3% melhores. O ChatGPT-o1 (o último lançamento público) ficou entre os 1.000 melhores, e o ChatGPT-o3 (que será lançado em alguns meses) está entre os 175 melhores. Esse é o top 0,000625%! Se fosse um compositor, o ChatGPT-o3 seria Mozart.
Ouvi dizer que um ótimo desenvolvedor é 10x mais valioso do que um bom — talvez até 100x mais valioso do que um mediano. Meu objetivo é estar mais ou menos aqui. Um jovem de 19 anos em Bangalore ou Iowa que descobriu a programação alguns meses atrás agora pode codificar como Mozart usando o mais recente ChatGPT. Imagine cada jovem, depois de alguns vídeos do YouTube, codificando nesse nível. A lacuna de conhecimento e experiência está sendo achatada rapidamente.
Estou ciente de que estou generalizando drasticamente (não posso enfatizar isso o suficiente), mas o ponto permanece: a jornada de aprender a codificar para se tornar o “Mozart da programação” encolheu de décadas para meses, e o número de Mozarts cresceu exponencialmente. Se eu fosse dono de empresas de software, ficaria um pouco mais nervoso — o fosso para muitas delas foi preenchido com IA.
Adaptar, mudar de ideia e manter ideias como teses a serem validadas ou invalidadas — não como parte de sua identidade — são incrivelmente importantes em investimentos (e na vida em geral). Elas se tornam ainda mais cruciais em uma era de IA, pois nos encontramos entrando em uma realidade de ficção científica mais rápido do que jamais imaginamos. O DeepSeek pode ser esse catalisador, forçando investidores e tecnólogos a questionar suposições antigas e reavaliar o cenário competitivo em tempo real.
Vitaliy Katsenelson é o CEO da IMA , uma empresa de investimento em valor em Denver. Ele escreveu dois livros sobre investimentos, que foram publicados pela John Wiley & Sons e foram traduzidos para oito idiomas. Soul in the Game: The Art of a Meaningful Life (Harriman House, 2022) é seu primeiro livro não relacionado a investimentos. Você pode obter capítulos bônus não publicados encaminhando seu recibo de compra para bonus@soulinthegame.net .
2 respostas
Enquanto isso a I.A vai pegando todas as informaçãoes da internet global para se fortalecer.
agora e esperar o transhumanismo, neuralink, independência da I.A dos programadores
gostei do meme 😂