Na noite de 24 de março, a DeepSeek lançou uma atualização do modelo — DeepSeek-V3-0324. Esta é uma versão aprimorada do modelo DeepSeek V3, e não o aguardado DeepSeek-V4 ou R2, como especulado pelo mercado. Atualmente, a versão open-source já está disponível no Hugging Face, com um tamanho reportado de 685 bilhões de parâmetros.
No mesmo dia, a DeepSeek anunciou em seu grupo oficial de comunicação que o modelo DeepSeek V3 passou por uma pequena atualização e convidou usuários a testá-lo através do site oficial, aplicativo ou mini-programa (com a função "Pensamento Profundo" desativada). A API e os métodos de uso permanecem inalterados.
Segundo feedbacks de usuários, a capacidade de codificação do V3 agora se aproxima do Claude 3.7, com melhorias também em habilidades matemáticas, demonstrando raciocínio similar a modelos especializados em resolução de problemas.
Lançado originalmente em dezembro de 2024, o DeepSeek-V3 ganhou destaque por seu custo-benefício excepcional ("US$ 5,576 milhões com desempenho comparável ao Claude 3.5"). Seus resultados em benchmarks superaram outros modelos open-source como Qwen2.5-72B e Llama-3.1-405B, equiparando-se a modelos proprietários de ponta como GPT-4o e Claude-3.5-Sonnet. Entretanto, ainda não há rankings oficiais de avaliação para esta nova versão do V3.
Posteriormente, em janeiro de 2025, a DeepSeek lançou o modelo DeepSeek-R1, com desempenho equivalente ao o1 da OpenAI. Este modelo utilizou técnicas avançadas de aprendizado por reforço durante o pós-treinamento, melhorando significativamente suas capacidades de raciocínio com mínima dependência de dados anotados.
Em 25 de fevereiro de 2025, circularam informações sobre um possível adiantamento no lançamento do DeepSeek-R2. A Reuters reportou que a DeepSeek estaria acelerando o desenvolvimento deste sucessor do R1, originalmente previsto para início de maio, visando uma estreia antecipada.