1987WEB视界-分享互联网热门产品和行业

您现在的位置是:首页 > 人工智能AI > 正文

人工智能AI

deepseek是什么?为何如此火爆?

1987web2025-02-23人工智能AI5
相信这个春节期间,大家都刷到了很多关于deepseek的新闻和视频,我们是文胜军AI战队的AI大模型专业人士,来为大家进行深度的拆解剖析,并希望能通过通俗易懂的方式,教会大家用上deepse

相信这个春节期间,大家都刷到了很多关于deepseek的新闻和视频,我们是文胜军AI战队的AI大模型专业人士,来为大家进行深度的拆解剖析,并希望能通过通俗易懂的方式,教会大家用上deepseek,为你的日常办公、自媒体创作、AI副业、甜美生活 等方面实现 AI赋能,成为新的 AI 时代的领跑者。

我们希望通过这几期精心制作的deepseek主题内容,帮助大家把deepseek用起来,用顺手,为大家答疑解惑,中国人用全球领先的中国AI成就2025年更好的自

关于全球领先的deepseek,作为国人,我们认为,大家至少应该知道下面的内容哟。

DeepSeek成立于2023年7月,由中国知名量化私募巨头幻方量化创立,在杭州。

DeepSeek在短短一年多的时间里取得了显著的进展,推出了多个引人注目的开源模型,包括DeepSeek Coder、DeepSeek LLM、DeepSeek-V2、DeepSeek-V3和DeepSeek-R1.

下面的内容,虽然很多文章都提到过,但是,我们还是想再提及一次,让大家记住我们中国AI标杆的发展历程。大家注意看时间。

2023年7月:DeepSeek成立,总部位于杭州。

2023年11月2日:发布首个开源代码大模型DeepSeekCoder,支持多种编程语言的代码生成、调试和数据分析任务。

2023年11月29日:推出参数规模达670亿的通用大模型DeepSeekLLM,包括7B和67B的base及chat版本

2024年5月7日:发布第二代开源混合专家(MOE)模型DeepSeek-V2,总参数达2360亿,推理成本降至每百万token仅1元人民币。

2024年12月26日:发布DeepSeek-V3,总参数达6710亿,采用创新的MoE架构和FP8混合精度训练训练成本仅为557.6万美元。

2025年1月20日:发布新一代推理模型DeepSeek-R1,性能与OpenAl的GPT-40持平,并开源。2025年1月26日:DeepSeek登顶美区AppStore免费榜第六,超越Google Gemini和Microsoft Copilot等产。

大家看到了吗?其实deepseek也是经历了一个潜伏期,一个研究探索的过程,直到24年底,V3发布,在AI学术圈掀起了一些波澜,但那个时候你肯定还没有什么关注吧。

直到,今年25年的1月底,就是我们过年的时候,你发现了吗?我们的媒体圈,爆炸了!

deepseek-R1,登顶全球,而且是国外媒体比我们还热情的争先报道了。

训练成本估计只有 Llama 3.1 405B 模型的 11 分之一,后者的效果还不如它。

在多项测评上,DeepSeek V3 达到了开源 SOTA,超越 Llama 3.1 405B,能和 GPT-40、Claude 3.5Sonnet等TOP 模型正面掰掰手腕--而其价格比Claude 3.5 Haiku 还便宜,仅为 Claude 3.5 Sonnet的 9%。

简单说,它是杭州深度求索人工智能公司推出的AI大模型,类似于Kimi、豆包这样的国产AI助手。网页版、APP端都能使用,直接注册就能体验。

但真正让它出圈的,是它的深度思考模式(R1)。

它不只是给出答案,而是能像学霸解题一样,推导、分析、检查过程。相比普通AI模型只是机械地复述信息,它更像一个真正会思考的助手

最大原因是,它以极低的成本,做出了能比肩海外巨头的AI。

简单对比:。OpenAl训练GPT-40,成本可能上亿美元。DeepSeek用几百万美金,做出了性能接近的模

有人形容这就像用手工费生产出特斯拉,效率和性价比惊人。再加上它对中文理解极佳,回答更自然,不像其他AI那么模板化,这也是它受欢迎的原因之一