如果你现在已经习惯了使用AI工具来解决自己的日常问题,那么火了小半年的DeepSeek你肯定用过太多遍了,直接给DeepSeek发消息也应该是常规操作了。

但是其下方的深度思考(R1)和联网搜索是什么意思,你有没有想过分别对应什么意思,在什么情况下需要点什么情况下不点,今天一篇文章和你讲清楚。

联网搜索

先从简单的开始,联网搜索,顾名思义就是AI模型会根据我们的提示词进行联网搜索,结合网络搜索结果给出我们答案。

因为,AI大模型默认是不联网的,起初的ChatGPT-3.0压根就没有联网搜索功能。这里就有一个小知识点:大语言模型的知识是基于其训练数据,而这些数据通常有“时间截止点”(例如 ChatGPT 截止到 2024 年 6 月),而Deepseek默认使用的V3模型,其数据截止日期是2024年7月。

什么时候需要点?什么时候不需要点?

什么时候点击联网搜索按钮,这个根据我们需要解决问题的特点来定:

✅ 需要联网搜索的情况:

  1. 需要获取实时数据信息的情况,例如你希望获得新闻、天气、股市、政策法规、赛事结果等信息,例如“最近的美国就业数据是多少?”
  2. 需要获得模型时间截止点后的信息。对应ChatGPT-4o为2024年6月,对应Deepseek-V3模型为2024年7月。
  3. 需要验证事实或者需要特点网站提供支持的内容。例如你需要引用学术论文或者引用哪个网站的内容,这个时候可以要求搜索该网站的信息,来作为AI使用的依据。

不需要联网搜索的情况:我们处理的事情为通用知识或者背景知识,或者是简单的文本操作比如语言文字处理。同时,像逻辑推理与创意内容生成都不需要。 简单一点,就是除了需要联网搜索的情况外,其余都可以不用这个操作,毕竟多了联网搜索这一步模型处理的时间就会更长一些。

项目
联网搜索(开启)
离线模型(关闭联网)
实时性
✅ 可获取最新内容
❌ 仅限知识截至时间
权威性
✅ 可引用官方来源
❌ 无法直接引用外部网页
响应速度
❌ 较慢,需等待搜索和处理
✅ 快速响应
稳定性
❌ 依赖网络,可能出现请求失败
✅ 完全本地计算
适用范围
✅ 适用于本地、实时、小众、更新快的内容
✅ 适用于通识、逻辑、创作、编程等场景
隐私安全
❌ 可能存在外部传输风险
✅ 本地处理更安全

上面表格就列出了是否联网搜索的利弊,而其中最后一点隐私安全应该是很多人需要注意的,毕竟在处理数据的时候,各个公司大概率会将我们日常对话也放进他们自己的AI训练过程的。

因此我们尽量不要勾选“数据用于优化体验”,尤其是我们日常处理的内容比较敏感或者一些隐私数据,就更需要注意了。下面是DeepSeek和腾讯元宝两家的设置页面,在其中可以选择关闭数据共享。

深度思考

当你切换到DeepSeek深度思考指令的时候,你默认使用的模型就不再是Deepseek-V3,而是Deepseek-R1了。而这两个模型有这巨大的差异,作为天天使用AI的你来说,这两者的差异一定不能忽略

差异1:研究、推理能力

R1模型是基于V3模型的架构基础,进一步采用强化学习加强了其推理能力的模型,其规模和逻辑推理能力都明显强于V3。但是由于其推理的特性,使得其反应时间比较长,需要耗费较长的时间。

简单一点就是,R1强了但是慢了,而且还是死脑筋,没事都要帮你推理一下

就比如说,你想让他帮我翻译一下“How  do you do?”,明明你就像直接要答案。但是这时候他给你整一大通逻辑推理,分析你的问题出发点,思考这句话背后的含义以及可能出现的各种不同情况,还需要思考用户背景。

Deepseek里面的深度思考、联网搜索是什么意思?点不点有什么区别?

再来看看不进行深度思考的V3模型的结果:

因此可以看出点不点深度思考对输出结果还是有差异的,而且DeepSeek-R1模型还改不了思考一番的毛病,没办法R1模型就是为了逻辑思考而生的,他不动动脑筋思考一番浑身难受。

这时候你可能就会想到,既然R1就是为这而生,那他必然有在行的地方。没错,DeepSeek模型专注于逻辑推理、数学计算和复杂问题解决,更适用于教育、科研和决策支持等领域。

那我们普通人就用不上了吗?提到的要么是数学计算要么是科研、教育。🙂🙃

事实并非如此,注意看看最后一个“决策支持”、“负责问题解决”,这个其实和我们日常问题有很大的关联性。

比如当你想要完成一个比较长远或者负责的任务的时候,R1模型就可以排上大用场,这里我就以我个人的健身为例。我希望未来几年内实现心肺功能提升和肌肉量增加这两个目标,那么我该如何安排自己的训练计划呢?

这个任务放在V3模型上就有点使不上劲的感觉了,毕竟这个过程涉及的点比较多——计划安排、有氧计划、无氧计划、两个计划目标的配合度、饮食问题以及涉及到的可操作性。

而且其深度思考的过程全部展现,方便我们查看,如果其中有没有考虑到的或者判断失误的我们也可以及时发现,并再后续的回答中要求按照自己的目标想法来执行。

最后插一个AI给的更专业的对比表格。

对比维度
DeepSeek-V3(普通模型)
DeepSeek-R1(推理模型)
训练侧重点
指令微调 + 大规模语料训练,侧重通用问答和语言生成
强化学习(GRPO算法)优化推理路径,专注复杂逻辑、多步推理任务
推理策略
倾向于直接给出答案,推理过程简化或省略
使用“思维链(Chain of Thought)”,逐步分析并输出推理过程
多步推理能力
有限,常见于简单任务;遇到复杂逻辑任务时容易跳步或误推
强,具备“链式推理+自我检验”机制,能自动验证和修正中间步骤
处理复杂问题
数学/逻辑题中表现一般,易出错或遗漏关键步骤
在数学证明、代码逻辑等高难度任务中表现接近科研级别,准确率高达92-97%
典型应用场景
通用问答、内容创作、总结、闲聊、翻译等广泛任务
数学求解、代码调试、逻辑推演、技术研究等需多步推导的专业任务
输出结构特点
答案简洁明了但不一定有推理链,适合快速阅读
输出逻辑清晰、步骤明确、便于验证推理合理性
出错倾向
易在复杂任务中“编造”合理看似正确但错误的答案
借助思维链与自校机制,大幅降低幻觉概率

差异2:准确度

另外,在输出内容的准确性方面,R1由于引入了推理链和自我检查机制,往往能够提供更高的事实符合率。实际测试数据表明,在复杂推理题上R1的正确率显著领先:例如处理高级数学推理问题时,R1平均准确率达到92.8%,远高于V3的78.3%。

因此R1对于事实型问题也保持了较好的准确性,并倾向于在不确定时给出保留意见或进一步推理,而不是编造一个答案。

这对于模型用来解决问题实在是太重要了,毕竟AI给的内容如果是胡说的话我们也不一定能看出来,我们至少要选择一个准确率相对高一点的模型来作为我们日常解决问题的后盾才可以。

对比维度
DeepSeek-V3(普通模型)
DeepSeek-R1(推理模型)
总体准确率
表现良好,尤其在常见知识问答中准确率高(约 78.3%)
在复杂任务中准确率显著提升,数学/逻辑类任务达 92–97%
幻觉倾向(Hallucination)
相对更容易在不熟悉或复杂问题中出现幻觉现象,如编造事实、跳步推理
引入自检和推理链机制,显著降低幻觉概率,回答更谨慎
答案验证机制
通常不主动进行自我验证,缺乏推理过程的支撑,错误不易被察觉
多步推理带有校验逻辑,错误步骤更容易被发现与修正
对模糊/边界问题的处理
倾向于尝试给出回答,即便信心不足,有时会猜测性输出
倾向于说明不确定性,或明确表示无法判断,更加审慎
引用或数据来源表达
多数情况下不给出数据出处或推理过程
回答过程包含思维链或推理逻辑,便于用户验证信息可信度
适用准确性要求场景
日常知识问答、基础内容生成,适合快速获取大致可靠的答案
科研类问答、工程/数学任务、高要求场景,适合需确保准确率的任务

用大白话来讲,就是R1模型出错的概率更低了,对于准确率要求比较高的问题还是乖乖选择R1模型吧。

差异3:回答速度

当然啦,R1这强那强的,肯定有不足的地方,那就是响应速度偏慢,而其主要原因就是他执拗的推理计算。

专业一点的话就是:“R1往往会产出较长的逐步推理过程,这增加了生成的字数和时间开销。尽管R1也沿用了V3的高效架构基础,但其强化后的推理机制可能需要调动更多计算资源来保证逻辑严谨性,因此单步推理耗时更长。”

总结下来实际应用中,两种模型都可以结合发挥作用,简单问题、求速度找V3,复杂问题、不着急找R1

— — 完 — —