如果你现在已经习惯了使用AI工具来解决自己的日常问题,那么火了小半年的DeepSeek你肯定用过太多遍了,直接给DeepSeek发消息也应该是常规操作了。
但是其下方的深度思考(R1)和联网搜索是什么意思,你有没有想过分别对应什么意思,在什么情况下需要点什么情况下不点,今天一篇文章和你讲清楚。
联网搜索
先从简单的开始,联网搜索,顾名思义就是AI模型会根据我们的提示词进行联网搜索,结合网络搜索结果给出我们答案。
因为,AI大模型默认是不联网的,起初的ChatGPT-3.0压根就没有联网搜索功能。这里就有一个小知识点:大语言模型的知识是基于其训练数据,而这些数据通常有“时间截止点”(例如 ChatGPT 截止到 2024 年 6 月),而Deepseek默认使用的V3模型,其数据截止日期是2024年7月。
什么时候需要点?什么时候不需要点?
什么时候点击联网搜索按钮,这个根据我们需要解决问题的特点来定:
✅ 需要联网搜索的情况:
-
需要获取实时数据信息的情况,例如你希望获得新闻、天气、股市、政策法规、赛事结果等信息,例如“最近的美国就业数据是多少?” -
需要获得模型时间截止点后的信息。对应ChatGPT-4o为2024年6月,对应Deepseek-V3模型为2024年7月。 -
需要验证事实或者需要特点网站提供支持的内容。例如你需要引用学术论文或者引用哪个网站的内容,这个时候可以要求搜索该网站的信息,来作为AI使用的依据。
❌不需要联网搜索的情况:我们处理的事情为通用知识或者背景知识,或者是简单的文本操作比如语言文字处理。同时,像逻辑推理与创意内容生成都不需要。 简单一点,就是除了需要联网搜索的情况外,其余都可以不用这个操作,毕竟多了联网搜索这一步模型处理的时间就会更长一些。
|
|
|
|
|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
上面表格就列出了是否联网搜索的利弊,而其中最后一点隐私安全应该是很多人需要注意的,毕竟在处理数据的时候,各个公司大概率会将我们日常对话也放进他们自己的AI训练过程的。
因此我们尽量不要勾选“数据用于优化体验”,尤其是我们日常处理的内容比较敏感或者一些隐私数据,就更需要注意了。下面是DeepSeek和腾讯元宝两家的设置页面,在其中可以选择关闭数据共享。
深度思考
当你切换到DeepSeek深度思考指令的时候,你默认使用的模型就不再是Deepseek-V3,而是Deepseek-R1了。而这两个模型有这巨大的差异,作为天天使用AI的你来说,这两者的差异一定不能忽略。
差异1:研究、推理能力
R1模型是基于V3模型的架构基础,进一步采用强化学习加强了其推理能力的模型,其规模和逻辑推理能力都明显强于V3。但是由于其推理的特性,使得其反应时间比较长,需要耗费较长的时间。
简单一点就是,R1强了但是慢了,而且还是死脑筋,没事都要帮你推理一下。
就比如说,你想让他帮我翻译一下“How do you do?”,明明你就像直接要答案。但是这时候他给你整一大通逻辑推理,分析你的问题出发点,思考这句话背后的含义以及可能出现的各种不同情况,还需要思考用户背景。

再来看看不进行深度思考的V3模型的结果:
因此可以看出点不点深度思考对输出结果还是有差异的,而且DeepSeek-R1模型还改不了思考一番的毛病,没办法R1模型就是为了逻辑思考而生的,他不动动脑筋思考一番浑身难受。
这时候你可能就会想到,既然R1就是为这而生,那他必然有在行的地方。没错,DeepSeek模型专注于逻辑推理、数学计算和复杂问题解决,更适用于教育、科研和决策支持等领域。
那我们普通人就用不上了吗?提到的要么是数学计算要么是科研、教育。🙂🙃
事实并非如此,注意看看最后一个“决策支持”、“负责问题解决”,这个其实和我们日常问题有很大的关联性。
比如当你想要完成一个比较长远或者负责的任务的时候,R1模型就可以排上大用场,这里我就以我个人的健身为例。我希望未来几年内实现心肺功能提升和肌肉量增加这两个目标,那么我该如何安排自己的训练计划呢?
这个任务放在V3模型上就有点使不上劲的感觉了,毕竟这个过程涉及的点比较多——计划安排、有氧计划、无氧计划、两个计划目标的配合度、饮食问题以及涉及到的可操作性。
而且其深度思考的过程全部展现,方便我们查看,如果其中有没有考虑到的或者判断失误的我们也可以及时发现,并再后续的回答中要求按照自己的目标想法来执行。
最后插一个AI给的更专业的对比表格。
|
|
|
|
|---|---|---|
| 训练侧重点 |
|
|
| 推理策略 |
|
|
| 多步推理能力 |
|
|
| 处理复杂问题 |
|
|
| 典型应用场景 |
|
|
| 输出结构特点 |
|
|
| 出错倾向 |
|
|
差异2:准确度
另外,在输出内容的准确性方面,R1由于引入了推理链和自我检查机制,往往能够提供更高的事实符合率。实际测试数据表明,在复杂推理题上R1的正确率显著领先:例如处理高级数学推理问题时,R1平均准确率达到92.8%,远高于V3的78.3%。
因此R1对于事实型问题也保持了较好的准确性,并倾向于在不确定时给出保留意见或进一步推理,而不是编造一个答案。
这对于模型用来解决问题实在是太重要了,毕竟AI给的内容如果是胡说的话我们也不一定能看出来,我们至少要选择一个准确率相对高一点的模型来作为我们日常解决问题的后盾才可以。
|
|
|
|
|---|---|---|
| 总体准确率 |
|
|
| 幻觉倾向(Hallucination) |
|
|
| 答案验证机制 |
|
|
| 对模糊/边界问题的处理 |
|
|
| 引用或数据来源表达 |
|
|
| 适用准确性要求场景 |
|
|
用大白话来讲,就是R1模型出错的概率更低了,对于准确率要求比较高的问题还是乖乖选择R1模型吧。
差异3:回答速度
当然啦,R1这强那强的,肯定有不足的地方,那就是响应速度偏慢,而其主要原因就是他执拗的推理计算。
专业一点的话就是:“R1往往会产出较长的逐步推理过程,这增加了生成的字数和时间开销。尽管R1也沿用了V3的高效架构基础,但其强化后的推理机制可能需要调动更多计算资源来保证逻辑严谨性,因此单步推理耗时更长。”
总结下来实际应用中,两种模型都可以结合发挥作用,简单问题、求速度找V3,复杂问题、不着急找R1。
— — 完 — —