|
- 有必要自己将deepseek部署到本地吗? - 知乎
所以我认为,deepseek部署有可行性就够了,至于有没有必要性,很多人没那么重要。 大家听到openai训练ai需要几千亿美元,让ai推理需要十块H100 (一块280万人民币),部署满血deepseekR1需要几十几百万,可能吓到了。
- 如何评价 DeepSeek 的 DeepSeek-V3 模型? - 知乎
尽管DeepSeek-V3展示了per-tile和per-group量化对于模型收敛的重要性,论文中并没有给出对应的FP8矩阵乘法的算子效率。 另外,论文中缺乏per-token加per-channel量化的讨论,不清楚这种实现上更加友好的量化方法对于训练稳定性的影响会有多大。
- 普通人怎样用好Deepseek? - 知乎
DeepSeek-R1则专门是为了 代码生成+数学问题解决 而设计,整体速度极快,精确度实测后非常高,推理能力一流。 适合需要快速实现技术需求的场景,比如程序员、理工科学生等。
- 讲道理 我为什么觉得豆包比deepseek还好用? - 知乎
觉得豆包好用的都是没用过 ChatGPT 、 copilot 、 grok 、 Gemini 的,用过之后你就能感觉到真正的差距,也就知道为什么豆包、DeepSeek免费给用户用,而国外ai敢收20美元甚至200美元一个月。
- 现在这些大模型,哪个在代码编写上表现的最好呀? - 知乎
数据都不太一样,当然清华大学的是2024年11月的榜deepseek还是2 5的版本,但整体的数据还是相差不少。 不过也能说明一个问题就是现阶段全球比较顶尖的AI模型中在编程能力方面比较优秀的就是DeepSeek、Claude、Gemini及Qwen这些了。
- DeepSeek深度思考和联网搜索有什么区别? - 知乎
DeepSeek为大家提供了:深度思考R1和联网搜索,两个功能强悍的按钮,但,在和知乎网友的交流过程中,我发现有很多人,不知道这两个强悍的工具如何搭配使用。 今天就好好聊聊这个问题。 深度思考模式详解
- 求问deepseek出现这种情况怎么办啊? ? - 知乎
DeepSeek 不是告诉你原因和解法了嘛。 原因:当前对话已超出深度思考的最大长度限制 解法:开启一个新对话继续思考吧 至于具体解释,得看这几个参数,DeepSeek R1 的 上下文长度 为64K,意味着一轮对话最多能包含64K的token。
- deepseek有多少种无法回答的答复?触发原因是什么?如何 . . .
DeepSeek 是一个开源的先进推理和代码优化大语言模型(LLM),专注于提升复杂任务的处理能力。 我现在遇到的3种DS无法回答的回复 1、系统繁忙,请稍后再试 2、这个问题我无法回答,咱们换个话题聊聊吧 3、对不起,我还没有学会如何思考这类问题,我…
|
|
|