|
|
@@ -0,0 +1,135 @@
|
|
|
+# DeepSeek 开源版本 - 环境和配置 (V2.0)
|
|
|
+## 1. **DeepSeek-R1-Distill-Qwen-1.5B**
|
|
|
+
|
|
|
+ **配置:**
|
|
|
+
|
|
|
+- **CPU**:4核及以上
|
|
|
+- **内存**:4GB及以上
|
|
|
+- **硬盘**:10GB
|
|
|
+- **显卡**:集显或拥有独立显卡的机器
|
|
|
+
|
|
|
+ **命令和应用场景:**
|
|
|
+
|
|
|
+- **DeepSeek 版本**:Qwen 15B 参数大模型
|
|
|
+- **命令**:`ollama run deepseek-r1:1.5b`
|
|
|
+- **应用场景**:适用于资源有限的环境,如个人开发者、小型企业或教育机构。能够执行简单的自然语言任务,如问答、摘要和问题回答。
|
|
|
+
|
|
|
+## 2. **DeepSeek-R1-Distill-Qwen-7B**
|
|
|
+
|
|
|
+ **配置:**
|
|
|
+
|
|
|
+- **CPU**:4核及以上
|
|
|
+- **内存**:8GB-10GB
|
|
|
+- **硬盘**:10GB
|
|
|
+- **显卡**:NVIDIA RTX 2060 4GB或更高
|
|
|
+
|
|
|
+ **命令和应用场景:**
|
|
|
+
|
|
|
+- **DeepSeek 版本**:Qwen 70B 参数大模型
|
|
|
+- **命令**:`ollama run deepseek-r1:7b`
|
|
|
+- **应用场景**:适用于需要更多推理能力的应用场景,如客服、智能助手等。
|
|
|
+
|
|
|
+## 3. **DeepSeek-R1-Distill-Llama-8B**
|
|
|
+
|
|
|
+ **配置:**
|
|
|
+
|
|
|
+- **CPU**:4核及以上
|
|
|
+- **内存**:8GB-10GB
|
|
|
+- **硬盘**:10GB
|
|
|
+- **显卡**:NVIDIA RTX 2080 4GB或更高
|
|
|
+
|
|
|
+ **命令和应用场景:**
|
|
|
+
|
|
|
+- **DeepSeek 版本**:Llama 80B 参数大模型
|
|
|
+- **命令**:`ollama run deepseek-r1:8b`
|
|
|
+- **应用场景**:适用于多语言环境,特别是需要处理多种语言的场景,如文本生成和自然语言任务执行。
|
|
|
+
|
|
|
+## 4. **DeepSeek-R1-Distill-Qwen-14B**
|
|
|
+
|
|
|
+ **配置:**
|
|
|
+
|
|
|
+- **CPU**:8核及以上
|
|
|
+- **内存**:16GB及以上
|
|
|
+- **硬盘**:50GB
|
|
|
+- **显卡**:NVIDIA RTX 3060 6GB或更高
|
|
|
+
|
|
|
+ **命令和应用场景:**
|
|
|
+
|
|
|
+- **DeepSeek 版本**:Qwen 140B 参数大模型
|
|
|
+- **命令**:`ollama run deepseek-r1:14b`
|
|
|
+- **应用场景**:适用于更复杂的自然语言处理任务,如文本生成、代码生成,并能保持较高的性能处理大规模任务。
|
|
|
+
|
|
|
+## 5. **DeepSeek-R1-Distill-Qwen-32B**
|
|
|
+
|
|
|
+ **配置:**
|
|
|
+
|
|
|
+- **CPU**:8核及以上
|
|
|
+- **内存**:16GB及以上
|
|
|
+- **硬盘**:50GB
|
|
|
+- **显卡**:NVIDIA RTX 4080 12GB或更高
|
|
|
+
|
|
|
+ **命令和应用场景:**
|
|
|
+
|
|
|
+- **DeepSeek 版本**:Qwen 320B 参数大模型
|
|
|
+- **命令**:`ollama run deepseek-r1:32b`
|
|
|
+- **应用场景**:适用于需要强大推理能力的应用场景,如研究分析、金融预测、大规模数据处理等。
|
|
|
+
|
|
|
+## 6. **DeepSeek-R1-Distill-Llama-70B**
|
|
|
+
|
|
|
+ **配置:**
|
|
|
+
|
|
|
+- **CPU**:8核及以上
|
|
|
+- **内存**:16GB及以上
|
|
|
+- **硬盘**:50GB
|
|
|
+- **显卡**:多GPU配置(例如:NVIDIA RTX 4090 24GB x2),显存约40GB
|
|
|
+
|
|
|
+ **命令和应用场景:**
|
|
|
+
|
|
|
+- **DeepSeek 版本**:Llama 700B 参数大模型
|
|
|
+- **命令**:`ollama run deepseek-r1:70b`
|
|
|
+- **应用场景**:适用于需要处理大规模数据并执行复杂推理任务的场景,如大型企业、研究机构等。
|
|
|
+
|
|
|
+
|
|
|
+## 7. **DeepSeek-R1-Zero**
|
|
|
+ **配置:**
|
|
|
+
|
|
|
+- **CPU**:8核及以上
|
|
|
+- **内存**:48GB及以上
|
|
|
+- **硬盘**:250GB
|
|
|
+- **显卡**:多GPU配置(例如:NVIDIA A100 80GB x6),显存约336GB
|
|
|
+
|
|
|
+ **命令和应用场景:**
|
|
|
+
|
|
|
+- **DeepSeek 版本**:DeepSeek-R1-Zer 6710亿参数大模型
|
|
|
+- **命令**:`ollama run deepseek-r1:671b`
|
|
|
+- **应用场景**:适用学术研究和探索纯强化学习训练的潜力,验证在没有监督微调的情况下模型的推理能力
|
|
|
+
|
|
|
+## 8. **DeepSeek-R1**
|
|
|
+
|
|
|
+ **配置:**
|
|
|
+
|
|
|
+- **CPU**:8核及以上
|
|
|
+- **内存**:48GB及以上
|
|
|
+- **硬盘**:250GB
|
|
|
+- **显卡**:多GPU配置(例如:NVIDIA A100 80GB x6),显存约336GB
|
|
|
+
|
|
|
+ **命令和应用场景:**
|
|
|
+
|
|
|
+- **DeepSeek 版本**:DeepSeek-R1-Zer 6710亿参数大模型
|
|
|
+- **命令**:`ollama run deepseek-r1:671b`
|
|
|
+- **应用场景**:适用于需要高精度推理的应用场景,如编程辅助,科学问题解答,教育工具等。
|
|
|
+
|
|
|
+## 9. **DeepSeek-V3**
|
|
|
+
|
|
|
+ **配置:**
|
|
|
+
|
|
|
+- **CPU**:128核及以上
|
|
|
+- **内存**:512GB及以上
|
|
|
+- **硬盘**:1TB及以上
|
|
|
+- **显卡**:多GPU配置(例如:NVIDIA A100 80GB x16),显存约960GB
|
|
|
+
|
|
|
+ **命令和应用场景:**
|
|
|
+
|
|
|
+- **DeepSeek 版本**:DeepSeek-R1-Zer 6710亿参数大模型
|
|
|
+- **命令**:`ollama run deepseek-r1:671b`
|
|
|
+- **应用场景**:DeepSeek-V3 可以通过分析客户需求、预算和设计要求,自动生成详细的报价单和设计方案,提高工作效率和准确性。需要人工调试和优化,以实现最佳性能。
|