有没有在自己电脑上跑deepseek的,啥配置?
16G内存笔记本可以跑8b
16G内存Mac mini可以跑14b
RTX 3060 12G,跑14b很快
笔记本,8+64,跑DeepSeek-R1-Distill-Qwen-32B,ollama 蒸馏版可以上到70b
2080ti 22g*2 DeepSeek-R1:32B-Qwen-Distill-q8_0
要这么高配置吗?
PIII 450,128M,6.4G,TNT2显卡 可以跑0.1b(才怪)
amd 移动小主机, 可以跑14b,但是有点慢,7b非常流畅。。。
7B,效果真的很一般,至少32B才好用点吧
13400F, 16G内存, 4060Ti 16G , 可以跑32b,响应速度一般,跟用豆包差不多。
阿里刚开源的QWQ-32B推理模型 性能比肩DeepSeek R1满血版和openai o1。4090就可以部署。
相比之下开源的生图模型 stable diffusion 简直像不需要硬件。