推薦用DeepSeek V3-0324 跑MCP
來源影片:https://youtu.be/2X5cvBLzo3U

DeepSeek V3-0324 性能與成本優勢
- 高性價比,性能接近 Cloud 3.7 sonnet。
- 調用流暢,成本低廉。
- Cline已支援DeepSeek V3-0324(強烈建議使用付費版,免費版速度慢且易中斷。)
案例
案例1:將指定的Gemini 2.5發佈網路文章爬下來
- 實際指令(prompt)
prompt
把這篇文章scrape下來:https://blog.google/technology/google-deepmind/gemini-model-thinking-updates-march-2025/
翻譯成正體中文
存進位於桌面的/test/gemini-2.5.md文件
並在開頭加上對內容的總結
- DeepSeek的反應:清晣規劃步驟並執行
- 它把用戶需求拆成明確任務
- 它會判斷需用哪些工具,含Tavily MCP(連網搜尋、網頁爬蟲)、寫入文件工具
- 確認目前的環境:文件夾是否存在、用戶是否允許MCP操作權限
- 給自己設定執行步驟
- 共花費 0.0358 美元,從Google DeepMind部落格成功爬下文章紀錄成中文檔案
案例2:調用2個MCP
- Sequential Thinking
- Tavily :連網搜索
- 每一步思考前都要搜一次資料:搜資料>思考>下一步搜資料>下一步思考...
➡️考驗LLM要懂得拆解問題,還要依搜尋結果調整思考方向、及下一步要搜什麼,且要頻繁調用MCP - DeepSeek花費 3分多鐘、六步驟思考,覺得不夠詳細請它再完善,最後花了0.039 美元
➡️對比使用Claude跑MCP,昂貴很多
DeepSeek 模型升級與 AI 發展方向
- 推理任務表現提升
- 前端開發能力提升
- 中文寫作能力提升
- 工具調用能力提升(有大腦、也有手腳),例:Claude、DeepSeek V3-0324
- 註:多模態也很重要,例Gemini
MCP 的發展與未來趨勢
- DeepSeek 有工具調用能力、成本低廉等優勢,將推動 MCP 普及。
- 預測:Dify、Coze為代表的任務編排模式將被取代。未來趨勢:為人類設定起點(上下文)、終點(目標),中間的任務交由LLM自由發揮,形成LLM+MCP工具的發展重點。
- 目前已有 Claude、DeepSeek 等模型,還有 MCP 中間層協議,AI 發展迅速。