想快速拉一條能用的 RAG,但又不想先寫一堆程式?這篇我用 Flowise 做一個最小可用的流程,30 分鐘內能跑起來。
TL;DR
Flowise 真的可以很快把 RAG 跑起來,但你得接受「它更適合 PoC 而不是嚴肅生產」。我這次用 Chroma + OpenAI Embeddings + Claude 4.6,流程跑得起來,但還是有幾個坑要避。
這個工具解決什麼問題
你有沒有遇過:RAG 設計想得很美,結果卡在「接線」?
- Loader、Splitter、Embedding、Vector store、Retriever、LLM…一條線就能跑嗎?
- 寫起來也不是很難,但就是一堆 glue code,很煩
Flowise 的價值是:先把線拉起來。你不用先寫一堆程式,就能看到流程「到底能不能用」。
安裝與設定(Docker 版)
環境需求
- Docker
- OpenAI API key(做 Embedding)
- Anthropic API key(用 Claude 4.6 回答)
安裝步驟
docker pull flowiseai/flowise
docker run -d \
-p 3000:3000 \
-e FLOWISE_USERNAME=admin \
-e FLOWISE_PASSWORD=admin \
-e OPENAI_API_KEY=YOUR_OPENAI_KEY \
-e ANTHROPIC_API_KEY=YOUR_ANTHROPIC_KEY \
flowiseai/flowise打開 http://localhost:3000,你會看到一個拖拉式畫布。
實作步驟(我做的最小 RAG)
Step 1:準備資料
我先放一個小型知識庫(本機 markdown),然後用 Flowise 的 Document Loader 讀進來。
Step 2:切段 + Embedding
- Text Splitter:chunk size 800 / overlap 100
- Embedding:OpenAI
text-embedding-3-small
這一步的坑是:如果你想全 Claude 方案,會卡。Anthropic 目前沒有官方 embedding API,所以我暫時用 OpenAI。這不是最完美,但能跑。
Step 3:向量庫
我用 Chroma 當向量庫(Flowise 內建),原因很單純:本地好裝、不用雲端帳號。
Step 4:Claude 4.6 生成
在 LLM node 裡選 Claude 4.6(Opus 或 Sonnet 都可以),我用 Sonnet 先跑,成本比較合理。
Step 5:串成一條線
整條流程大概長這樣:
Document Loader -> Text Splitter -> Embedding -> Vector Store -> Retriever -> Claude 4.6
我問了一題:「ClawdBot 的 heartbeat 機制到底做了什麼?」 答案可以正常引用知識庫內容,代表 pipeline OK。
實際使用的感覺
- 快:真的很快就能跑
- 可視化:你一眼就看到資料卡在哪裡
- 但很像「實驗室」:要上線還是得回到 code
跟現有工具比較(用語言說,不用表格)
- 如果你是工程團隊:LangChain / LlamaIndex 仍然比較能控細節
- 如果你想快速驗證:Flowise 比你自己寫快太多
- 如果你要把流程交給非工程同事:Flowise 有勝算
踩坑紀錄
- Embedding 不是 Claude:這一點很多人會期待落空
- Flowise 不是一鍵上線:它是 PoC 工具,不是生產平台
- node 版本問題:低版本 Node 跑某些自訂元件會爆
結論(推薦標籤 + 影響評估)
- 推薦程度:Worth Watching
- 影響評估:Incremental(讓 PoC 變快,但不會直接改變你架構)
- 與我們的關聯:直接可用(早期試驗很省時間)
如果你跟我一樣常常要驗證「RAG 到底值不值得做」,Flowise 會是一個很省力的起點。只是你最後還是得回到程式碼世界,這點別忘了。
基於實際 PoC 安裝測試撰寫,非業配。