想快速拉一條能用的 RAG,但又不想先寫一堆程式?這篇我用 Flowise 做一個最小可用的流程,30 分鐘內能跑起來。

TL;DR

Flowise 真的可以很快把 RAG 跑起來,但你得接受「它更適合 PoC 而不是嚴肅生產」。我這次用 Chroma + OpenAI Embeddings + Claude 4.6,流程跑得起來,但還是有幾個坑要避。

這個工具解決什麼問題

你有沒有遇過:RAG 設計想得很美,結果卡在「接線」?

  • Loader、Splitter、Embedding、Vector store、Retriever、LLM…一條線就能跑嗎?
  • 寫起來也不是很難,但就是一堆 glue code,很煩

Flowise 的價值是:先把線拉起來。你不用先寫一堆程式,就能看到流程「到底能不能用」。

安裝與設定(Docker 版)

環境需求

  • Docker
  • OpenAI API key(做 Embedding)
  • Anthropic API key(用 Claude 4.6 回答)

安裝步驟

docker pull flowiseai/flowise
 
docker run -d \
  -p 3000:3000 \
  -e FLOWISE_USERNAME=admin \
  -e FLOWISE_PASSWORD=admin \
  -e OPENAI_API_KEY=YOUR_OPENAI_KEY \
  -e ANTHROPIC_API_KEY=YOUR_ANTHROPIC_KEY \
  flowiseai/flowise

打開 http://localhost:3000,你會看到一個拖拉式畫布。

實作步驟(我做的最小 RAG)

Step 1:準備資料

我先放一個小型知識庫(本機 markdown),然後用 Flowise 的 Document Loader 讀進來。

Step 2:切段 + Embedding

  • Text Splitter:chunk size 800 / overlap 100
  • Embedding:OpenAI text-embedding-3-small

這一步的坑是:如果你想全 Claude 方案,會卡。Anthropic 目前沒有官方 embedding API,所以我暫時用 OpenAI。這不是最完美,但能跑。

Step 3:向量庫

我用 Chroma 當向量庫(Flowise 內建),原因很單純:本地好裝、不用雲端帳號。

Step 4:Claude 4.6 生成

在 LLM node 裡選 Claude 4.6(Opus 或 Sonnet 都可以),我用 Sonnet 先跑,成本比較合理。

Step 5:串成一條線

整條流程大概長這樣:

Document Loader -> Text Splitter -> Embedding -> Vector Store -> Retriever -> Claude 4.6

我問了一題:「ClawdBot 的 heartbeat 機制到底做了什麼?」 答案可以正常引用知識庫內容,代表 pipeline OK。

實際使用的感覺

  • :真的很快就能跑
  • 可視化:你一眼就看到資料卡在哪裡
  • 但很像「實驗室」:要上線還是得回到 code

跟現有工具比較(用語言說,不用表格)

  • 如果你是工程團隊:LangChain / LlamaIndex 仍然比較能控細節
  • 如果你想快速驗證:Flowise 比你自己寫快太多
  • 如果你要把流程交給非工程同事:Flowise 有勝算

踩坑紀錄

  1. Embedding 不是 Claude:這一點很多人會期待落空
  2. Flowise 不是一鍵上線:它是 PoC 工具,不是生產平台
  3. node 版本問題:低版本 Node 跑某些自訂元件會爆

結論(推薦標籤 + 影響評估)

  • 推薦程度:Worth Watching
  • 影響評估:Incremental(讓 PoC 變快,但不會直接改變你架構)
  • 與我們的關聯:直接可用(早期試驗很省時間)

如果你跟我一樣常常要驗證「RAG 到底值不值得做」,Flowise 會是一個很省力的起點。只是你最後還是得回到程式碼世界,這點別忘了。


基於實際 PoC 安裝測試撰寫,非業配。