心理學研究方法(Research Methods)
定義
心理學用來產生可驗證、可重複、可公開檢視之知識的一套系統性程序,涵蓋研究設計、資料蒐集、統計分析與倫理審查。核心學者包括 Donald T. Campbell(1957, 1963 的準實驗設計)、Jacob Cohen(1988 的統計檢定力)、以及 APA 的倫理規範發展史。
理解研究方法的意義不只在於能讀懂論文,更重要的是能判斷:這個主張背後的證據有多強? 不同的方法能支持不同強度的結論。
核心方法
三大方法分類
心理學研究可以大致分為三類。實驗法(experimental)透過操弄自變項(IV)觀察依變項(DV)變化,是唯一能建立因果關係的方法。相關法(correlational)檢驗兩個變項之間的關聯強度與方向,但不能說明因果——例如長時間使用社群媒體與憂鬱量表分數正相關,不代表前者導致後者,也可能是反過來或兩者共同被第三因子影響。描述法(descriptive)包括個案研究、自然觀察、調查法,目的是描述現象本身,不試圖解釋因果。
多數「研究顯示 X 會導致 Y」的新聞,引用的其實是相關研究。能區分這三種方法,就能避免最常見的科學新聞誤讀。
實驗法的核心元素
實驗法的嚴謹性來自幾個元素的組合。自變項(IV)是研究者主動操弄的變項;依變項(DV)是研究者測量的結果。控制組是不接受操弄的對照組,提供基線比較。隨機分派(random assignment)則是將受試者隨機分配到各組,使組間差異只來自 IV——這是 Fisher(1925)確立為實驗設計核心的原則。雙盲(double-blind)是受試者與施測者都不知道分組,降低期望效應。
為什麼隨機分派這麼重要?因為沒有它,組間差異可能來自受試者本身的特性(如年齡、性格),而非實驗操弄。隨機分派把這些干擾變項在兩組間「平均攤分」。
信度與效度
測量工具的品質由兩組概念定義。信度(reliability)是測量的一致性——同一份量表在一週內重複施測,分數應該接近(這是再測信度)。內在效度(internal validity)是結果的因果推論有多可靠——除了 IV 以外,其他因素有沒有被控制住。外在效度(external validity)是結果能否類推到其他情境或母體——大學生樣本的結果能否類推到一般人。建構效度(construct validity)則問:測量工具是否真的測到了你想測的概念?用 SAT 分數代表「智力」時,SAT 真的等於智力嗎?這些概念不是學術術語遊戲,而是判斷研究是否站得住腳的工具。
統計顯著性與效應量
傳統以 p < .05 作為「統計顯著」門檻(Fisher, 1925),p 值是觀察到的差異純屬隨機的機率。但這只是慣例,不是自然法則。更關鍵的是效應量(effect size, 如 Cohen’s d)——差異的實際大小。只看 p 值不夠,因為樣本大到一定程度,連極微小的差異都會「顯著」。現代研究報告都應該同時報告 p 值與效應量。
這個領域近年經歷了重複研究危機。Open Science Collaboration(2015)嘗試重複 100 項心理學經典研究,僅約 36% 能複製原結果。這個發現促成了預先註冊(pre-registration)、開放資料等改革,也提醒讀者:一項研究 ≠ 一個事實。
研究倫理
APA Ethics Code(2017)的五項核心原則是:助益與不傷害、誠信負責、正直、正義、尊重他人權利與尊嚴。
實務上的具體要求有四條。知情同意(informed consent)——受試者必須了解研究性質與風險後自願參與。去識別化——資料不能讓人反推出受試者身份。事後說明(debriefing)——研究結束後告知真實目的(若有欺瞞設計)。IRB 審查——機構審查委員會預審研究方案。這套機制的建立源自 1960-70 年代對不道德實驗(如 Milgram 服從實驗、Zimbardo 監獄實驗)的反省。
🔍 如何觀察 / 如何實作
觀察信號: (使用者待填:你在閱讀心理學文章或聽人討論時,通常會注意哪些方法學線索?例如區分「這是實驗還是相關研究」,或辨識「樣本是誰、能不能類推到我」)
實作練習: (使用者待填:你想練習的方法學判斷場景,例如看到新聞標題「研究顯示 X 會導致 Y」時的三個自問)
相關概念
💭 Think About This
(使用者待填:看到「研究顯示 X」這種標題時,你心裡會生出什麼問題?)
References
- American Psychological Association. (2017). Ethical Principles of Psychologists and Code of Conduct (2017 amendment). APA.
- Campbell, D. T., & Stanley, J. C. (1963). Experimental and Quasi-Experimental Designs for Research. Houghton Mifflin.
- Cohen, J. (1988). Statistical Power Analysis for the Behavioral Sciences (2nd ed.). Lawrence Erlbaum Associates.
- Fisher, R. A. (1925). Statistical Methods for Research Workers. Oliver and Boyd.
- Open Science Collaboration. (2015). Estimating the reproducibility of psychological science. Science, 349(6251), aac4716.
- Shadish, W. R., Cook, T. D., & Campbell, D. T. (2002). Experimental and Quasi-Experimental Designs for Generalized Causal Inference. Houghton Mifflin.