2021年9月11日 星期六

消費者行為市場分析技術(下)

消費者行為市場分析技術:數據演算如何提供行銷解決方案
Marketing Analytics, 2nd edition, 
A practical guide to improving consumer insights using data techniques

麥可.格里斯比(Mike Grigsby)

第三篇 相互關係類型統計法
09 我的(消費者)市場概況如何?
- 欲展示各區隔市場,並證明彼此之間已有效區隔,需要用到的技術稱為「側寫」(profiling)
一般而言,這可顯示各重要變數(尤其是較次數和對行銷媒介的回應)的平均數或頻率,
快速衡量每個區隔市場的差異。
注意,區隔市場之間的差異越大,(對各區隔市場實施的)策略會越明顯。
- 依區隔市場顯示關鍵績效指標(KPI)平均數的方法很常見,但很多時候,其他指標更能展現差異。
使用比率的話,時常可以更快突顯差異,亦即將各區隔市場的平均數除以整體平均數。
舉例來說,區隔市場A的平均營收為1500,區隔市場B的平均為750,總平均(整體市場總計)為1000。
將區隔市場A的平均數除以整體平均數1500/1000=1.5,也就是說,區隔市場A的營收比總平均多50%。相較之下,區隔市場B為750/1000=0.75,表示該區隔市場對營收的貢獻比總平均少25%。依區隔市場對所有數據算出比率,很快就能看出其中落差,尤其是差異甚小的情況特別明顯。
- 再舉個例子,區隔市場A的回應率是1.9%,整體回應率為1.5%。
雖然兩者(單一區隔市場和整體)表面上只相差0.4%,但換算成比率的話就是1.9%/1.5%,
亦即區隔市場A比總平均大27%。我們之所以喜歡(也應該)選用比率,原因在此。
- 雖然看見各區隔市場之間的龐大差異已夠令人滿意,但側寫最饒富趣味的地方往往在於命名每個區隔市場。開始之前,請先體認一點:為區隔市場命名有助於區分各市場,區隔的市場越多,命名越顯得重要。
- 判別分析可以輕鬆完成這項任務。
(在SAS程式中對樣本套用proc discrim指令,就能得到方程式,
依各消費者劃入各區隔市場的機率予以評分,一旦定義好類別「區隔市場」,就能在方程式中放入合適的變數,預測消費者所屬的類別「區隔市場」,這是很常見的做法)。
- 市場區隔探究的是對消費者重要的因素,而非企業。
- 市場區隔可為市場研究、行銷策略、行銷傳播和市場經濟等方面提供洞見。
- 務必釐清每個區隔市場自成一格的原因。每個區隔市場都應有不同的策略,否則劃分為區隔市場將無意義。

10 市場區隔
- 市場區隔的各種方法:
商業準則、卡方自動交互作用偵測、階層式集群分析法、K平均演算法集群分析、潛在類別分析等。
- 市場區隔的目標是要增加淨利,而每個區隔市場的最終目的,則是要有效運用策略,
創造交叉銷售追加銷售的機會。
- 由分析中得出洞見,我們可以更認識每個區隔市場主要的痛點(pain point),
這也意味著我們可以對各市場對症下藥,
在適合的時機釋出適合的訊息,用足以打動人心的價格提供適當的產品選擇。
- 實際使用行為區隔程序:擬定策略、收集行為資料、製作/使用其他資料、執行選擇的演算法,以及側寫區隔市場。
- 區隔變數和側寫變數:
「區隔變數」是指建立區隔市場所使用的變數,剩下的變數則屬於「側寫變數」。
- 除此之外,其他(行為)變數都會以演算法檢測是否顯著,顯著者會保留下來,作為區隔變數。
總之請記住,只要不屬於區隔變數,即為側寫變數。
過度取樣(oversampling):強制提高特定數據代表性的一種取樣手法,使其樣本數比隨機取樣更多。
若簡單隨機取樣產生該特定數據的數量太少,即可採取過度取樣。
標準化:第一階段只是單純檢測每個變數是否「非常態」。
一般而言,此階段會計算每個變數的Z分數,或將各變數標準化,
接著刪去分數超過3.0標準差的觀察值
(常態分布下,三個標準差已涵蓋99.9%觀察值,因此超出者已屬於非常態)。
進入第二階段,需要使用K平均演算法檢測樣本是否為常態。
- 關鍵在於,比起逐一檢查每個變數是否異常,這種方法採取多自變數方式,
找到一群擁有非常態傾向的消費者。
因此我們需要刪除這些觀察項(消費者),不再繼續分析。
- 卡方自動交互作用偵測(chi-squared automatic interaction detection,CHAID)
- 卡方自動交互作用偵測會挑選依變數,接著檢視自變數,找出「區分」依變數效果最佳的自變數。
所謂效果「最佳」,是根據卡方檢測(chisquared test)的結果而論。
- RFM模型採用的是企業觀點,並非從消費者的角度出發。
- RFM模型只能試圖移動消費者版圖,無助於策略擬定。
- K平均演算法(k-means clustering)大概是最熱門的市場區隔(分析)的技術了。
SAS程式(使用proc fastclus)有相當強大的演算法。
- K平均演算法不具任何診斷功能,對於這些重要條件毫無任何協助,讓你憑著主觀的直覺全權決定。
-- 有幾點需要注意:
第一,K平均演算法方法以歐式距離平方根為依據,來決定觀察項的歸屬,因此並非統計屬性,而是數學性質的分析法。
第二,集群中心值(即集群)高度取決於資料集的順序。若將資料集重新排序,最後可能會得到天差地遠的區隔結果。
第三,此方法幾乎毫無診斷功能可言。
第四,由於群集呈現自然球形(因為是根據與中心值的距離,決定觀察值歸屬何處),集群的大小會很相似
這不太可能符合真實市場的情況。雖然K平均演算法又比RFM模型和卡方自動交互作用偵測更進一步,但顯然仍有許多缺陷。
- 市場數和顯著變數都不是K平均演算法能夠提供的資訊
- 「行為區隔」是採消費者的觀點,主要使用消費者交易和行銷媒介回應等資料
確切了解消費者看中的事情,其主要精神就是以消費者為核心。
所有策略行銷活動都適合使用「行為區隔」,包括:選擇目標客群、
訂定最佳折扣、了解消費者的通路偏好/決策歷程、釐清產品滲透率/品類管理等。
「行為區隔」不僅能協助行銷人員選擇目標市場,還能完成更多工作。
- 行為出自於動機,不管核心動機或經驗動機。
舉凡結帳、光臨店面、使用產品(滲透率)、開啟及點擊行銷媒介並給予回應,都是行為,
正是這些行為創造了財務成果、營收、成長、終身價值和利潤。
- 核心動機主要是無形的態度、品味和偏好、生活方式、金錢價值觀、通路偏好、益處或需求激發。
另外也有經驗動機,這是行為的次要成因,通常取決於品牌曝光。
這些都不是行為本身,但會觸發後續行為。這種次要成因包括:
忠誠度互動程度滿意度服務禮節速度
值得留意的是,RFM模型使用的最近一次消費和頻率
(互動程度指標)就屬於次要成因,而同樣會使用的金額相關指標,則是財務結果數據。
- 由此可知,RFM模型僅使用互動和財務等方面的資料,並未使用行為資料。
- 「行為區隔」和RFM模型有三點不同:「行為區隔」(通常)使用較多行為資料;
「行為區隔」使用這些資料的目的在於了解消費者行為;「行為區隔」會採取統計方法,
將各區隔市場做最大程度的區分。
簡單比較RFM模型卡方自動交互作用偵測K平均演算法潛在類別模型,即可窺得箇中意義。
RFM模型使用多個自變數(通常是三個變數),但無法處理多個依變數(即同時使用三種維度)。
RFM模型屬於數學性質的分析法,就統計而言並非理想選擇。
潛在類別分析(latent class analysis,LCA)可以大幅改善前述缺失,堪稱目前最先進的市場區隔技術。
- 潛在類別分析可找出理想的區隔市場數量、識別顯著變數,以及計算每一成員隸屬各個區隔市場的機率。簡言之,沒有任何事情需要主觀決定!
- 潛在類別分析是一種統計技術,而非數學性質的分析法(例如階層式分析或K平均演算法)。
- 潛在類別分析可以使用貝氏資訊準則(Bayes Information Criterion,BIC)LL(負對數概似值)錯誤率,為你提供診斷結果,在變數和資料集的基礎上,指出「最理想」的區隔市場。
- 潛在類別分析(LCA)是一種貝氏(最大概似)方法,具有統計本質。
由於消費者行為屬於一種機率(甚至是不理性的)現象,
因此使用統計分析法會比數學屬性的方法更為適切。
透過此方法提供的診斷功能,我們可以知道區隔市場的最佳數量,
也能了解哪些變數對市場區隔最為重要。

第四篇 攸關日常行銷的其他重要主題
11 統計檢定
- 試驗設計:以歸納方式建立統計測試,其中採用的刺激因素會隨機考量變異數、
信賴度等不同條件,並與控制組對照比較。
- 關於樣本規模的問題,建議考慮以下因素:
母體的標準差、希望的信賴水準(以檢測結果能否推斷母體的真實情形)、想檢測的敏感度,
以及預期回應。

12 結合大數據並採取大數據分析
- 歸因模式(attribution modelling)依行為區隔的結果,對各個接觸點施以加權。
策略上,若從產品組合的角度來看,我們可以從大數據中得知哪個接觸點對消費者具有價值。
因此,對於哪些消費者所重視的接觸點
(頁面、網站、網路、群組、社群、商店、部落格、具有影響力的名人等),我們就得多加注意。
- 不需要遍尋各種新奇的演算法,或是衍生出迥異的策略。
我們只需擁抱有關消費者行為的不同層次資訊,在分析時將所有相關因素納入考量。
對於此事,我們早就擁有相關的分析技術(存在好幾十年了)。
像是聯立方程式、結構方程式、向量自我迴歸等。
- 本書前幾個章節中,我們將廣義的統計分析技術區分成兩大類型:
依附方程式類型(一般迴歸、羅吉斯迴歸、存活分析模型)
以及相互關係類型的分析法(市場區隔、因素分析等)
以下演算法使用的語言進一步擴展了前述定義,共區分為監督式學習、非監督是學習和強化學習:
1. 監督式學習:有一個引導(目標)變數,而目的就是預測該變數。
這類技術包括迴歸和分類類型的方法,例如決策樹(decision tree)隨機森林(random forest)
K最近鄰演算法(K-nearest neighbour)邏輯迴歸等。
2. 非監督式學習:沒有引導變數。
市場區隔降維(dimension reduction)類型的方法都屬於此類,
例如集群分析類神經網路因素分析等。
3. 主要運用人工智慧(AI),在演算法中融入回饋迴圈。
類似馬可夫鏈(Markov)的處理程序,一般都可歸於這類技術,例如Q-learning。
- 從技術面來看,截至目前所介紹的方法都屬於迴歸或分類屬性,具線性本質,
可表示為BXi,其大多僅涉及明顯的變數。也就是說,變數就是該方法要量測的項目。
除了這類型之外,還有一種非線性的技術(假定使用潛在變數),稱為「類神經網路」。
舉凡依變數類型即相互關係類型的技術(分類形式),都可使用類神經網路。
- 傳統的計量經濟方法依然足以解決大部分市場分析問題。

2021年9月4日 星期六

消費者行為市場分析技術(上)

消費者行為市場分析技術:數據演算如何提供行銷解決方案
Marketing Analytics, 2nd edition, 
A practical guide to improving consumer insights using data techniques
麥可.格里斯比(Mike Grigsby)

第一篇 概述:行銷科學有哪些功用?
01 統計學概略回顧
- 集中趨勢量數:平均數(mean)、中位數(median)、眾數(mode)。
- 離散量數:全距(range)、變異數(variance)、標準差(standard deviation)。
- 常態分布是指「集中趨勢量數」為對稱態勢,而標準差則是描述分布情形。
- Z分數:描述觀察值距離平均數多少個標準差的一種度量值。可視為一種表示觀察值發生機率的量數。
- 變數關係:共變異數和相關係數。

02 消費者行為與行銷策略原則
- 想了解消費者行為,最好的方法就是從個體經濟學的「消費者議題」切入。
此議題可以概括為以下三個問題:
  1. (就商品/服務而言)消費者有哪些偏好?
  2. 消費者(在分配有限預算時)有哪些限制?
  3. 在資源有限的情況下,消費者會怎麼選擇?
- 典型的決策流程包括:確認需求、搜尋資訊、處理資訊、評估產品、購買、購後評估。
-- 需求確認:很多廣告的目的都是激發需求。不管是教育消費者認識真實需求(生存、滿足感),
還是告知消費者假性需求(別落人後,快跟上潮流!),激發需求是一切的開端。
-- 購後評估:忠誠度是從購買產品後才開始建立的。
- 消費者希望透過偏愛的管道,以符合價值的價格取得需要的產品;
而企業則需要忠誠度、消費者滿意度和業務成長。
- 麥可·波特詳細說明了激發競爭的各種因素
(簡單來說,企業競爭的目的是什麼?就是獲取消費者的忠誠度),
這些因素分別為:
  1. 買家的議價能力
  2. 供應商的議價能力
  3. 新進廠商的威脅
  4. 現有同業的競爭
  5. 替代品的威脅
- 根據以上所述,麥可·波特設計了三大基本策略:
  1. 企業可以打價格戰(當低價產品提供者)。
  2. 企業可以塑造差異,專注於高階產品。
  3. 企業也可以區隔市場,專心經營規模較小的利基市場。
- Michael Treacy & Fred Wiersema採用了麥可·波特的架構,
進一步深入探討。提出了三大策略(準則):
  1. 營運卓越(致力追求低成本)。
  2. 產品領導(專注發展較高階的差異化產品)。
  3. 貼近顧客(一種差異化/市場區隔策略)。

03 什麼是洞見?
- 洞見必須滿足以下條件:
  1. 含有新資訊
  2. 專注於了解消費者行為
  3. 量化因果關係
  4. 提供競爭優勢
  5. 傳達財務意義
-- 傳達財務意義:洞見應該要可以量測。
不管是投資報酬率、邊際貢獻或風險評估,洞見都應該多少隱含些財務意義。
如果無法具體衡量營收或滿意度有所提升,或是開銷有所減少,
就應該為分析的效力打上問號。
- 真正的分析洞見要能轉化為實際行動。

第二篇 依變數分析技術
04 刺激需求的因素?
- 一般統計技術可分為兩種:「依附方程式類型」及「相互關係類型」。
--依附方程式類型的統計技術,主要是在處理確切的方程式時使用(可能是確定型方程式或機率方程式);
相互關係類型的統計技術,則與方程式無關,而是關注變數之間的變化情形。
- 一般迴歸(普通最小平方法,ordinary least squares,OLS)的一變數方法,
了解(量化)季節性、廣告支出和價格,對銷量的影響(解釋銷量的變化如何受到前三者牽引)。
這種方式稱為「結構分析」,亦即試著理解資料產生流程的結構,
嘗試釐清價格、廣告支出和季節性可如何解釋或影響銷量的(大多數)變化,並予以量化。
- 一般迴歸:一種統計方法,其中依變量取決於一或多個自變數(以及誤差項)的變化。
- 模型建立後,我們就能判斷每個變數的重要程度(查看其係數或斜率),
以及變數是否顯著(根據變化程度判斷)
- 有個常見的適合度(goodness of fit)衡量方法,稱為R^2
R^2是指相關係數平方,在此案例中,即為實際銷量與預測銷量的相關係數。
相關係數可衡量強度和方向,R^2則可評估共享變異(解釋能力),結果可能是0%至100%。
- 談談顯著性吧,在行銷領域中,通常採用95%的信賴水準。還記得Z分數嗎?
95%信賴水準的Z分數是1.96,與p值小於0.05時相同。
所以t值(係數除以標準誤差)大於|1.96|,變數即可是為顯著。
- 所謂顯著性,是指變數影響力為0的機率低於5%,而且t檢定中,
變數的影響力表現有95%的標準常態分布觀察項,落於+/- 1.96的Z分數區間之內。
- t值(係數除以標準誤差)為2.72,大於1.96,因此可以判定此變數為顯著正相關。
- 現在談談適合度,只有這兩個變數的情況下,模型的效果究竟如何?
R^2是適合度的常見評估法,此案例中,該值為83%,也就是說,
實際與預測的銷量之間,有83%的變化一致;
換個方向來說,實際依變數有83%的變動情形,可從自變數來「解釋」
可以這麼理解:銷量變動中,有83%可以歸因於價格和廣告支出
- 虛擬變數(也稱為「二元變數」,亦即只有1或0兩種數值)。
這種變數時常俗稱為「斜率位移項」(slope shifter),
因為其可(「開啟」為1時)將斜率係數上下移動。
- 採用二元變數建構分析系統時,不可以用上所有數據。
舉例來說,若要建立季度模型,你必須拿掉其中一季的數據,否則模型無法有確切的解答
(實際上是試著以0相除),最後落入「虛擬變數陷阱(dummy trap)。
因此四個季中拿掉Q1,亦即各季的係數都會與Q1比較。意思就是Q1成了基準。
- 光有分析而不轉化成策略實際運用,就像電影中充斥著華麗特效,但缺乏劇情支撐,可說毫無意義。
- 衡量適合度的R^2大於95%,代表自變數解釋銷量變化的成效極佳。
- 一般迴歸的效用在於,這能考量其他所有變數,區分出每個自變數的影響。
換句話說,在其他所有變數維持不變的情況下,分次將每一個變數的影響量化。
-二元變數之所以俗稱為斜率移位器,原因在於,不管價格或廣告支出如何,
只要「開啟」Q4,銷量就會增加3.825。
- 除了體會量化的價值之外,更重要的,是要計算價格彈性。
- 彈性:無關規模或維度的一種指標,亦即一輸入變數的百分比變化,
會導致輸出變數產生多大程度的變動。
- 若使用迴歸方程式,彈性的計算方式為:價格係數X平均數量(銷量)的平均價格。
平均價格為1,102,實際銷售的平均數為63,因此價格彈性計算如下:
-0.0275X1102/63=-0.48
意思是,如果價格上升10%,銷量會減少約4.8%。此資訊具有豐富的策略意義
*迴歸有幾項假設必須遵循
- 第一項假設:主要界定函數形式,即依變數(前述的銷量)可表示為線性方程式
此一依變數取決於自變數(前述的季節性、價格和廣告),以及某些隨機誤差項。
- 第二項假設:主要界定誤差項,即誤差項的平均值為零
- 第三項假設:同樣是界定誤差項,即誤差項對所有自變數具有類似的變異量,
也就是有所謂的變異數同值(homoscedasticity),且某一期間的誤差項
與(後續)其他期間的誤差項不相關,亦即無序列相關(或自相關)關係
- 第四項假設:主要界定自變數,即在重複抽樣中,自變數保持不變。
- 第五項假設:同樣是界定自變數,即自變數之間沒有確切的關聯性,
亦即不具「完全共線性」(perfect collinearity)
- 以上假設必須全數符合,迴歸模型才能成立,也才可以解讀、無偏誤、有效率,且結果一致。
只要有任何假設不成立,代表模型必須有所調整,以抵銷假設不成立所衍生的結果。
- 簡單的檢測「序列相關」的方式稱為「杜賓-瓦森檢定」(Durbin-Watson test)。
如果檢定結果只有2.00左右,則無需擔心序列相關的問題。
- 要是違反「誤差項不得具有關聯性」的假設,標準誤差就會產生向下偏誤的現象,
亦即標準誤差比應有的數值更小。
換句話說,t值(顯著性衡量指標)會比實際情況更高(看似更為顯著),這個問題不容忽視
- 隨然大部分的序列相關問題,都會採計前一期的資料
(稱為「一階自我迴歸」或「AR(1)模型」,
但這並不代表沒有其他類型的序列問題。
這有一部份是取決於提供的資料類型。如果是每日數據,時常會使用AR(7)模型,
這意味者七期之前的資料,會比一期之前的資料具有更強的關聯性。
如果是每月數據,往往採用AR(12)模型,以此類推。
- 請記住杜賓-瓦森檢定只適合AR(1)。也就是說,要是使用每日數據,
每個星期一通常會與其他所有星期一相關,以此類推,
而這就是AR(7)類型的序列相關,並非AR(1)。
因此每日數據通常會採計七個之前的觀察項、每月數據會使用十二個之前的觀察項、
季度數據會採取四個之前的觀項,以此類推。
- 第一步:市場區隔
-- 潛在類別分析(LCA,Latent Class Analsis)儼然已成為黃金標準,是一種應用於市場區隔的分析技術。
事實證明,此方法遠優於一般技術(K平均演算法),尤其是在追求最大差異的區隔時,更是如此。
簡單來說:市場區隔之間的差異越大,越能針對每個市場量身打造獨特的行銷策略。
- 第二步:建構彈性模型
--彈性是邊際函數除以平均函數的值
數學上,「邊際」的整體概念為曲線的平均斜率,為一導數。
所以,若要計算整體的平均彈性,需知道價格函數(即需求曲線)中,從平均處測得的銷量導數。

05 誰最可能購買?
- 羅吉斯迴歸和一般迴歸兩者相似之處在於都是單一方程式中,由一或多自變數解釋一個依變數。
不同之處在於,一般迴歸具有連續依變數,而羅吉斯迴歸則是二元變數;
一般迴歸使用最小平方估計係數,而羅吉斯迴歸使用最大概似值
- 羅吉斯迴歸並非以「平方誤差總和最小化」(普通最小平方法;一般迴歸[OLS])計算係數,
而是透過網格搜尋計算法(grid search),計算最大概似估計法(maximum likelihood)
此外,對係數的解讀也不一樣。通常會使用勝算比(odds ratios),而且衡量適合度時,
並非比較預測和實際的依變數。
- 最大概似估計:(相對於普通最小平方法),目的是透過觀察某個樣本,
尋找可將概似函數最大化的估計式。
- 羅吉斯迴歸和一般迴歸的另一項差異,在於羅吉斯迴歸會對「羅吉斯」(logit),
而非依變數建立模型。所謂羅吉斯迴歸,是指事件/(1代表事件)的對數,
亦即事件發生機率的對數。相較之下,一般迴歸只是對依變數本身建立模型。
- 由於羅吉斯迴歸線,僅以0和1表示,因此自變數的效應會對依變數造成不同影響。
實際影響可表示如下:e^係數
這表示教育程度的係數為0.200,影響為:
e^0.200=1.225,亦即(2.71828^0.200)
- 這代表教育程度每增加一年,機率就會上升22.5%。這個數值稱為勝算比。
- 羅吉斯迴歸中,沒有像一般迴歸的R^2一樣的適合度衡量指標。
羅吉斯迴歸會以1和0表示依變數的發生機率。
很多時候,我們會使用混淆矩陣」(confusion matrix),若預測準確,即表示模型效果良好。
- 假設現在有10,000個觀察項。事件(購買)總數為6,750+1,750,也就是8,500。
模型預測的總數只有6,750+500,也就是7,250。
模型的整體準確度,是「正確預測且實際發生」的事件數,加上「正確預測但實際未發生」的事件數,
亦即6,750+1,000,也就是7,750/10,000=77.5%。
預測錯誤為500(模型預測會有500人發生事件,但其實並未發生)。
若須考量將宣傳資訊寄給錯誤對象的成本,這將是直效行銷的重要衡量指標。
- 有一個分析小秘訣能幫助我們判斷依變數(這裡是指銷量)是否含有任何異常觀察項。
還記得Z分數嗎?這是檢查觀察項是否「出界」的一種方法,快速又簡單。
Z分數的計算方式為:(觀察項-平均數)/標準差
- 正極端組(positive outlier),其值為1。以這個新變數作為另一個自變數,有助於尋找異常值。
- 提升圖(或稱增益圖)是一種常見的重要工具,尤其對直效即資料庫行銷尤為重要
- 提升/增益圖:協助解讀模型執行成效的視覺化工具,以十分位數為單位,
比較模型的預測能力和隨機情形
- 所謂「提升」,是指每個十分位數的回應人數除以平均(預期)的回應人數。
- 共線性:衡量變數之間關聯程度的一種指標。
- 若一或多個自變數之間的關聯程度,強過其任一變數與依變數之間的關聯程度,即具有共線性。
換言之,假設模型中有兩個自變數,若「X1與X2」的關聯程度比「X1與Y」或「X2與Y」更強,
表示自變數之間有不利的共線性。
- 共線性會導致幾個不良後果。雖然每個自變數的參數估計值始終無偏差,但標準誤差會太大。
意思是,在顯著性檢驗(參數估計值/估計值的標準誤差)中計算t值(或華德比率(wald ratio)時,
這些變數所呈現的顯著性,通常會比實際上還小,原因是標準誤差過大。
- 變異數膨脹因子(variance inflation factor,VIF)是最普遍常見的檢定方法,
你可以用羅吉斯迴歸,並加入變異數膨脹因子檢定測試。
- 基本上,這項測試可針對每個自變數,對其他所有自變數執行迴歸分析,產生一個數值。
此數值為1/(1-R^2)。
若此數值大於10.0(代表R^2大於90%),那麼根據經驗法則,某個變數具有嚴重的共線性,不得忽視。
- 我們並非是要檢定共線性是否存在(因為幾乎所有案例或多或少都有共線性),而是希望藉由檢定,
了解共線性是否過於嚴重,進而導致問題(稱為病態)。
- 如果變異數膨脹因子檢定顯示變數會造成問題,但又有充分理由將該變數納入分析,
則請檢驗其他變數(務必注意,拿掉變數並非首先考慮的應變措施。直接刪除變數是過於武斷,
且相當粗糙而簡略的分析方法)。
- 建模科學強調診斷程序,而建模藝術則會強調整體平衡和對業務的影響。
實際的商務環境有時會容許「不理想的統計數據」,以達到平衡企業運作的目的,就是這個道理!
- 脊迴歸(ridge regression,通常需使用Stein估計量),將共線性轉換成參數估計值的偏差。
縱使係數現在有所偏誤,但共線性其時可以大幅減少,這就是所謂的平衡。
- 雖然變異數膨脹因子檢定很實用,但在<迴歸診斷>之後,
條件指標(condition index)便成了共線性診斷的最新利器。
- 計算每個變數的條件指標,亦即最大特徵值(eigenvalue,稱為特徵根)除以各變數特徵值之後,
再取平方根(在相關矩陣中,特徵值是指每個主成份的變異數)。
- 無論是使用變異數膨脹因子檢定條件指標,都可得到變異數比例
透過變異數比例的值,我們可了解與各特徵值相關之係數的變異數百分比。
變異數比例高,代表與特徵值的關聯強。
- 迴歸對於線性、常態性等方面都有許多假設。例如說明一般迴歸時,曾提到無序列相關的假設
(尤其是對時間序列資料),而這項假設同樣也可套用到羅吉斯迴歸。
迴歸分析法多半適用大部分假設。介紹羅吉斯迴歸時,說明了共線性的檢測及矯正方法,
而這個在討論羅吉斯迴歸時順帶一提的方法,正好也適用於一般迴歸。
- 實務上只要使用任何迴歸分析法,就應該檢查每項假設,一旦發現假設不成立,也應該進一步檢驗,可以的話,再加以修正。不管是一般迴歸、羅吉斯迴歸,還是其他分析法,都要遵照這個流程。
- 羅吉斯迴歸沒有R^2統計量。這會導致認知混淆。
要記住(介紹一般迴歸時提到的)R^2,這是實際依變數和預測依變數之間共同的變異數比例。
兩者越多共同變異數表示預測依變數與實際依變數越相近。記住,一般迴歸會產生估計依變數,
但羅吉斯迴歸並不會產生估計依變數。實際依變數為0或1。
「羅吉斯」是事件/(1-事件)的自然對數,因此不會有所謂的「估計」依變項。
- 如果你不得不評估適合度,建議你對共變項截距對數概似值(log likelihood)
SPSS和SAS程式可分別僅對截距,以及同時對截距和共變項求-2LL
(負兩倍的對數概似值)。不妨把截距的-2LL,想成TSS(總平方和)
將截距的共變項-2LL,視為RSS(迴歸平方和)
如果你還是需要R^2,那麼可以利用RSS/TSS來達到同樣的效果。
- 資料的使用一般可分為三種:描述性(descriptive)預測性(predictive)時效性(prescriptive)分析
  • 描述性分析主要關注已發生的事;
  • 預測性分析會運用統計分析法,依指定的輸入變數變化(例如價格),計算輸出變數(例如銷量)的相應變動;
  • 時效性分析是一種試圖將某些數據(通常是獲利)最佳化的機制。
- 描述性資料(平均數、頻率、關鍵績效指標等)是必要步驟,但對分析而言通常不甚充足。無論如何,都應盡快進入預測性分析階段。
需要注意的是,這裡所謂的「預測」,並非指預測未來。
進行結構分析時,會使用模型來模擬市場,推估(預測)市場變化的前因後果
換句話說,使用迴歸分析,就能從價格的變動情況(預測)銷量變化。
- 邏輯迴歸使用(某種)t檢定檢驗每個自變數的顯著性。
- 一般迴歸和羅吉斯迴歸不同的是羅吉斯迴歸的依變數是二元(只有1和0兩種值),一般迴歸則為連續變數,而且在解讀羅吉斯迴歸的係數前,需先求得指數。由於依變數的二元性質,結果會產生異質變數(heteroskedasticity)
沒有(真正的)R^2,且「適合與否」與分類有關。
* 如何推估/預測購物籃
- 自變數可以是購物籃中購買的產品,能預測購買其他產品(依變數)的可能性。

06 消費者最有可能在何時買單?
- 「事件發生時間」是比「事件發生機率」更值得探索的行銷問題。
- 存活分析(survival analsis)能回答一個極為重要的特別問題:
事件(購買、回應、流失顧客等)什麼時候最容易發生?
比起事件(購買、回應、流失顧客等)發生的機率有多高?是更切身相關的問題。
- 透過比例風險模式(proportional hazards modelling)進行存活分析的案例,可追溯至
David Cox在1927年發表於<皇家統計學會雜誌>
(Journal of the Royal Statistical Society)的研究論文
<迴歸分析與生命表>(Regression models and life tables)
該文不僅為統計學科開創了新局,出版以來更是廣受引用。
- 存活分析是專為估計及了解事件發生前經過的時間而設計,其基本假設是每段時間之間彼此獨立,
不相互影響
- 存活分析關注的是事件發生前所經過的時間,對行銷來說,事件可以是回應、購買、
顧客投奔其他品牌等情形。
- 存活研究的本質上,有幾個特性是此方法所獨有的。
  1. 如同稍早所提,依變數是事件發生前經過的時間,因此分析中已經內建了時間。
  2. 設限觀察值。設限觀察值包含尚未發生事件的觀察值,以及研究中因故無法掌握動向的觀察值,
- 存活分析是一種迴歸分析,但有一些差異。其使用的不是最大概似法,而是部分概似法
現在依變數有兩個部分:
  1. 事件發生前經過的時間,
  2. 事件是否發生,因此需採用設限觀察值。
- Cox迴歸的主要重點不在於存活曲線,而是風險率(hazard rate)
「風險」幾乎可說是「存活曲線」的代名詞。可以將之想像成事件發生於某一時間點的瞬間機率。
- SAS程式可以執行存活模型(使用proc lifereg指令)風險模型(使用proc phreg指令)
- 要了解對事件發生時間(time-to-event endpoint,TTE)影響的百分比,
必須先對每個Beta係數取指數,亦即e^B。
- 描述性分析只能針對早已有所互動的客群強力推銷,很像RFM模型
(最近一次消費、消費頻率、消費金額)。
- 這個著力點看似不錯,但就和廣泛的描述性分析一樣,並未貢獻太多可利用的資訊。
為什麼某些消費者的價值比較高,他們能持續維持價值嗎?
有可能從他們身上汲取更多價值嗎?需要付出什麼代價?
有可能因為價值較低的消費者比較忠誠,或服務成本較低,而從他們身上獲取更多營收嗎?
每個消費者對行銷組合的哪一部分最敏感?
- 預測性分析使用自變數來預測下一次購買所需的時間,確實地將「終身價值」投射到(其屬於的)未來。由於造就「終身價值」的主要消費者行為是時間、購買金額和數量,因此需使用能預測事件發生時間的統計法(以一般迴歸預測「終身價值」的話,會忽略時間和購買量等因素)。
- 存活分析是專門為了研究「事件發生時間」這類問題,所設計的一種分析法。
此方法內建了時間因素,因此演算法中原本就存在未來觀點,
而一般(描述性)「終身價值」計算所隱含的武斷特質,在預測性分析中其實減少許多。
- 使用存活分析,判斷是哪些自變數促使消費者購買商品,情況會怎樣?
一旦購買前時間縮短,「終身價值」就會上升。
雖然存活分析可以預測消費者下次購買商品所需經過的時間,
但使用自變數來「改變」購買時間,才是其重要的策略價值。
綜合來說,描述性分析主要呈現以前發生的事,而預測性分析則能指出可能「未來』的因素。
- 若要以「終身價值」制定策略,需了解消費者價值的成因,包括消費者掏錢購買的原因、
拉長/縮短購物前時間的因素、在未來時間點購買的機率,諸如此類。
一旦徹底了解這些深入洞見,即可利用行銷手段(以自變數的形式呈現),從各消費者身上汲取更多價值。舉例來說,我們可以從中了解一些事實,像是某位消費者對價格變動很敏感,祭出折扣優惠則有機會縮短他下次購買的時間。
- 對每個分組套用存活分析模型後,即可產生自變數,並顯現其對依變數的影響。
在此範例中,依變數為購買前(平均)時間,自變數(定義行為分組的要素)則是折扣優惠、產品搭售、
節日宣傳、增加DM目錄及網路獨享優惠等。這些分組因素可依行為將
消費者分門別類,再透過存活分析模型,即可了解自變數在不同程度可以造就哪些不同策略。
- 除了行銷策略手段之外,存活分析還具有財務優化功能,尤其是營銷成本。
例如,假設A對折扣優惠有反應,我們就能計算及測試需要的(適度)折扣門檻,
吸引消費者提前上門購買商品,進而獲取預估的營收金額。
這麼做的話,最終能演變至成本/效益分析,促使行銷人員思考相關策略。
- (執行存活分析後)預測性終身價值比描述性終身價值,更能提供實用的精闢洞見。

07 追蹤資料迴歸分析:如何使用橫斷面的時間序列資料
- 針對某一時間點:橫斷面研究(Cross-Sectional Research)
- 不同時間點:縱斷面研究(Longitudinal Reasearch)
- 橫斷面通常會採取一般迴歸,期間通常會選擇自我迴歸(auto regression)。
- 橫斷面是指依消費者、分店、地理位置等條件來分析,
如此一來,各個橫斷面的時序資料,不管是銷量、媒介、促銷或其他刺激,都能擔任自變數。
追蹤資料迴歸分析的好處,在於其同時使用可說明橫斷面與時序影響的橫斷面和時序觀察項
- 將各地區及不同時序在銷售額、促銷、媒體等方面的差異列入考量,以呈現地理位置的變異情形
(可以是相通地區的銷售或相同消費者,諸如此類),這是時常透過分析加以探究的問題。
*什麼是追蹤資料迴歸分析?
- 資料大致可區分為橫斷面縱斷面資料而追蹤資料是指既為橫斷面,也具時序性質的多維度資料。
因此,分析追蹤資料時,等於同時採用了橫斷面和縱斷面資料。縱斷面資料依般可分為三種類型:
  1. 時序資料:從單一橫斷面擷取多個觀察項,例如股價、單週銷量摘要。
  2. 合併的橫斷面資料:自多個橫斷面收及兩個以上樣本,例如社會/人口問卷調查、地區或子市場的營收。
  3. 追蹤資料:自兩個以上橫斷面,匯集兩個以上觀察項,例如不同企業組織在不同時間點的時序資料、地區或子市場,在不同時間的彙總資料。
- 追蹤資料分析模式旨在描述不同時間的變化(橫斷面)。
- 橫斷面(又稱為群組或單位)是指觀察值樣本,像是分店、消費者、子市場、郵遞區號、
家戶等。換句話說,任何具有不同時間點多個觀察值的群組,都能做為追蹤資料使用。
- 追蹤資料迴歸分析具有恆定的斜率,但截距會依橫斷面(群組、單位、消費者、分店、地區)
或期間而變動。因此,這種模型本質上是一種一般迴歸虛擬變數模型。
- 追蹤資料迴歸分析的假設,即大部的解釋能力來自橫斷面和時序資料,並非自變數。

08 以方程式系統建立依變數類型的模型
- 聯立方程式使用兩種變數:預定變數(落遲的內生變數和外生變數)內生變數
- 聯立方程式有助於訂定最佳定價,以及了解產品牌之間的競食現象。

- 延伸閱讀:
- 計量經濟分析 Econometric Analysis,1993,William H. Greene
- 計量經濟模型、技術和應用 Econometric Models,Techniques and Applications,1996,Michael Intriligator & Ronald G. Bodkin & Cheng Hsiao
- 顧客洞見 Consumer Insight,2004,Merlin Stone & Alison Bond & Bryan Foss
- 計量經濟學的要素 Elements of Econometrics,1986,Jan Kmenta
- 多變量數據分析 Multivariate Data Analysis,1998,Joseph Hair
- 多變量統計分析 Multivariate Statistical Analysis,1991,Sam Kash Kachigan
- 計量經濟學原理 A Guide to Econometrics,1998,Peter Kennedy
- 先進行銷策略 Advanced Marketing Strategy,1991,Glenn L. Urban & Steven H. Star
- 市場分析 Marketing Analytics,2013,Stephan Sorger
- 市場策略 Marketung Strategy,1997,Steven P. Schnaars
- 消費者行為 Consumer Behavior,1995,James Engel & Roger Blackwell & Paul W. Miniard
- 競爭策略 1979,Michael Porter
- 行銷短視症 Marketing myopia,1960,Theodore Levitt
- Modeling elasticity,Canadian Journal of Marketing Research,2002,Grigsby
- 迴歸診斷 Regression Diagnostics,1980,David Belsley & Edwin Kuh & Roy Welsch
- 經濟學與消費者行為 Economics and Consumer Vehavior,1980,Angus Deaton & John Muellbauer
- 行銷管理學 Marketing Management,1967,Philip Kotler
- 戰略市場決策的區隔與定位 
Segmentation and Positioning for Strategic Marketing Decisions,1996,James Myers
- 市場區隔 Market Segmentation.1998,Michel Wedel & Wagner Kamakura
- 市場調查進階研究方法 Advanced Methods of MarketingResearch,1994,Richard P. Bagozzi
- 市場區隔 Market Segmentaion,1994,Art Weinstein
- 對潛在類別模型的非技術性介紹 A nontechical introduction to latent class models,2002
- 用具類的潛在類別模型:與K平均值得比較 
Latent class models fo clustering:a comparison with K-means,2002.
- 決策統計分析 Statistical Analysis for Decision Marking,1987,Marris Hamburg