跳到主要內容

簡易檢索 / 詳目顯示

研究生: 方悟原
Fang, Wu-Yuan
論文名稱: SIR、SAVE、SIR-II、pHd等四種維度縮減方法之比較探討
指導教授: 江振東
學位類別: 碩士
Master
系所名稱: 商學院 - 統計學系
Department of Statistics
論文出版年: 1999
畢業學年度: 87
語文別: 中文
論文頁數: 62
中文關鍵詞: 維度縮減子空間
外文關鍵詞: dimension reduction subspace, pHd, principal Hessian directions, SIR, sliced inverse regression, SAVE, sliced average variance estimate, SIR-II
相關次數: 點閱:204下載:101
分享至:
查詢本校圖書館目錄 查詢臺灣博碩士論文知識加值系統 勘誤回報
  • 本文以維度縮減(dimension reduction)為主題,介紹其定義以及四種目前較被廣為討論的處理方式。文中首先針對Li (1991)所使用的維度縮減定義型式y = g(x,ε) = g1(βx,ε),與Cook (1994)所採用的定義型式「條件密度函數f(y | x)=f(y |βx)」作探討,並就Cook (1994)對最小維度縮減子空間的相關討論作介紹。此外文中也試圖提出另一種適用於pHd的可能定義(E(y | x)=E(y |βx),亦即縮減前後y的條件期望值不變),並發現在此一新定義下所衍生而成的子空間會包含於Cook (1994)所定義的子空間。

    有關現有四種維度縮減方法(SIR、SAVE、SIR-II、pHd)的理論架構,則重新予以說明並作必要的補充證明,並以兩個機率模式(y = bx +ε及y = |z| +ε)為例,分別測試四種方法能否縮減出正確的方向。文中同時也分別找出對應於這四種方法的等價條件,並利用這些等價條件相互比較,得到彼此間的關係。我們發現當解釋變數x為多維常態情形下,四種方法理論上都不會保留可以被縮減的方向,而該保留住的方向卻不一定能夠被保留住,但是使用SAVE所可以保留住的方向會比單獨使用其他三者之一來的多(或至少一樣多),而如果SIR與SIR-II同時使用則恰好等同於使用SAVE。另外使用pHd似乎時並不需要「E(y│x)二次可微分」這個先決條件。


    The focus of the study is on the dimension reduction and the over-view of the four methods frequently cited in the literature, i.e. SIR, SAVE, SIR-II, and pHd. The definitions of dimension reduction proposed by Li (1991)(y = g( x,ε) = g1(βx,ε)), and by Cook (1994)(f(y | x)=f(y|βx)) are briefly reviewed. Issues on minimum dimension reduction subspace (Cook (1994)) are also discussed. In addition, we propose a possible definition (E(y | x)=E(y |βx)), i.e. the conditional expectation of y remains the same both in the original subspace and the reduced subspace), which seems more appropriate when pHd is concerned. We also found that the subspace induced by this definition would be contained in the subspace generated based on Cook (1994).

    We then take a closer look at basic ideas behind the four methods, and supplement some more explanations and proofs, if necessary. Equivalent conditions related to the four methods that can be used to locate "right" directions are presented. Two models (y = bx +ε and y = |z| +ε) are used to demonstrate the methods and to see how good they can be. In order to further understand the possible relationships among the four methods, some comparisons are made. We learn that when x is normally distributed, directions that are redundant will not be preserved by any of the four methods. Directions that contribute significantly, however, may be mistakenly removed. Overall, SAVE has the best performance in terms of saving the "right" directions, and applying SIR along with SIR-II performs just as well. We also found that the prerequisite, 「E(y | x) is twice differentiable」, does not seem to be necessary when pHd is applied.

    第 一 章 前言••••••••••••••••••••• 1
    第1-1節 維度縮減的目的••••••••••••••• 1
    第1-2節 文獻回顧與章節提要•••••••••••• 3
    第 二 章 維度縮減定義的探討•••••••••••••• 4
    第2-1節 維度縮減的定義••••••••••••••• 4
    第2-2節 最小維度縮減子空間的探討••••••••••• 12
    第2-3節 維度縮減的另一種可能定義••••••••••• 15
    第 三 章 切片逆迴歸(SIR)運用於維度縮減的探討••••••• 17
    第3-1節 切片逆迴歸(SIR)的理論與性質•••••••••• 17
    第3-2節 切片逆迴歸(SIR)理論的另一種詮釋方式與
    缺失探討•••••••••••••••••• 23
    第 四 章 SAVE、SIR-II、pHd三種方法的介紹•••••••• 28
    第4-1節 多維常態下的性質••••••••••••••• 28
    第4-2節 SAVE的介紹••••••••••••••••• 31
    第4-3節 SIR-II的介紹••••••••••••••••• 37
    第4-4節 pHd的介紹••••••••••••••••• 43
    第 五 章 四種方法的比較與後續可能研究方向•••••••• 48
    第5-1節 SIR、SAVE、SIR-II、pHd四種方法的比較••••• 48
    第5-2節後續可能研究方向••••••••••••••• 50
    參考書目••••••••••••••••••••••• 52
    附 錄•••••••••••••••••••••••• 53

    Chen, C. H., Li, K. C. (1998). Generalization of Fisher's linear discriminant analysis via the approach of sliced inverse regression. Technical Report C-98-15, Institute of Statistical Science Academia Sinica, Taiwan, R.O.C.
    Chen, C. H., Li, K. C., Wang, J. L. (1999). Dimension reduction and censored regression. Annals of Statistics (to be appeared)
    Cook, R. D. (1994). On the interpretation of regression polts. Journal of the American Statistical Association, vol.89 p.177~189
    Cook, R. D., Weisberg, S. (1991). Comment on Li (1991). Journal of the American Statistical Association, vol.86 p.328~332
    Cook, R. D., Weisberg, S. (1994). An the introduction to regression gaphics. New York: Wiley
    Li, K. C. (1991). Sliced inverse regression for dimension reduction (with discussion). Journal of the American Statistical Association, vol.86 p.316~342
    Li, K. C. (1992). On principal Hessian directions for data visualization and dimension reduction : Another application of Stein's lemma. Journal of the American Statistical Association, vol.87 p.1025~ 1039
    Schott, J. R. (1994). Determining the dimensionality of sliced inverse regression. Journal of the American Statistical Association, vol.89, p.141~148.
    Searle, S. R. (1982). Matrix algebra usejul for statistics. New York: Wiley

    QR CODE
    :::