جدول 4-2: شبیه سازی خطای نوع اول برای مقایسه بردارهای میانگین نرمال سه متغیره 58
جدول 4-3: شبیه سازی خطای نوع اول برای مقایسه بردارهای میانگین زمانیکه10 p= 60
فهرست نشانههای اختصاری
GV: Generalized test variable

LRT: Likelihood ratio test
MANOVA: Multivariate analysis of variance
MNV: Modified Nel and Van der Merwe
PB: Parametric bootstrap
فصل اول: مقدمه
مفاهیم مقدمه
در این فصل به معرفی نمادها و توزیعهای آماری که در این پایان نامه مورد استفاده است، میپردازیم. همچنین آماره آزمون، توزیع آن و مقدار بحرانی را تحت شرط معلوم بودن ماتریسهای کوواریانس معرفی میکنیم. اما به دلیل مجهول بودن ماتریسهای کوواریانس در اکثر مواقع، آماره آزمون را با فرض مجهول بودن ماتریسهای کوواریانس معرفی خواهیم کرد.
1-1- آشنایی با نمادها

فرض کنید Y_i1,…,Y_(?in?_i ) یک نمونه تصادفی از توزیع نرمال p – متغیره با بردار میانگین ?_i و ماتریس کوواریانس ?_i , i=1,…,k باشد. همچنین فرض کنید Y ?_i و S_i به ترتیب نشان دهنده بردار میانگین و ماتریس کوواریانس نمونهای باشند. یعنی:
Y ?_i=1/n_i ?_(j=1)^(n_i)??Y_ij , S_i=1/(n_i-1) ?_(j=1)^(n_i)??(Y_ij-Y ?_i ) (Y_ij-Y ?_i )^’ , i=1,…,k??
(1-1-1)
? ?_i را به صورت ? ?_i=1/n_i ?_i تعریف میکنیم به گونهای که
Y ?_i~N_p (?_i,? ?_i ) .
به طور مشابه برآورد ? ?_i به صورت S ?_i=1/n_i S_i تعریف میشود.

در این سایت فقط تکه هایی از این مطلب با شماره بندی انتهای صفحه درج می شود که ممکن است هنگام انتقال از فایل ورد به داخل سایت کلمات به هم بریزد یا شکل ها درج نشود

شما می توانید تکه های دیگری از این مطلب را با جستجو در همین سایت بخوانید

ولی برای دانلود فایل اصلی با فرمت ورد حاوی تمامی قسمت ها با منابع کامل

اینجا کلیک کنید

1-2- توزیع ویشارت
در این بخش توزیع ویشارت (Anderson, 2003, p.252) و برخی از خواص آن را بررسی خواهیم کرد.
تعریف: فرض کنید Z_1,…,Z_m یک نمونه تصادفی m تایی از توزیع N_p (0,?) باشند. توزیع ویشارت با m درجه آزادی و پارامتر ? را به صورت زیر تعریف میکنیم:
اگر A~?_(j=1)^m??Z_j Z_j^’ ? باشد، در این صورت گوییم A دارای توزیع ویشارت با m درجه آزادی و پارامتر ? است و آن را با نماد A~W_p (m,?) نمایش میدهیم.
امید ریاضی توزیع ویشارت به صورت زیر محاسبه میشود:
E(A)=?_(j=1)^m?E(Z_j Z_j^’ ) =m?
قضیه 1-2-1: اگر A_1~W_p (m_1,?) و A_2~W_p (m_2,?) و از یکدیگر مستقل باشند، آنگاه A_1+A_2~W_p (m,?) به گونهای که m=m_1+m_2 است.
اثبات: طبق تعریف میتوان A_1 و A_2 را بفرم زیر نمایش داد:
A_1~?_(j=1)^(m_1)??Z_j Z_j^’ ?
A_2~?_(j=m_1+1)^(m_1+m_2)??Z_j Z_j^’ ?
به گونهای که Z_1,…,Z_(m_1+m_2 ) مستقل از یکدیگر هستند و دارای توزیع N_p (0,?) میباشند. بنابراین
A_1+A_2~?_(j=1)^(m_1+m_2)??Z_j Z_j^’=?_(j=1)^m??Z_j Z_j^’ ?? .
قضیه 1-2-2: اگر Y_1,…,Y_n بردارهای تصادفی مستقل و همتوزیع با N_p (?,?),(n>p) باشند، در این صورت A=?_(j=1)^n??(Y_j-Y ? ) (Y_j-Y ? )^’~?_(j=1)^(n-1)??Z_j Z_j^’ ?? است به گونهای که Z_1,…,Z_(n-1) مستقل از یکدیگر و دارای توزیع مشترک N_p (0,?) میباشند. بنابراین A دارای توزیع ویشارت با n-1 درجه آزادی و پارامتر ? است.
اثبات: به پیوست مراجعه شود.
بنابراین براساس قضیه 1-2-2 نتیجه میشود که
S_i~W_p (n_i-1, 1/(n_i-1) ?_i )
بنابراین
S ?_i~W_p (n_i-1, 1/(n_i-1) ? ?_i )
مسئله مورد علاقه در این پایان نامه، آزمون کردن
H_0:?_1=…=?_k vs H_1:?_i??_j ? i?j
براساس آمارههای بسنده مینیمال بردار میانگین و ماتریس کوواریانس نمونهای است.
فرض کنید Y ?=(Y ?_1^’,…,Y ?_k^’ )^’، S ?=diag(S ?_1,…,S ?_k )، ?=(?_1^’,…,?_k^’ )^’ و ?=diag(? ?_1,…,? ?_k ) باشند. تحت فرض برابری بردارهای میانگین، ?_0 را بردار مشترک ?_i ها در نظر بگیرید.
1-3- آماره آزمون
در این بخش ابتدا آماره آزمون را تحت فرض معلوم بودن ماتریسهای کوواریانس و سپس تحت فرض مجهول بودن ماتریسهای کوواریانس، مییابیم.
1-3-1-آماره آزمون نسبت درستنمایی تحت فرض معلوم بودن ماتریسهای کوواریانس

در این قسمت ابتدا برآورد ماکزیمم درستنمایی ?_0 را تحت فرض ?_0 و با فرض معلوم بودن ماتریسهای کوواریانس محاسبه میکنیم. بدین منظور تابع درستنمایی عبارت است از:
L(?_0 )=f(y_i1,…,y_(?in?_i ) )=?_(i=1)^k??_(j=1)^(n_i)??(2?)^((-p)/2) |?_i |^((-1)/2) ? exp{-1/2 (y_ij-?_0 )^’ ?-
? ?_i^(-1) (y_ij-?_0 )} (1-3-1)
و بنابراین لگاریتم تابع درستنمایی به صورت زیر میباشد:
ln??L(?_0 )=(-p)/2 ?_(i=1)^k??n_i ln?(2?) ?+?_(i=1)^k??-n_i/2 ln?|?_i | ?-1/2 ?_(i=1)^k??_(j=1)^(n_i)?(y_ij-?_0 )^’ ?
?_i^(-1) (y_ij-?_0 )
حال از رابطه فوق نسبت به بردار ?_0 مشتق میگیریم و مساوی با صفر قرار میدهیم:
(? ln?L(?_0 ))/(??_0 )=-1/2 ?_(i=1)^k??_(j=1)^(n_i)?(-2?_i^(-1) y_ij+2?_i^(-1) ?_0 ) =0
بنابراین با توجه به تعریف ? ?_i برآورد ماکزیمم درستنمایی بردار ?_0 عبارت است از:
? ?_0=(?_(i=1)^k?? ?_i^(-1) )^(-1) ?_(i=1)^k??? ?_i^(-1) Y ?_i ? (1-3-2)
توجه شود برآورد فوق بهترین برآوردگر نااریب خطی برای ?_0 میباشد.
در این مرحله با استفاده از روش LR آماره آزمون را بدست میآوریم. فضای پارامتری تحت فرض صفر و در حالت کلی به صورت زیر تعریف میشود:
?={(?_1,…,?_k ):?_i?R^p,i=1,…,k}
?_0={(?_1,…,?_k ):?_i=?_0?R^p, i=1,…,k}
تابع درستنمایی و لگاریتم آن به صورت زیر میباشد:
L(?_1,…,?_k )=?_(i=1)^k??_(j=1)^(n_i)??(2?)^((-p)/2) |?_i |^((-1)/2) exp{-1/2 (y_ij-?_i )^’ ?_i^(-1) (y_ij-?_i )} ?
ln??L(?_1,…,?_k )=-p/2 ?_(i=1)^k??n_i ln?(2?) ?-?_(i=1)^k??n_i/2 ln?|?_i | ??
-1/2 ?_(i=1)^k??_(j=1)^(n_i)??(y_ij-?_i )^’ ?_i^(-1) (y_ij-?_i ) ? .
فرض کنید g(?_i )=-1/2 ?_(i=1)^k??_(j=1)^(n_i)??(y_ij-?_i )^’ ?_i^(-1) (y_ij-?_i ) ? باشد. بنابراین:
?g(?_i )/(??_i )=-1/2 ?_(j=1)^(n_i)?(-2?_i^(-1) y_ij+2?_i^(-1) ?_i ) =0
پس برآورد درستنمایی ?_i به صورت زیر میباشد:
? ?_i=Y ?_i , i=1,…,k .
تحت فرض برابری بردارهای میانگین تابع درستنمایی و برآورد ماکزیمم درستنمایی ?_0 به ترتیب با روابط ( 1-3-1 ) و ( 1-3-2 ) برابر است. بنابراین آماره آزمون عبارت است از:
?=(?sup?_(?_0 ) L(?_1,…,?_k ))/(?sup?_? L(?_1,…,?_k ) )
=exp{-1/2 ?_(i=1)^k??_(j=1)^(n_i)??[y_ij (?_(i=1)^k?? ?_i^(-1) )^(-1) ?_(i=1)^k??? ?_i^(-1) y ?_i ?]^’ ?_i^(-1) [y_ij (?_(i=1)^k?? ?_i^(-1) )^(-1) ?_(i=1)^k??? ?_i^(-1) y ?_i ?] ?}/exp{-1/2 ?_(i=1)^k??_(j=1)^(n_i)??(y_ij-y ?_i )^’ ?_i^(-1) (y_ij-y ?_i ) ?}
=exp{-1/2 ?_(i=1)^k?(y ?_i^’ ? ?_i^(-1)-2y ?_i^’ ? ?_i^(-1) ? ?_0+? ?_0^’ ? ?_i^(-1) ? ?_0 ) }
=exp{-1/2 ?_(i=1)^k??(y ?_i-? ?_0 )^’ ? ?_i^(-1) (y ?_i-? ?_0 ) ?}
براساس آزمون نسبت درستنمایی فرض برابری بردارهای میانگین رد میشود اگر:
exp{-1/2 ?_(i=1)^k??(y ?_i-? ?_0 )^’ ? ?_i^(-1) (y ?_i-? ?_0 ) ?}<?_0
و یا به طور معادل
?_(i=1)^k??(y ?_i-? ?_0 )^’ ? ?_i^(-1) (y ?_i-? ?_0 ) ?>c
بنابراین آماره آزمون با فرض معلوم بودن ماتریسهای کوواریانس به صورت زیر میباشد:
?(Y ?_i;? ?_i )=?_(i=1)^k??(Y ?_i-? ?_0 )^’ ? ?_i^(-1) (Y ?_i-? ?_0 ) ?
=?_(i=1)^k?(Y ?_i^’ ? ?_i^(-1) Y ?_i-2? ?_0^’ ? ?_i^(-1) Y ?_i+? ?_0^’ ? ?_i^(-1) ? ?_0 )
برای پیدا کردن c احتیاج داریم توزیع ? را تحت فرض صفر بیابیم.
با جایگذاری برآوردگر محاسبه شده در رابطه ( 1-3-2 ) برای ?_0، آماره آزمون به صورت زیر ساده میشود:
?(Y ?_i;? ?_i )=?_(i=1)^k??Y ?_i^’ ? ?_i^(-1) Y ?_i ?-(?_(i=1)^k??? ?_i^(-1) Y ?_i ?)^’ (?_(i=1)^k?? ?_i^(-1) )^(-1) (?_(i=1)^k??? ?_i^(-1) Y ?_i ?)
=Y ?^’ ?^(-1) Y ?-Y ?^’ ?^(-1) J(J^’ ?^(-1) J)^(-1) J^’ ?^(-1) Y ?
=Y ?^’ ?^((-1)?2) [?_kp-?^((-1)?2) J(J^’ ?^(-1) J)^(-1) J^’ ?^((-1)?2) ] ?^((-1)?2) Y ? (1-3-3)
به گونهای که J=(?_p,…,?_p )_(kp×p)^’ است. فرض کنید ?=[?_kp-?^((-1)?2) J(J^’ ?^(-1) J)^(-1) J^’ ?^((-1)?2) ] باشد. با توجه به اینکه
?^((-1)?2) J(J^’ ?^(-1) J)^(-1) J^’ ?^((-1)?2) ?^((-1)?2) J(J^’ ?^(-1) J)^(-1) J^’ ?^((-1)?2)
=?^((-1)?2) J(J^’ ?^(-1) J)^(-1) J^’ ?^(-1) J(J^’ ?^(-1) J)^(-1) J^’ ?^((-1)?2)
=?^((-1)?2) J(J^’ ?^(-1) J)^(-1) J^’ ?^((-1)?2)
پس ماتریس ? یک ماتریس خودتوان است و چون متقارن نیز میباشد، با توجه به قضیه 1 پیوست
rank(?)=trace(?)=p(k-1)
از طرفی با توجه به اینکه Y ?_i~N_p (?_i,? ?_i )، نتیجه میشود که Y ?~N_kp (?,?) و بنابراین
?^((-1)?2) Y ?~N_kp (?^((-1)?2) ?,?_kp ).
بنابراین براساس قضیه 2 پیوست ?(Y ?_i;? ?_i ) دارای توزیع کای اسکور نامرکزی با درجه آزادی p(k-1) و پارامتر نامرکزیت 1/2 ?^’ ?^((-1)?2) ??^((-1)?2) ? میباشد.
پارامتر نامرکزیت توزیع کای اسکور را میتوان به صورت زیر نوشت:
1/2 ?^’ ?^((-1)?2) ??^((-1)?2) ?=1/2 ?_(i=1)^k??(?_i-?_0 )^’ ? ?_i^(-1) (?_i-?_0 ) ?
بنابراین تحت فرض برابری بردارهای میانگین آماره ?(Y ?_i;? ?_i ) توزیع کای اسکور مرکزی دارد و در نتیجه k برابر با چندک (1-?)- ام توزیع کای اسکور با درجه آزادی p(k-1) میباشد.
1-3-2- آماره آزمون تحت فرض مجهول بودن ماتریسهای کوواریانس

در این قسمت به معرفی آماره آزمون تحت فرض مجهول بودن ماتریسهای کوواریانس میپردازیم. بدین منظور در آماره ?(Y ?_i,? ?_i ) که در قسمت قبل محاسبه شد، S ?_i را جایگزین ? ?_i میکنیم تا آماره ?(Y ?_i,S ?_i ) به دست آید. فرض کنید W_i=S ?_i^(-1),i=1,…,k و W=?_(i=1)^k?W_i باشد. در این صورت برآوردگر ?_0 را به صورت زیر تعریف میکنیم:
? ?_0^*=W^(-1) ?_(i=1)^k??W_i Y ?_i ?
در نتیجه آماره آزمون عبارت است از:
?(Y ?_i;S ?_i )=?_(i=1)^k??(Y ?_i-? ?_0^* )^’ W_i (Y ?_i-? ?_0^* ) ?
=?_(i=1)^k??Y ?_i^’ W_i Y ?_i ?-(?_(i=1)^k??W_i Y ?_i ?)^’ W^(-1) (?_(i=1)^k??W_i Y ?_i ?) (1-3-4)
استفاده از آماره فوق به منظور انجام آزمون برابری بردارهای میانگین، مستلزم اطلاع از توزیع آماره ?(Y ?_i;S ?_i ) میباشد که به دلیل مشکل بودن یافتن توزیع آماره فوق، از آزمونهای تقریبی که در فصلهای آینده معرفی خواهد شد، استفاده میکنیم.
فصل دوم: مقایسه بردارهای میانگین دو جامعه نرمال
مقایسه بردارهای میانگین دو جامعه نرمال
در این فصل به منظور آشنایی بیشتر با مفاهیم گفته شده در فصل اول، به بررسی آزمونهای مربوط به برابری بردارهای میانگین دو جامعه نرمال میپردازیم.
فرض کنید Y_i1,…,Y_(?in?_i ) یک نمونه تصادفی از توزیع نرمال p – متغیره با بردار میانگین ?_i و ماتریس کوواریانس ?_i , i=1,2 باشد. همچنین فرض کنید Y ?_i و S_i به ترتیب نشان دهنده بردار میانگین و ماتریس کوواریانس نمونهای باشند. یعنی:
Y ?_i=1/n_i ?_(j=1)^(n_i)??Y_ij , S_i=1/(n_i-1) ?_(j=1)^(n_i)??(Y_ij-Y ?_i ) (Y_ij-Y ?_i )^’ , i=1,2??
آزمون زیر را درنظر بگیرید:
?_0:?_1=?_2 vs ?_a:?_1??_2
2-1- آزمون ?^2- هتلینگ زمانیکه ?_1=?_2

در این بخش از روش نسبت درستنمایی به منظور به دست آوردن آماره آزمون استفاده میکنیم.
فضای پارامتری تحت فرض صفر و در حالت کلی به صورت زیر تعریف میشود:
?={(?_1,?_2,?):?_i?R^p,i=1,2 , ? is a positive definite matrix}
?_0={(?_1,?_2,?):?_1=?_2=??R^p , ? is a positive definite matrix}
تابع درستنمایی به صورت زیر میباشد:
L(?_1,?_2,?)=?_(i=1)^2??_(j=1)^(n_i)??(2?)^((-p)/2) |?|^((-1)/2) exp{-1/2 (y_ij-?_i )^’ ?^(-1) (y_ij-?_i )} ?
=?_(i=1)^2??(2?)^((-pn_i)/2) |?|^((-n_i)/2) exp{-1/2 ?_(j=1)^(n_i)??(y_ij-?_i )^’ ?^(-1) (y_ij-?_i ) ?} ?
بنابراین برآورد درستنمایی ?_i و ? به صورت زیر میباشد:
? ?_i=Y ?_i , i=1,2 , ? ?=1/(n_1+n_2 ) ?_(i=1)^2??_(j=1)^(n_i)??(Y_ij-Y ?_i ) (Y_ij-Y ?_i )^’ ?
در نتیجه
?sup?_? L(?_1,?_2,?)=(2?)^((-(n_1+n_2 )p)/2) |? ? |^((-(n_1+n_2 ))/2) exp{(-(n_1+n_2 )p)/2}
اگر ?_1=?_2=? باشد، آنگاه
L(?_1,?_2,?)=?_(i=1)^2??(2?)^((-pn_i)/2) |?|^((-n_i)/2) exp{-1/2 ?_(j=1)^(n_i)??(y_ij-?)^’ ?^(-1) (y_ij-?) ?} ?
در این حالت برآورد درستنمایی ? و ? به صورت زیر میباشد:
? ?=(n_1 Y ?_1+n_2 Y ?_2)/(n_1+n_2 )=(?_(i=1)^2??n_i Y ?_i ?)/(n_1+n_2 ) , ? ?_0=1/(n_1+n_2 ) ?_(i=1)^2??_(j=1)^(n_i)??(y_ij-? ? ) (y_ij-? ? )^’ ?
در نتیجه
?sup?_(?_0 ) L(?_1,?_2,?)=(2?)^((-(n_1+n_2 )p)/2) |? ?_0 |^((-(n_1+n_2 ))/2) exp{(-(n_1+n_2 )p)/2}
در این صورت آماره آزمون عبارت است از:
?=(?sup?_(?_0 ) L(?_1,?_2,?))/(?sup?_? L(?_1,?_2,?) )=|? ?_0 |^((-(n_1+n_2 ))/2)/|? ? |^((-(n_1+n_2 ))/2) =|C|^((n_1+n_2)/2)/|C+(n_1 n_2)/(n_1+n_2 ) (Y ?_1-Y ?_2 ) (Y ?_1-Y ?_2 )^’ |^((n_1+n_2)/2)
به گونهای که C=?_(i=1)^2??_(j=1)^(n_i)??(Y_ij-Y ?_i ) (Y_ij-Y ?_i )^’ ? میباشد.
براساس آزمون نسبت درستنمایی فرض برابری بردارهای میانگین رد میشود اگر:
|C|^((n_1+n_2)/2)/|C+(n_1 n_2)/(n_1+n_2 ) (Y ?_1-Y ?_2 ) (Y ?_1-Y ?_2 )^’ |^((n_1+n_2)/2) <?_0
و یا به طور معادل
|C|/|C+(n_1 n_2)/(n_1+n_2 ) (Y ?_1-Y ?_2 ) (Y ?_1-Y ?_2 )^’ | <?_1
براساس قضیه 3 پیوست
|C+(n_1 n_2)/(n_1+n_2 ) (Y ?_1-Y ?_2 ) (Y ?_1-Y ?_2 )^’ |
=|C+{?((n_1 n_2)/(n_1+n_2 )) (Y ?_1-Y ?_2 )} {?((n_1 n_2)/(n_1+n_2 )) (Y ?_1-Y ?_2 )}^’ |
=|C|(1+{?((n_1 n_2)/(n_1+n_2 )) (Y ?_1-Y ?_2 )}^’ C^(-1) {?((n_1 n_2)/(n_1+n_2 )) (Y ?_1-Y ?_2 )})
=|C|(1+(n_1 n_2)/(n_1+n_2 ) (Y ?_1-Y ?_2 )^’ C^(-1) (Y ?_1-Y ?_2 ))
با توجه به مطالب فوق آماره آزمون را میتوان به صورت زیر نوشت:
?=1/(1+(n_1 n_2)/(n_1+n_2 ) (Y ?_1-Y ?_2 )^’ C^(-1) (Y ?_1-Y ?_2 ) )=1/(1+(n_1 n_2)/(n_1+n_2 ) (Y ?_1-Y ?_2 )^’ (1/(n_1+n_2-2)) S_p^(-1) (Y ?_1-Y ?_2 ) )
=1/(1+?^2/(n_1+n_2-2))
به گونهای که
S_p=1/(n_1+n_2-2) ?_(i=1)^2??_(j=1)^(n_i)??(Y_ij-Y ?_i ) (Y_ij-Y ?_i )^’ ?=((n_1-1) S_1+(n_2-1) S_2)/(n_1+n_2-2)
و
?^2=(n_1 n_2)/(n_1+n_2 ) (Y ?_1-Y ?_2 )^’ S_p^(-1) (Y ?_1-Y ?_2 ) (2-1-1)
فرض برابری بردارهای میانگین رد میشود اگر:
1+?^2/(n_1+n_2-2)>?_2
و یا به صورت معادل
?^2>c .
مقدار ثابت c را به گونهای تعیین میکنیم که P_(?_0 ) (?^2>c)=? باشد. بدین منظور باید از توزیع ?^2 اطلاع داشته باشیم.
قضیه 2-1-1: فرض کنید ?^2=Y^’ S^(-1) Y باشد به گونهای که Y~N_p (?,?) و nS~W_p (n,?). در این صورت ?^2 (n-p+1)/np توزیع ? نامرکزی با درجات آزادی p و n-p+1 و پارامتر نامرکزیت ?^’ ?^(-1) ? دارد. اگر ?=0 باشد، ?^2 (n-p+1)/np دارای توزیع ? مرکزی است.
اثبات: به پیوست مراجعه شود.
نتیجه 2-1-1: براساس قضیه 2-1-1 و با توجه به اینکه
(n_1+n_2-2) S_p=(n_1-1) S_1+(n_2-1) S_2~W_p (n_1+n_2-2,?)
برای آماره معرفی شده در رابطه 2-1-1 تحت فرض ?_0:?_1=?_2 میتوان گفت ?^2 (n_1+n_2-1-p)/(n_1+n_2-2)p دارای توزیع ? مرکزی با درجات آزادی p و n_1+n_2-1-p است.
بنابراین مقدار ثابت c را به صورت زیر تعیین میکنیم:
P_(?_0 ) (?^2>c)=P_(?_0 ) (?^2 (n_1+n_2-1-p)/(n_1+n_2-2)p>c (n_1+n_2-1-p)/(n_1+n_2-2)p)
=P_(?_0 ) (?_((p,n_1+n_2-1-p) )>c (n_1+n_2-1-p)/(n_1+n_2-2)p)=?
بنابراین
c= (n_1+n_2-2)p/(n_1+n_2-1-p) ?_((p,n_1+n_2-1-p;1-?) )
در نتیجه فرض برابری بردارهای میانگین رد میشود اگر:
?^2>(n_1+n_2-2)p/(n_1+n_2-1-p) ?_((p,n_1+n_2-1-p;1-?) ) (2-1-2)
2-2- آزمون برابری ماتریسهای کوواریانس

برای اینکه آزمون گفته شده در بخش قبل معتبر باشد بایستی فرض برابری ماتریسهای کوواریانس برقرار باشد. بنابراین ابتدا با استفاده از روش نسبت درستنمایی فرض
?_0:?_1=?_2 vs ?_a:?_1??_2
را آزمون میکنیم.( Muirhead, 2005, p.291 )
فضای پارامتری تحت فرض صفر و در حالت کلی عبارت است از:
?={(?_1,?_2,?_1,?_2 ):?_i?R^p , ?_i is positive definite , i=1,2}
?_0={(?_1,?_2,?_1,?_2 ):?_i?R^p , ?_i=? is positive definite , i=1,2}
تابع درستنمایی عبارت است از:
L(?_1,?_2,?_1,?_2 )=?_(i=1)^2??(2?)^((-pn_i)/2) |?_i |^((-n_i)/2) exp{-1/2 ?_(j=1)^(n_i)??(y_ij-?_i )^’ ?_i^(-1) ?? ?
? (y_ij-?_i )}
بنابراین برآورد ماکزیمم درستنمایی ?_i و ?_i به صورت زیر میباشد:
? ?_i=Y ?_i , ? ?_i=1/n_i ?_(j=1)^(n_i)??(Y_ij-Y ?_i ) (Y_ij-Y ?_i )^’ ?=1/n_i A_i , i=1,2
در نتیجه
?sup?_? L(?_1,?_2,?_1,?_2 )=(2?)^((-(n_1+n_2 )p)/2) |? ?_1 |^((-n_1)/2) |? ?_2 |^((-n_2)/2) exp{(-(n_1+n_2 )p)/2}
اگر ?_1=?_2=? باشد، آنگاه
L(?_1,?_2,?,?)=?_(i=1)^2??(2?)^((-pn_i)/2) |?|^((-n_i)/2) exp{-1/2 ?_(j=1)^(n_i)??(y_ij-?_i )^’ ?^(-1) ?? ?
? (y_ij-?_i )}
بنابراین برآورد ماکزیمم درستنمایی ?_i و ? تحت فرض صفر به صورت زیر میباشد:
?? ?_i0=? ??_i=Y ?_i , i=1,2
? ?=1/(n_1+n_2 ) ?_(i=1)^2??_(j=1)^(n_i)??(Y_ij-Y ?_i ) (Y_ij-Y ?_i )^’=1/(n_1+n_2 ) (A_1+A_2 )=1/(n_1+n_2 ) A?
بنابراین
?sup?_(?_0 ) L(?_1,?_2,?,?)=(2?)^((-(n_1+n_2 )p)/2) |? ? |^((-(n_1+n_2 ))/2) exp{(-(n_1+n_2 )p)/2}
در نتیجه آماره آزمون عبارت است از:
?=(?sup?_(?_0 ) L(?_1,?_2,?,?))/(?sup?_? L(?_1,?_2,?_1,?_2 ) )=(|? ?_1 |^(n_1/2) |? ?_2 |^(n_2/2))/|? ? |^((n_1+n_2)/2) =((1/n_1 )^((pn_1)/2) |A_1 |^(n_1/2) (1/n_2 )^((pn_2)/2) |A_2 |^(n_2/2))/((1/(n_1+n_2 ))^(p(n_1+n_2 )/2) |A_1+A_2 |^((n_1+n_2)/2) )
=(n_1+n_2 )^(p(n_1+n_2 )/2)/((n_1 )^((pn_1)/2) (n_2 )^((pn_2)/2) ) (|A_1 |^(n_1/2) |A_2 |^(n_2/2))/|A_1+A_2 |^((n_1+n_2)/2)
بنابراین براساس آزمون نسبت درستنمایی فرض برابری ماتریسهای کوواریانس رد میشود اگر:
?=(n_1+n_2 )^(p(n_1+n_2 )/2)/((n_1 )^((pn_1)/2) (n_2 )^((pn_2)/2) ) (|A_1 |^(n_1/2) |A_2 |^(n_2/2))/|A_1+A_2 |^((n_1+n_2)/2) <?_0
و یا به صورت معادل
V=?^2 ((n_1 )^(pn_1 ) (n_2 )^(pn_2 ))/(n_1+n_2 )^p(n_1+n_2 ) =(|A_1 |^(n_1 ) |A_2 |^(n_2 ))/|A_1+A_2 |^(n_1+n_2 ) <c
قضیه 2-2-1: برای آزمون ?_0:?_1=?_2 در مقابل ?_a:?_1??_2، آزمون نسبت درستنمایی با ناحیه بحرانی بفرم V<c اریب است. (یک آزمون اریب است اگر توان آزمون کمتر از خطای نوع اولش باشد.)
اثبات: به منظور اثبات قضیه فوق فرض کنید ?_2=?_p و ?_1=? باشد به گونهای که ? یک ماتریس قطری است. در حالت خاص فرض کنید ماتریس ? به صورت ?=diag(?,1,…,1) باشد. همچنین ماتریسهای A_1 و A_2 را به صورت A_1=(a_ij^((1) ) ) و A_2=(a_ij^2 ) در نظر بگیرید. در این صورت
|A_1 |=a_11^((1) ) |A_22^((1) )-(a_1^((1) ) a_1^'(1) )/(a_11^((1) ) )| , |A_2 |=a_11^((2) ) |A_22^((2) )-(a_1^((2) ) a_1^'(2) )/(a_11^((2) ) )|
و
|A_1+A_2 |=(a_11^((1) )+a_11^((2) ) )|A_22^((1) )+A_22^((2) )-(a_1^((1) )+a_1^((2) ) )(a_1^'(1) +a_1^'(2) )/(a_11^((1) )+a_11^((2) ) )| .
بنابراین آماره V را میتوان به صورت زیر نوشت:
V=((a_11^((1) ) )^(n_1 ) (a_11^((2) ) )^(n_2 ))/(a_11^((1) )+a_11^((2) ) )^(n_1+n_2 ) Z
به گونهای که Z=(|A_22^((1) )-(a_1^((1) ) a_1^'(1) )/(a_11^((1) ) )|^(n_1 ) |A_22^((2) )-(a_1^((2) ) a_1^'(2) )/(a_11^((2) ) )|^(n_2 ))/|A_22^((1) )+A_22^((2) )-(a_1^((1) )+a_1^((2) ) )(a_1^'(1) +a_1^'(2) )/(a_11^((1) )+a_11^((2) ) )|^(n_1+n_2 ) است. در این صورت متغیر تصادفی Z از فاکتور اول در آماره V مستقل است و توزیعش به ? بستگی ندارد.زیرا به عنوان مثال فرض کنید A_22.1^((1) )=A_22^((1) )-(a_1^((1) ) a_1^'(1) )/(a_11^((1) ) ) و ?_1=[?(?&0^’@0&?_(p-1) )] باشند. در این صورت ?_22.1=?_(p-1) است و طبق قضیه 4 پیوست
A_22.1^((1) )~W_p (n-1,?_(p-1) )
و همچنین A_22.1^((1) ) از a_11^((1) ) نیز مستقل است.
متغیر تصادفی Y را به صورت Y=(a_11^((1) ))/(a_11^((2) ) ) در نظر بگیرید. در این صورت (?^(-1) (n_2-1)Y)/(n_1-1) توزیع ? با درجات آزادی n_1-1 و n_2-1 است. همچنین فاکتور اول آماره V را میتوان به صورت Y^(n_1 )/(1+Y)^(n_1+n_2 ) نوشت. بنابراین براساس لم 1 پیوست، یک عدد ثابت ? (?<1) وجود دارد بطوریکه
P( Y^(n_1 )/(1+Y)^(n_1+n_2 ) <k??^(-1) )<P( Y^(n_1 )/(1+Y)^(n_1+n_2 ) <k??^(-1)=1) , ??^(-1)?(?,1)
به دلیل کاستی آزمون نسبت درستنمایی بیان شده، بارتلت ( Bartlett ) در سال 1937 آماره آزمون اصلاح شده را به صورت زیر پیشنهاد داد. این آماره برای حالت i=2 عبارت است از:
?^*=(|A_1 |^((n_1-1)/2) |A_2 |^((n_2-1)/2))/|A_1+A_2 |^((n_1+n_2-2)/2) (n_1+n_2-2)^(p(n_1+n_2-2)/2)/((n_1-1)^(p(n_1-1)/2) (n_2-1)^(p(n_2-1)/2) )
و یا
V^*=?^* ((n_1-1)^(p(n_1-1)/2) (n_2-1)^(p(n_2-1)/2))/(n_1+n_2-2)^(p(n_1+n_2-2)/2) =(|A_1 |^((n_1-1)/2) |A_2 |^((n_2-1)/2))/|A_1+A_2 |^((n_1+n_2-2)/2)
قضیه 2-2-2: برای آزمون ?_0:?_1=?_2 در مقابل ?_a:?_1??_2 آزمون نسبت درستنمایی اصلاح شده با ناحیه بحرانی بفرم V^*<k نااریب است. (اثبات: Muirhead, 2005, p.299)
2-2-1- توزیع مجانبی آماره ?^*
در این قسمت توزیع مجانبی آماره ?^*، زمانیکه اندازه نمونه بزرگ است را به دست میآوریم. بدین منظور فرض کنید
n_i-1=k_i (n_1+n_2-2) , i=1,2
باشد به گونهای که k_1+k_2=1 است. همان طور که از قبل میدانیم، تحت فرض صفر(برابری ماتریسهای کوواریانس)، برای اندازه نمونه بزرگ، -2 log???^* ? دارای توزیع کای اسکور با درجه آزادی برابر با تفاضل تعداد پارامترهای مستقل در فضای پارامتری و تعداد پارامترهای مستقل تحت فرض صفر، دارد. یعنی درجه آزادی f برابر است با:
f=2[p+p+1/2 (p^2-p)]-[2p+p+1/2 (p^2-p)]=1/2 p(p-1)
حال در این قسمت تعدیلی از آماره قبل یعنی -2? log???^* ? را در نظر میگیریم و ? را در ادامه معرفی میکنیم. برای بیان توزیع مجانبی، ابتدا حالت کلی را بررسی میکنیم و سپس حالت خاص یعنی توزیع مجانبی ?^* را مورد مطالعه قرار میدهیم. ( Muirhead, 2005, p.303 )

متغیر تصادفی Z , (0?Z?1) با گشتاورهایی بفرم زیر را در نظر بگیرید:
?(Z^h )=K[(?_(j=1)^m?y_j^(y_j ) )/(?_(k=1)^q?x_k^(x_k ) )]^h (?_(k=1)^q??[x_k (1+h)+?_k ] )/(?_(j=1)^m??[y_j (1+h)+?_j ] ) (2-2-1)
جاییکه
?_(j=1)^m?y_j =?_(k=1)^q?x_k (2-2-2)
و K یک عدد ثابت است به گونهای که ?(Z^0 )=1 است. با توجه به رابطه (2-2-1) تابع مشخصه -2? log?Z زمانیکه 0???1 است برابر است با
?(t)=?[exp(-2it? log?Z )]=K[(?_(j=1)^m?y_j^(y_j ) )/(?_(k=1)^q?x_k^(x_k ) )]^(-2it?) (?_(k=1)^q??[x_k (1-2it?)+?_k ] )/(?_(j=1)^m??[y_j (1-2it?)+?_j ] )
فرض کنید
?_k=(1-?) x_k , ?_j=(1-?) y_j (2-2-3)
باشد. تابع مولد انباشتک (Cumulant generating function) -2? log?Z عبارت است از:
?(t)=log???(t)=g(t)-g(0)? (2-2-4)
به گونهای که
g(t)=2it?[?_(k=1)^q??x_k log??x_k ? ?-?_(j=1)^m??y_j log??y_j ? ?]+?_(k=1)^q?log??[?x_k (1-2it)+?
? ?_k+?_k ]-?_(j=1)^m?log??[?y_j (1-2it)+?_j+?_j ]
و -g(0)=log?K است. حال بسط تابع لگاریتم گاما را به صورت زیر در نظر بگیرید:
log??(z+a)=(z+a-1/2) log?z-z+1/2 log?2?+(B_2 (a))/(1×2) z^(-1)+…
+(-1)^(l+1) (B_(l+1) (a))/l(l+1) z^(-1)+?(z^(-l-1) ) (l=1,2,…,|argz|<?) (2-2-5)
در رابطه ( 2-2-5 )، B_j (a) چند جملهای برنولی از درجه j است که به صورت ضریب z^j/j! در بسط ze^az (e^z-1)^(-1) تعریف میشود. یعنی
ze^az (e^z-1)^(-1)=?_(j=0)^???B_j (a) z^j/j!? (|z|<2?) (2-2-6)
بنابراین با استفاده از روابط گفته شده، ?(t) به صورت زیر نوشته میشود:
?(t)=-1/2 f log?(1-2it)+?_(?=1)^l???_? [(1-2it)^(-?)-1] ?+?(n^(-l-1) )
(2-2-7)
جاییکه
f=-2[?_(k=1)^q??_k -?_(j=1)^m??_j -1/2 (q-m)] (2-2-8)
و
?_?=(-1)^?/?(?+1) [?_(k=1)^q?(B_(?+1) (?_k+?_k ))/(?x_k )^? -?_(j=1)^m?(B_(?+1) (?_j+?_j ))/(?y_j )^? ] (2-2-9)
با در نظر گرفتن l=1 و با توجه به اینکه B_2 (a)=a^2-a+1/6 میباشد، تابع مولد انباشتک -2? log?Z به صورت زیر محاسبه میشود:
?(t)=-1/2 f log?(1-2it)+?_1 [(1-2it)^(-1)-1]+?(n^(-2) )
به گونهای که f در رابطه ( 2-2-8 ) صدق میکند و
?_1=1/2? {-(1-?)f+?_(k=1)^q??x_k^(-1) (?_k^2-?_k+1/6) ?-?_(j=1)^m??y_j^(-1) (?_j^2-?_j+1/6) ?}
میباشد. حال فرض کنید ? را به صورت زیر در نظر بگیریم:
?=1-1/f [?_(k=1)^q??x_k^(-1) (?_k^2-?_k+1/6) ?-?_(j=1)^m??y_j^(-1) (?_j^2-?_j+1/6) ?] (2-2-10)
در این صورت ?_1=0 است و در نتیجه ?(t)=-1/2 f log??(1-2it)+?(n^(-2) )? میباشد. بنابراین با توجه به اینکه ?(t)=(1-2it)^(-1/2 f)+?(n^(-2) ) است، نتیجه میگیریم:
P[-2? log?Z<x]=P[?_f^2?x]+?(n^(-2) ) (2-2-11)
اگر l=2 باشد، مشابه قبل با استفاده از رابطه ( 2-2-7 ) تابع مولد انباشتک عبارت است از:
?(t)=-1/2 f log?(1-2it)+?_2 [(1-2it)^(-2)-1]+?(n^(-3) )
و در نتیجه
P[-2? log?Z<x]+P[?_f^2?x]+?_2 [P(?_(f+4)^2?x)-P(?_f^2?x)]+
?(n^(-3) ) (2-2-12)
حال به بررسی توزیع مجانبی ?^* در آزمون ?_0:?_1=?_2 میپردازیم. با توجه به قضیه 5 پیوست، تحت فرض صفر گشتاور h- ام آماره ?^* عبارت است از:
?(?^(*^h ) )=(n_1+n_2-2)^(ph(n_1+n_2-2)/2)/((n_1-1)^(ph(n_1-1)/2) (n_2-1)^(ph(n_2-1)/2) ) ?(V^(*^h ) )
K[(?_(j=1)^p?[1/2 (n_1+n_2-2)]^(((n_1+n_2-2))/2) )/(?_(j=1)^p??_(i=1)^2?[1/2 (n_1+n_2-2) k_i ]^(((n_1+n_2-2) k_i)/2) )]^h (?_(i=1)^2??_(j=1)^p??[1/2 (n_1+n_2-2) k_i (1+h)-1/2 (j-1)] )/(?_(j=1)^p??[1/2 (n_1+n_2-2)(1+h)-1/2 (j-1)] )
(2-2-13)
اگر رابطه فوق را با رابطه ( 2-2-1 ) مقایسه کنیم، متوجه میشویم که m=p، q=2p، y_j=1/2 (n_1+n_2-2)، ?_j=-1/2 (j-1)، x_k=1/2 (n_1+n_2-2) k_i برای k=(i-1)m+1,…,im(i=1,2) و ?_k=-1/2 (j-1) برای
k=j,p+j(j=1,…,p) است.
با استفاده از رابطه ( 2-2-8 )، f=1/2 p(p+1) به دست میآید که با مقدار f که در ابتدای بحث به دست آوردیم برابر است. همچنین با استفاده از رابطه ( 2-2-10 )
?=1-(2p^2+3p-1)/6(n_1+n_2-2)(p+1) ((n_1+n_2-2)/(n_1-1)+(n_1+n_2-2)/(n_2-1)-1) (2-2-14)
به دست میآید. با توجه به روابط ( 2-2-12 ) و ( 2-2-9 ) و چند جملهای برنولی، ?_2 عبارت است از:
?_2=p(p+1)/(48[(n_1+n_2-2)?]^2 ) {(p-1)(p-2)((n_1+n_2-2)^2/(n_1-1)^2 +(n_1+n_2-2)^2/(n_2-1)^2 -1)-?
? 6(n_1+n_2-2)^2 (1-?)^2 } (2-2-15)
حال M و ? را به صورت زیر تعریف میکنیم:
M=?(n_1+n_2-2)=(n_1+n_2-2)-(2p^2+3p-1)/6(p+1) ((n_1+n_2-2)/(n_1-1)+(n_1+n_2-2)/(n_2-1)-1) (2-2-16)
?=M^2 ?_2=p(p+1)/48 {(p-1)(p-2)((n_1+n_2-2)^2/(n_1-1)^2 +(n_1+n_2-2)^2/(n_2-1)^2 -1)-?
? 6(n_1+n_2-2)^2 (1-?)^2 } (2-2-17)
فرض کنید W=-2? log???^* ? و W_0 مقدار مشاهده شده W باشد.
قضیه 2-2-3: در صورت درست بودن فرض ?_0:?_1=?_2، توزیع W با فرض بزرگ بودن M عبارت است از:
P(W?W_0 )=P(?_f^2?W_0 )+?/M^2 [P(?_(f+4)^2?W_0 )-P(?_f^2?W_0 )]+
?(M^(-3) )
به گونهای که ? و M به ترتیب در روابط ( 2-2-17 ) و ( 2-2-16 ) تعریف شدهاند و f=1/2 p(p+1) میباشد.
اثبات: با توجه به روابط ( 2-2-12 ) و ( 2-2-17 ) قضیه فوق به راحتی اثبات میشود.
همان طور که در قضیه ( 2-2-2 ) گفته شد، آزمون نسبت درستنمایی اصلاح شده با ناحیه بحرانی بفرم (?^*<k) V^*<k نااریب است. از طرفی با توجه به تعریف آماره W نتیجه میگیریم فرض ?_0:?_1=?_2 برای مقادیر بزرگ W رد میشود. بنابراین براساس قضیه 6 پیوست، p – مقدار عبارت است از:
p-value=P_(?_0 ) (W?W_0 )=1-P_(?_0 ) (W?W_0 )
=1-P(?_f^2?W_0 )-?/M^2 [P(?_(f+4)^2?W_0 )-P(?_f^2?W_0 )] (2-2-18)
بنابراین اگر p – مقدار فوق از سطح معنی داری ? کمتر باشد، فرض برابری ماتریسهای کوواریانس رد میشود.
2-3- آزمون MNV

در این بخش به معرفی یکی از آزمونهای تقریبی برای فرض برابری بردارهای میانگین دو جامعه نرمال چند متغیره زمانی که ماتریسهای کوواریانس برابر نیستند میپردازیم.
آزمون اصلاح شده نل و وان در مرو که به اختصار با نماد MNV نشان میدهیم در سال 1986 براساس فرم درجه دوم (Y ?_1-Y ?_2 )^’ ? ?^(-1) (Y ?_1-Y ?_2 ) ارائه شد که در آن ? ? یک برآوردگر برای Cov(Y ?_1-Y ?_2 )=1/n_1 ?_1+1/n_2 ?_2 میباشد. اگر از برآوردگر نااریب S ?_i=1/n_i S_i , i=1,2 برای ? ?_i=1/n_i ?_i , i=1,2 استفاده کنیم، آماره آزمون عبارت است از:
?_u^2=(Y ?_1-Y ?_2 )^’ (S ?_1+S ?_2 )^(-1) (Y ?_1-Y ?_2 ) (2-3-1)
2-3-1- توزیع آماره ?_u^2

در این قسمت توزیع آماره ?_u^2 را به دست میآوریم.
براساس مطالب بیان شده در فصل اول، تحت فرض برابری بردارهای میانگین، Y ?_1-Y ?_2 دارای توزیع N_p (0,? ? ) و S ?_i دارای توزیع W_p (n_i-1, 1/(n_i-1) ? ?_i ) است، به گونهای که ? ?=? ?_1+? ?_2 میباشد.
بنابراین تحت فرض برابری بردارهای میانگین
Z=? ?^((-1)?2) (Y ?_1-Y ?_2 )~N_p (0,?_p )
بنابراین
Y ?_1-Y ?_2=? ?^(1?2) Z
در نتیجه آماره ?_u^2 را میتوان به صورت زیر نوشت:


پاسخ دهید