meta data for this page
문서의 이전 판입니다!
이원배치법 (모수모형) (반복 있음)
데이터 구조
자료의 구조
||<|2> [인자] B |||||||||||||| [인자] A ||<|2> 합계 ||<|2> [평균] || |||| A1 |||| A2 || ⋯ |||| Al || |||||||||||||||||||| || ||<|4> B1 || y111 ||<|2> T11. || y211 ||<|2> T21. ||<|4> ⋯ || yl11 ||<|2> Tl1. ||<|4> T.1. ||<|4> ¯y.1. || || y112 || y212 || yl12 || || ⋮ ||<|2> ¯y11. || ⋮ ||<|2> ¯y21. || ⋮ ||<|2> ¯yl1. || || y11r || y21r || yl1r || ||<|4> B2 || y121 ||<|2> T12. || y221 ||<|2> T22. ||<|4> ⋯ || yl21 ||<|2> Tl2. ||<|4> T.2. ||<|4> ¯y.2. || || y122 || y222 || yl22 || || ⋮ ||<|2> ¯y12. || ⋮ ||<|2> ¯y22. || ⋮ ||<|2> ¯yl2. || || y12r || y22r || yl2r || || ⋮ |||| ⋮ |||| ⋮ || ⋮ |||| ⋮ || ⋮ || ⋮ || ||<|4> Bm || y1m1 ||<|2> T1m. || y2m1 ||<|2> T2m. ||<|4> ⋯ || ylm1 ||<|2> Tlm. ||<|4> T.m. ||<|4> ¯y.m. || || y1m2 || y2m2 || ylm2 || || ⋮ ||<|2> ¯y1m. || ⋮ ||<|2> ¯y2m. || ⋮ ||<|2> ¯ylm. || || y1mr || y2mr || ylmr || |||||||||||||||||||| || || 합계 |||| T1.. |||| T2.. || ⋯ |||| Tl.. || T || || || [평균] |||| ¯y1.. |||| ¯y2.. || ⋯ |||| ¯yl.. || || ¯¯y ||
|| $$T_{i..} = \sum_{j=1}^{m} \sum_{k=1}^{r} y_{ijk}$$ || $$\overline{y}_{i..} = \frac{T_{i..}}{mr}$$ || || $$T_{.j.} = \sum_{i=1}^{l} \sum_{k=1}^{r} y_{ijk}$$ || $$\overline{y}_{.j.} = \frac{T_{.j.}}{lr}$$ || || $$T_{ij.} = \sum_{k=1}^{r} y_{ijk}$$ || $$\overline{y}_{ij.} = \frac{T_{ij.}}{r}$$ || || $$T = \sum_{i=1}^{l} \sum_{j=1}^{m} \sum_{k=1}^{r} y_{ijk}$$ || $$\overline{\overline{y}} = \frac{T}{lmr} = \frac{T}{N}$$ || || $$N = lmr$$ || $$CT = \frac{T^{2}}{lmr} = \frac{T^{2}}{N}$$ ||
제곱합
개개의 데이터 yijk와 총평균 ¯¯y의 차이는 다음과 같이 네 부분으로 나뉘어진다.
(yijk−¯¯y)=(yi..−¯¯y)+(y.j.−¯¯y)+(¯yij.−¯yi..−¯y.j.+¯¯y)+(yijk−¯yij.)
양변을 제곱한 후에 모든 i, j, k에 대하여 합하면 아래의 등식을 얻을 수 있다.
\begin{displaymath}\begin{split} \sum_{i=1}^{l}\sum_{j=1}^{m}\sum_{k=1}^{r}(y_{ijk}-\overline{\overline{y}})^{2} &= \sum_{i=1}^{l}\sum_{j=1}^{m}\sum_{k=1}^{r}(y_{i..}-\overline{\overline{y}})^{2}+\sum_{i=1}^{l}\sum_{j=1}^{m}\sum_{k=1}^{r}(y_{.j.}-\overline{\overline{y}})^{2}+\sum_{i=1}^{l}\sum_{j=1}^{m}\sum_{k=1}^{r}(\overline{y}_{ij.}-\overline{y}_{i..}-\overline{y}_{.j.}+\overline{\overline{y}})^{2} \\ &+ \sum_{i=1}^{l}\sum_{j=1}^{m}\sum_{k=1}^{r}(y_{ijk}-\overline{y}_{ij.})^{2} \end{split}\end{displaymath} 위 식에서 왼쪽 항은 [[총변동]] ST이고, 오른쪽 항은 차례대로 A의 [[변동]], B의 [[변동]], A, B의 [[교호작용]]의 변동 [[오차변동]]인 SA, SB, SA×B, SE가 된다.
\begin{displaymath}\begin{split} S_{T} &= \sum_{i=1}^{l}\sum_{j=1}^{m}\sum_{k=1}^{r}(y_{ijk}-\overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l}\sum_{j=1}^{m}\sum_{k=1}^{r}y_{ijk}^{ \ 2} - CT \end{split}\end{displaymath} \begin{displaymath}\begin{split} S_{A} &= \sum_{i=1}^{l}\sum_{j=1}^{m}\sum_{k=1}^{r}(y_{i..}-\overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l}\frac{T_{i..}^{ \ 2}}{mr}-CT \end{split}\end{displaymath} \begin{displaymath}\begin{split} S_{B} &= \sum_{i=1}^{l}\sum_{j=1}^{m}\sum_{k=1}^{r}(y_{.j.}-\overline{\overline{y}})^{2} \\ &= \sum_{j=1}^{m}\frac{T_{.j.}^{ \ 2}}{lr}-CT \end{split}\end{displaymath} \begin{displaymath}\begin{split} S_{A \times B} &= \sum_{i=1}^{l}\sum_{j=1}^{m}\sum_{k=1}^{r}(\overline{y}_{ij.}-\overline{y}_{i..}-\overline{y}_{.j.}+\overline{\overline{y}})^{2} \\ &= S_{AB} - S_{A} - S_{B} \end{split}\end{displaymath} \begin{displaymath}\begin{split} S_{AB} &= \sum_{i=1}^{l}\sum_{j=1}^{m}\sum_{k=1}^{r}(\overline{y}_{ij.}-\overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l}\sum_{j=1}^{m} \frac{T_{ij.}^{ \ 2}}{r} -CT \end{split}\end{displaymath} \begin{displaymath}\begin{split} S_{E} &= \sum_{i=1}^{l}\sum_{j=1}^{m}\sum_{k=1}^{r}(y_{ijk}-\overline{y}_{ij.})^{2} \\ &= S_{T}-S_{AB} \end{split}\end{displaymath} ===== 자유도 ===== νA=l−1 νB=m−1 νA×B=νAB−νA−νB=(l−1)(m−1) νAB=lm−1 νE=νT−νAB=lm(r−1) νT=lmr−1=N−1 ===== 평균제곱 ===== VA=SAνA VB=SBνB VA×B=SA×BνA×B VAB=SABνAB VE=SEνE ===== 평균제곱의 기대값 ===== E(VA)=σ 2E+mrσ 2A E(VB)=σ 2E+lrσ 2B E(VA×B)=σ 2E+rσ 2A×B E(VE)=σ 2E ===== 분산분석표 ===== || '''[인자]''' || '''[제곱합]''' SS || '''[자유도]''' DF || '''[평균제곱]''' MS || E(MS) || F0 || '''기각치''' || '''[순변동]''' S´ || '''[기여율]''' \rho || |||||||||||||||||| || || A || S_{_{A}} || \nu_{_{A}} = l - 1 || V_{_{A}} = S_{_{A}} / \nu_{_{A}} || \sigma_{_{E}}^{ \ 2} + m r \ \sigma_{_{A}}^{ \ 2} || V_{_{A}}/V_{_{E}} || F_{1-\alpha}(\nu_{_{A}} \ , \ \nu_{_{E}}) || S_{_{A}}\acute{} || S_{_{A}}\acute{} / S_{_{T}} || || B || S_{_{B}} || \nu_{_{B}} = m - 1 || V_{_{B}} = S_{_{B}} / \nu_{_{B}} || \sigma_{_{E}}^{ \ 2} + l r\ \sigma_{_{B}}^{ \ 2} || V_{_{B}}/V_{_{E}} || F_{1-\alpha}(\nu_{_{B}} \ , \ \nu_{_{E}}) || S_{_{B}}\acute{} || S_{_{B}}\acute{} / S_{_{T}} || || A \times B || S_{_{A \times B}} || \nu_{_{A \times B}} = (l - 1)(m - 1) || V_{_{A \times B}} = S_{_{A \times B}} / \nu_{_{A \times B}} || \sigma_{_{E}}^{ \ 2} + r \ \sigma_{_{A \times B}}^{ \ 2} || V_{_{A \times B}}/V_{_{E}} || F_{1-\alpha}(\nu_{_{A \times B}} \ , \ \nu_{_{E}}) || S_{_{A \times B}}\acute{} || S_{_{A \times B}}\acute{} / S_{_{T}} || || E || S_{_{E}} || \nu_{_{E}} = lm(r - 1) || V_{_{E}} = S_{_{E}} / \nu_{_{E}} || \sigma_{_{E}}^{ \ 2} || || || S_{_{E}}\acute{} = S_{_{T}} - S_{_{A}}\acute{} - S_{_{B}}\acute{} - S_{_{A \times B}}\acute{} || S_{_{E}}\acute{} / S_{_{T}} || |||||||||||||||||| || || T || S_{_{T}} || \nu_{_{T}} = lmr - 1 || || || || || S_{_{T}} || 1 || ===== 분산분석 ===== [[인자]] A에 대한 분산분석
F_{0}=\frac{V_{_{A}}}{V_{_{E}}}
기각역 : F_{0} > F_{1-\alpha}(\nu_{_{A}},\nu_{_{E}})
F_{0}=\frac{V_{_{B}}}{V_{_{E}}}
기각역 : F_{0} > F_{1-\alpha}(\nu_{_{B}},\nu_{_{E}})
F_{0}=\frac{V_{_{A \times B}}}{V_{_{A \times B}}}
기각역 : F_{0} > F_{1-\alpha}(\nu_{_{A \times B}},\nu_{_{E}})
각 [수준]의 [모평균]의 [추정]
* '[인자]   $$A$$ 의 [모평균]에 관한 [추정]
'
$$i$$ [수준]에서의 [모평균]   $$\mu(A_{i})$$ 의 [점추정]값
$$\hat{\mu}(A_{i})=\widehat{\mu + a_{i}} = \overline{y}_{i..}$$
$$i$$ [수준]에서의 [모평균]   $$\mu(A_{i})$$ 의   $$100(1-\alpha) \% $$ [신뢰구간]은 아래와 같다.
$$\hat{\mu}(A_{i})= \left( \overline{y}_{i..} - t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{V_{E}}{mr}} \ , \ \overline{y}_{i..} + t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{V_{E}}{mr}} \right)$$
—-
* '[인자]   $$B$$ 의 [모평균]에 관한 [추정]
'
$$j$$ [수준]에서의 [모평균]   $$\mu(B_{j})$$ 의 [점추정]값
$$\hat{\mu}(B_{j})=\widehat{\mu + b_{j}} = \overline{y}_{.j.}$$
$$j$$ [수준]에서의 [모평균]   $$\mu(B_{j})$$ 의   $$100(1-\alpha) \% $$ [신뢰구간]은 아래와 같다.
$$\hat{\mu}(B_{j})= \left( \overline{y}_{.j.} - t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{V_{E}}{lr}} \ , \ \overline{y}_{.j.} + t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{V_{E}}{lr}} \right)$$
—-
* '[인자]   $$A$$ 와   $$B$$ 의 [모평균]에 관한 [추정]
' ([인자]   A 와   B 의 [교호작용]이 유의한 경우)
$$A$$ [인자]의   $$i$$ [수준]과   $$B$$ [인자]의   $$j$$ [수준]에서의 [모평균]   $$\mu(A_{i}B_{j})$$ 의 [점추정]값
$$\hat{\mu}(A_{i}B_{j})=\widehat{\mu+a_{i}+b_{j}}=\overline{y}_{ij.}$$
$$A$$ [인자]의   $$i$$ [수준]과   $$B$$ [인자]의   $$j$$ [수준]에서의 [모평균]   $$\mu(A_{i}B_{j})$$ 의   $$100(1-\alpha) \% $$ [신뢰구간]은 아래와 같다.
$$\hat{\mu}(A_{i}B_{j})= \left( (\overline{y}_{ij.}) - t_{\alpha/2}(\nu_{E})\sqrt{\frac{V_{E}}{r}} \ , \ (\overline{y}_{ij.}) + t_{\alpha/2}(\nu_{E})\sqrt{\frac{V_{E}}{r} \right)$$
—-
* '[인자]   $$A$$ 와   $$B$$ 의 [모평균]에 관한 [추정]
' ([인자]   A 와   B 의 [교호작용]이 무시되는 경우)
$$A$$ [인자]의   $$i$$ [수준]과   $$B$$ [인자]의   $$j$$ [수준]에서의 [모평균]   $$\mu(A_{i}B_{j})$$ 의 [점추정]값
$$\hat{\mu}(A_{i}B_{j})=\widehat{\mu+a_{i}+b_{j}}=\overline{y}_{i..} + \overline{y}_{.j.} - \overline{\overline{y}}$$
$$A$$ [인자]의   $$i$$ [수준]과   $$B$$ [인자]의   $$j$$ [수준]에서의 [모평균]   $$\mu(A_{i}B_{j})$$ 의   $$100(1-\alpha) \% $$ [신뢰구간]은 아래와 같다.
$$\hat{\mu}(A_{i}B_{j})= \left( (\overline{y}_{i..} + \overline{y}_{.j.} - \overline{\overline{y}}) - t_{\alpha/2}(\nu_{E})\sqrt{\frac{V_{E}}{n_{e}}} \ , \ (\overline{y}_{i..} + \overline{y}_{.j.} - \overline{\overline{y}}) + t_{\alpha/2}(\nu_{E})\sqrt{\frac{V_{E}}{n_{e}}} \right)$$
단,   $$n_{e}$$ 는 [유효반복수]이고   $$n_{e} = \frac{lmr}{l+m-1}$$ 이다.
—-
각 수준의 모평균차의 추정
i 수준과 j 수준의 모평균차 \mu(A_{i})-\mu(A_{j})의 점추정값
\widehat{\mu(A_{i})-\mu(A_{j})} = \overline{y}_{i..} - \overline{y}_{j..}
i 수준과 j 수준의 모평균차 \mu(A_{i})-\mu(A_{j})의 100(1-\alpha) \% 신뢰구간은 아래와 같다.
\widehat{\mu(A_{i})-\mu(A_{j})}= \left( (\overline{y}_{i..} - \overline{y}_{j..}) - t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{2V_{E}}{mr}} \ , \ (\overline{y}_{i..} - \overline{y}_{j..}) + t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{2V_{E}}{mr}} \right)
i 수준과 j 수준의 모평균차 \mu(B_{i})-\mu(B_{j})의 점추정값
\widehat{\mu(B_{i})-\mu(B_{j})} = \overline{y}_{.i.} - \overline{y}_{.j.}
i 수준과 j 수준의 모평균차 \mu(B_{i})-\mu(B_{j})의 100(1-\alpha) \% 신뢰구간은 아래와 같다.
\widehat{\mu(B_{i})-\mu(B_{j})}= \left( (\overline{y}_{.i.} - \overline{y}_{.j.}) - t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{2V_{E}}{lr}} \ , \ (\overline{y}_{.i.} - \overline{y}_{.j.}) + t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{2V_{E}}{lr}} \right)