meta data for this page
  •  

문서의 이전 판입니다!


이원배치법 (모수모형) (반복없음)

데이터 구조

인자 A모수인자

인자 B모수인자

yij=μ+ai+bj+eij

  • yij : AiBj에서 얻은 측정값
  • μ : 실험전체의 모평균
  • ai : Ai가 주는 효과
  • bj : Bj가 주는 효과
  • eij : AiBj에서 얻은 측정값오차 (eijN(0,σ 2E)이고 서로 독립)
  • i : 인자 A수준(i=1,2,,l)
  • j : 인자 B수준(j=1,2,,m)

자료의 구조

||<|2> [인자] B |||||||| [인자] A ||<|2> 합계 ||<|2> [평균] || || A1 || A2 || || Al || |||||||||||||| || || B1 || y11 || y21 || || yl1 || T.1 || ¯y.1 || || B2 || y12 || y22 || || yl2 || T.2 || ¯y.2 || || || || || || || || || || Bm || y1m || y2m || || ylm || T.m || ¯y.m || |||||||||||||| || || 합계 || T1. || T2. || || Tl. || T || || || [평균] || ¯y1. || ¯y2. || || ¯yl. || || ¯¯y ||

|| $$T_{i.} = \sum_{j=1}^{m} y_{ij}$$ || $$\overline{y}_{i.} = \frac{T_{i.}}{m}$$ ||
|| $$T_{.j} = \sum_{i=1}^{l} y_{ij}$$ || $$\overline{y}_{.j} = \frac{T_{.j}}{l}$$ ||
|| $$T = \sum_{i=1}^{l} \sum_{j=1}^{m} y_{ij}$$ || $$\overline{\overline{y}} = \frac{T}{lm} = \frac{T}{N}$$ ||
|| $$N = lm$$ || $$CT = \frac{T^{2}}{lm} = \frac{T^{2}}{N}$$ ||

제곱합

개개의 데이터&nbsp&nbsp yij 와 총 [평균]&nbsp&nbsp ¯¯y 의 차이는 다음과 같이 세 부분으로 나뉘어진다.

$$(y_{ij} - \overline{\overline{y}}) = (\overline{y}_{i.} - \overline{\overline{y}}) + (\overline{y}_{.j} - \overline{\overline{y}}) + (y_{ij} - \overline{y}_{i.} - \overline{y}_{.j} +  \overline{\overline{y}})$$

양변을 제곱한 후에 모든&nbsp&nbsp i 와&nbsp&nbsp j 에 대하여 합하면 아래의 등식을 얻을 수 있다.

$$\sum_{i=1}^{l}\sum_{j=1}^{m}(y_{ij} - \overline{\overline{y}})^{2} = \sum_{i=1}^{l}\sum_{j=1}^{m}(\overline{y}_{i.} - \overline{\overline{y}})^{2} + \sum_{i=1}^{l}\sum_{j=1}^{m}(\overline{y}_{.j} - \overline{\overline{y}})^{2} + \sum_{i=1}^{l}\sum_{j=1}^{m}(y_{ij} - \overline{y}_{i.} - \overline{y}_{.j} +  \overline{\overline{y}})^{2}$$

위 식에서 왼쪽 항은 총변동 ST 이고, 오른쪽 항은 차례대로&nbsp&nbsp A 의 [변동],&nbsp&nbsp B 의 [변동], [오차변동]인&nbsp&nbsp SA , SB , SE 가 된다.

$$\begin{displaymath}\begin{split} S_{T} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (y_{ij}- \overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l} \sum_{j=1}^{m} y_{ij}^{ \ 2} - CT \end{split}\end{displaymath}$$
$$\begin{displaymath}\begin{split} S_{A} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (\overline{y}_{i.}- \overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l} \frac{T_{i.}^{ \ 2}}{m} - CT \end{split}\end{displaymath}$$
$$\begin{displaymath}\begin{split} S_{B} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (\overline{y}_{.j}- \overline{\overline{y}})^{2} \\ &= \sum_{j=1}^{m} \frac{T_{.j}^{ \ 2}}{l} - CT \end{split}\end{displaymath}$$
$$\begin{displaymath}\begin{split} S_{E} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (y_{ij} - \overline{y}_{i.} - \overline{y}_{.j} + \overline{\overline{y}})^{2} \\ &= S_{T} - S_{A} - S_{B} \end{split}\end{displaymath}$$

자유도

νA=l1

νB=m1

νE=(l1)(m1)

νT=lm1=N1

평균제곱

VA=SAνA

VB=SBνB

VE=SEνE

평균제곱의 기대값

E(VA)=σ 2E+m σ 2A

E(VB)=σ 2E+l σ 2B

E(VE)=σ 2E

분산분석표

|| '[요인]' || '[제곱합]' SS || '[자유도]' DF || '[평균제곱]' MS || E(MS) || F0 || '기각치' || '[순변동]' S´ || '[기여율]' \rho || |||||||||||||||||| || || A || S_{_{A}} || \nu_{_{A}} = l - 1 || V_{_{A}} = S_{_{A}} / \nu_{_{A}} || \sigma_{_{E}}^{ \ 2} + m \ \sigma_{_{A}}^{ \ 2} || V_{_{A}}/V_{_{E}} || F_{1-\alpha}(\nu_{_{A}} \ , \ \nu_{_{E}}) || S_{_{A}}\acute{} = S_{_{A}} - \nu_{_{A}} \ V_{_{E}} || S_{_{A}}\acute{} / S_{_{T}} || || B || S_{_{B}} || \nu_{_{B}} = m - 1 || V_{_{B}} = S_{_{B}} / \nu_{_{B}} || \sigma_{_{E}}^{ \ 2} + l \ \sigma_{_{B}}^{ \ 2} || V_{_{B}}/V_{_{E}} || F_{1-\alpha}(\nu_{_{B}} \ , \ \nu_{_{E}}) || S_{_{B}}\acute{} = S_{_{B}} - \nu_{_{B}} \ V_{_{E}} || S_{_{B}}\acute{} / S_{_{T}} || || E || S_{_{E}} || \nu_{_{E}} = (l - 1)(m - 1) || V_{_{E}} = S_{_{E}} / \nu_{_{E}} || \sigma_{_{E}}^{ \ 2} || || || S_{_{E}}\acute{} = S_{_{T}} - S_{_{A}}\acute{} - S_{_{B}}\acute{} || S_{_{E}}\acute{} / S_{_{T}} || |||||||||||||||||| || || T || S_{_{T}} || \nu_{_{T}} = lm - 1 || || || || || S_{_{T}} || 1 ||

분산분석

인자&nbsp&nbsp A 에 대한 [분산분석]

$$F_{0}=\frac{V_{_{A}}}{V_{_{E}}}$$
[기각역] :&nbsp&nbsp $$F_{0} > F_{a-\alpha}(\nu_{_{A}},\nu_{_{E}})$$

인자&nbsp&nbsp B 에 대한 [분산분석]

$$F_{0}=\frac{V_{_{B}}}{V_{_{E}}}$$
[기각역] :&nbsp&nbsp $$F_{0} > F_{a-\alpha}(\nu_{_{B}},\nu_{_{E}})$$

각 수준의 모평균의 추정

* '[인자]&nbsp&nbsp $$A$$ 의 [모평균]에 관한 [추정]'

$$i$$ [수준]에서의 [모평균]&nbsp&nbsp $$\mu(A_{i})$$ 의 [점추정]값
 $$\hat{\mu}(A_{i})=\widehat{\mu + a_{i}} = \overline{y}_{i.}$$
$$i$$ [수준]에서의 [모평균]&nbsp&nbsp $$\mu(A_{i})$$ 의&nbsp&nbsp $$100(1-\alpha) \% $$ [신뢰구간]은 아래와 같다.
 $$\hat{\mu}(A_{i})= \left( \overline{y}_{i.} - t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{V_{E}}{m}} \ , \ \overline{y}_{i.} + t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{V_{E}}{m}} \right)$$

—- * '[인자]&nbsp&nbsp $$B$$ 의 [모평균]에 관한 [추정]'

$$j$$ [수준]에서의 [모평균]&nbsp&nbsp $$\mu(B_{j})$$ 의 [점추정]값
 $$\hat{\mu}(B_{j})=\widehat{\mu + b_{j}} = \overline{y}_{.j}$$
$$j$$ [수준]에서의 [모평균]&nbsp&nbsp $$\mu(B_{j})$$ 의&nbsp&nbsp $$100(1-\alpha) \% $$ [신뢰구간]은 아래와 같다.
 $$\hat{\mu}(B_{j})= \left( \overline{y}_{.j} - t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{V_{E}}{l}} \ , \ \overline{y}_{.j} + t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{V_{E}}{l}} \right)$$

—- * '[인자]&nbsp&nbsp $$A$$ 와&nbsp&nbsp $$B$$ 의 [모평균]에 관한 [추정]'

$$A$$ [인자]의&nbsp&nbsp $$i$$ [수준]과&nbsp&nbsp $$B$$ [인자]의&nbsp&nbsp $$j$$ [수준]에서의 [모평균]&nbsp&nbsp $$\mu(A_{i}B_{j})$$ 의 [점추정]값
 $$\hat{\mu}(A_{i}B_{j})=\widehat{\mu+a_{i}+b_{j}}=\overline{y}_{i.} + \overline{y}_{.j} - \overline{\overline{y}}$$
$$A$$ [인자]의&nbsp&nbsp $$i$$ [수준]과&nbsp&nbsp $$B$$ [인자]의&nbsp&nbsp $$j$$ [수준]에서의 [모평균]&nbsp&nbsp $$\mu(A_{i}B_{j})$$ 의&nbsp&nbsp $$100(1-\alpha) \% $$ [신뢰구간]은 아래와 같다.
 $$\hat{\mu}(A_{i}B_{j})= \left( (\overline{y}_{i.} + \overline{y}_{.j} - \overline{\overline{y}}) - t_{\alpha/2}(\nu_{E})\sqrt{\frac{V_{E}}{n_{e}}} \ , \ (\overline{y}_{i.} + \overline{y}_{.j} - \overline{\overline{y}}) + t_{\alpha/2}(\nu_{E})\sqrt{\frac{V_{E}}{n_{e}}} \right)$$
 단,&nbsp&nbsp $$n_{e}$$ 는 [유효반복수]이고&nbsp&nbsp $$n_{e} = \frac{lm}{l+m-1}$$ 이다.

—-

각 수준의 모평균차의 추정

* '[인자]&nbsp&nbsp $$A$$ 의 [모평균]차에 관한 [추정]'

$$i$$ [수준]과&nbsp&nbsp $$j$$ [수준]의 [모평균]차&nbsp&nbsp $$\mu(A_{i})-\mu(A_{j})$$ 의 [점추정]값
 $$\widehat{\mu(A_{i})-\mu(A_{j})} = \overline{y}_{i.} - \overline{y}_{j.}$$
$$i$$ [수준]과&nbsp&nbsp $$j$$ [수준]의 [모평균]차&nbsp&nbsp $$\mu(A_{i})-\mu(A_{j})$$ 의&nbsp&nbsp $$100(1-\alpha) \% $$ [신뢰구간]은 아래와 같다.
 $$\widehat{\mu(A_{i})-\mu(A_{j})}= \left( (\overline{y}_{i.} - \overline{y}_{j.}) - t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{2V_{E}}{m}} \ , \ (\overline{y}_{i.} - \overline{y}_{j.}) + t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{2V_{E}}{m}} \right)$$

—- * '[인자]&nbsp&nbsp $$B$$ 의 [모평균]차에 관한 [추정]'

$$i$$ [수준]과&nbsp&nbsp $$j$$ [수준]의 [모평균]차&nbsp&nbsp $$\mu(B_{i})-\mu(B_{j})$$ 의 [점추정]값
 $$\widehat{\mu(B_{i})-\mu(B_{j})} = \overline{y}_{.i} - \overline{y}_{.j}$$
$$i$$ [수준]과&nbsp&nbsp $$j$$ [수준]의 [모평균]차&nbsp&nbsp $$\mu(B_{i})-\mu(B_{j})$$ 의&nbsp&nbsp $$100(1-\alpha) \% $$ [신뢰구간]은 아래와 같다.
 $$\widehat{\mu(B_{i})-\mu(B_{j})}= \left( (\overline{y}_{.i} - \overline{y}_{.j}) - t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{2V_{E}}{l}} \ , \ (\overline{y}_{.i} - \overline{y}_{.j}) + t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{2V_{E}}{l}} \right)$$

  • 결측치 추정 (Yates방법)