meta data for this page
문서의 이전 판입니다!
난괴법 (Randomized Block Design)
데이터 구조
$$ y_{ij} = \mu + a_{i} + b_{j} + e_{ij} $$
자료의 구조
인자 $B$ | 인자 $A$ | 합계 | 평균 | |||
---|---|---|---|---|---|---|
$A_{1}$ | $A_{2}$ | $\cdots$ | $A_{l}$ | |||
$B_{1}$ | $y_{11}$ | $y_{21}$ | $\cdots$ | $y_{l1}$ | $T_{.1}$ | $\overline{y}_{.1}$ |
$B_{2}$ | $y_{12}$ | $y_{22}$ | $\cdots$ | $y_{l2}$ | $T_{.2}$ | $\overline{y}_{.2}$ |
$\vdots$ | $\vdots$ | $\vdots$ | $\vdots$ | $\vdots$ | $\vdots$ | |
$B_{m}$ | $y_{1m}$ | $y_{2m}$ | $\cdots$ | $y_{lm}$ | $T_{.m}$ | $\overline{y}_{.m}$ |
합계 | $T_{1.}$ | $T_{2.}$ | $\cdots$ | $T_{l.}$ | $T$ | |
평균 | $\overline{y}_{1.}$ | $\overline{y}_{2.}$ | $\cdots$ | $\overline{y}_{l.}$ | $\overline{\overline{y}}$ |
$$T_{i.} = \sum_{j=1}^{m} y_{ij}$$ | $$\overline{y}_{i.} = \frac{T_{i.}}{m}$$ |
$$T_{.j} = \sum_{i=1}^{l} y_{ij}$$ | $$\overline{y}_{.j} = \frac{T_{.j}}{l}$$ |
$$T = \sum_{i=1}^{l} \sum_{j=1}^{m} y_{ij}$$ | $$\overline{\overline{y}} = \frac{T}{lm} = \frac{T}{N}$$ |
$$N = lm$$ | $$CT = \frac{T^{2}}{lm} = \frac{T^{2}}{N}$$ |
제곱합
개개의 데이터 $$y_{ij}$$ 와 총편균 $$\overline{\overline{y}}$$ 의 차이는 다음과 같이 세 부분으로 나뉘어진다.
$$(y_{ij} - \overline{\overline{y}}) = (\overline{y}_{i.} - \overline{\overline{y}}) + (\overline{y}_{.j} - \overline{\overline{y}}) + (y_{ij} - \overline{y}_{i.} - \overline{y}_{.j} + \overline{\overline{y}})$$
양변을 제곱한 후에 모든 $$i$$ 와 $$j$$ 에 대하여 합하면 아래의 등식을 얻을 수 있다.
$$\sum_{i=1}^{l}\sum_{j=1}^{m}(y_{ij} - \overline{\overline{y}})^{2} = \sum_{i=1}^{l}\sum_{j=1}^{m}(\overline{y}_{i.} - \overline{\overline{y}})^{2} + \sum_{i=1}^{l}\sum_{j=1}^{m}(\overline{y}_{.j} - \overline{\overline{y}})^{2} + \sum_{i=1}^{l}\sum_{j=1}^{m}(y_{ij} - \overline{y}_{i.} - \overline{y}_{.j} + \overline{\overline{y}})^{2}$$
위 식에서 왼쪽 항은 총변동 $$S_{T}$$ 이고, 오른쪽 항은 차례대로 $$A$$ 의 변동, $$B$$ 의 변동, 오차변동인 $$S_{A}$$ , $$S_{B}$$ , $$S_{E}$$ 가 된다.
$$\begin{displaymath}\begin{split} S_{T} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (y_{ij}- \overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l} \sum_{j=1}^{m} y_{ij}^{ \ 2} - CT \end{split}\end{displaymath}$$
$$\begin{displaymath}\begin{split} S_{A} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (\overline{y}_{i.}- \overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l} \frac{T_{i.}^{ \ 2}}{m} - CT \end{split}\end{displaymath}$$
$$\begin{displaymath}\begin{split} S_{B} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (\overline{y}_{.j}- \overline{\overline{y}})^{2} \\ &= \sum_{j=1}^{m} \frac{T_{.j}^{ \ 2}}{l} - CT \end{split}\end{displaymath}$$
$$\begin{displaymath}\begin{split} S_{E} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (y_{ij} - \overline{y}_{i.} - \overline{y}_{.j} + \overline{\overline{y}})^{2} \\ &= S_{T} - S_{A} - S_{B} \end{split}\end{displaymath}$$
자유도
$$\nu_{_{A}} = l-1$$
$$\nu_{_{B}} = m-1$$
$$\nu_{_{E}} = (l-1)(m-1)$$
$$\nu_{_{T}} = lm-1=N-1$$
평균제곱
$$V_{A} = \frac{S_{A}}{\nu_{_{A}}}$$
$$V_{B} = \frac{S_{B}}{\nu_{_{B}}}$$
$$V_{E} = \frac{S_{E}}{\nu_{_{E}}}$$
평균제곱의 기대값
$$E(V_{A}) = \sigma_{_{E}}^{ \ 2} + m \ \sigma_{_{A}}^{ \ 2}$$
$$E(V_{B}) = \sigma_{_{E}}^{ \ 2} + l \ \sigma_{_{B}}^{ \ 2}$$
$$E(V_{E}) = \sigma_{_{E}}^{ \ 2}$$
분산분석표
| '요인
' | '제곱합
' $$SS$$ | '자유도
' $$DF$$ | '평균제곱
' $$MS$$ | $$E(MS)$$ | $$F_{0}$$ | '기각치
' | '순변동
' $$ S\acute{} $$ | '기여율
' $$\rho$$ |
|||||||||||||||| |
| $$A$$ | $$S_{_{A}}$$ | $$\nu_{_{A}} = l - 1$$ | $$V_{_{A}} = S_{_{A}} / \nu_{_{A}}$$ | $$\sigma_{_{E}}^{ \ 2} + m \ \sigma_{_{A}}^{ \ 2}$$ | $$V_{_{A}}/V_{_{E}}$$ | $$F_{1-\alpha}(\nu_{_{A}} \ , \ \nu_{_{E}})$$ | $$S_{_{A}}\acute{} = S_{_{A}} - \nu_{_{A}} \ V_{_{E}}$$ | $$S_{_{A}}\acute{} / S_{_{T}} $$ | | $$B$$ | $$S_{_{B}}$$ | $$\nu_{_{B}} = m - 1$$ | $$V_{_{B}} = S_{_{B}} / \nu_{_{B}}$$ | $$\sigma_{_{E}}^{ \ 2} + l \ \sigma_{_{B}}^{ \ 2}$$ | $$V_{_{B}}/V_{_{E}}$$ | $$F_{1-\alpha}(\nu_{_{B}} \ , \ \nu_{_{E}})$$ | $$S_{_{B}}\acute{} = S_{_{B}} - \nu_{_{B}} \ V_{_{E}}$$ | $$S_{_{B}}\acute{} / S_{_{T}} $$ | | $$E$$ | $$S_{_{E}}$$ | $$\nu_{_{E}} = (l - 1)(m - 1)$$ | $$V_{_{E}} = S_{_{E}} / \nu_{_{E}}$$ | $$\sigma_{_{E}}^{ \ 2}$$ | | | $$S_{_{E}}\acute{} = S_{_{T}} - S_{_{A}}\acute{} - S_{_{B}}\acute{}$$ | $$S_{_{E}}\acute{} / S_{_{T}} $$ |
|||||||||||||||| |
| $$T$$ | $$S_{_{T}}$$ | $$\nu_{_{T}} = lm - 1$$ | | | | | $$S_{_{T}}$$ | $$1$$ |
분산분석
인자 $A$에 대한 분산분석
$$F_{0}=\frac{V_{_{A}}}{V_{_{E}}}$$
기각역 : $F_{0} > F_{a-\alpha}(\nu_{_{A}},\nu_{_{E}})$
각 수준의 모평균의 추정
$i$ 수준에서의 모평균 $\mu(A_{i})$의 점추정값
- $$\hat{\mu}(A_{i})=\widehat{\mu + a_{i}} = \overline{y}_{i.}$$
$i$ 수준에서의 모평균 $\mu(A_{i})$의 $100(1-\alpha) \%$ 신뢰구간은 아래와 같다.
- $$\hat{\mu}(A_{i})= \left( \overline{y}_{i.} - t_{\alpha/2}(\nu^{*}) \sqrt{\frac{V_{B}+(l-1)V_{E}}{lm}} \ , \ \overline{y}_{i.} + t_{\alpha/2}(\nu^{*}) \sqrt{\frac{V_{B}+(l-1)V_{E}}{lm}} \right)$$
- 단, $\nu^{*}$는 등가자유도로 $\nu_{*} = \frac{ [[ V_{B}+(l-1)V_{E} ]] ^{2} }{V_{B}^{ \ 2} / \nu_{B} + [[ (l-1)V_{E} ]] ^{2} / \nu_{E}}$ 이다.
각 수준의 모평균차의 추정
$i$ 수준과 $j$ 수준의 모평균차 $\mu(A_{i})-\mu(A_{j})$의 점추정값
- $$\widehat{\mu(A_{i})-\mu(A_{j})} = \overline{y}_{i.} - \overline{y}_{j.}$$
$i$ 수준과 $j$ 수준의 모평균차 $\mu(A_{i})-\mu(A_{j})$의 $100(1-\alpha) \%$ 신뢰구간은 아래와 같다.
- $$\widehat{\mu(A_{i})-\mu(A_{j})}= \left( (\overline{y}_{i.} - \overline{y}_{j.}) - t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{2V_{E}}{m}} \ , \ (\overline{y}_{i.} - \overline{y}_{j.}) + t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{2V_{E}}{m}} \right)$$