meta data for this page
문서의 이전 판입니다!
난괴법 (Randomized Block Design)
데이터 구조
자료의 구조
인자 B | 인자 A | 합계 | 평균 | |||
---|---|---|---|---|---|---|
A1 | A2 | ⋯ | Al | |||
B1 | y11 | y21 | ⋯ | yl1 | T.1 | ¯y.1 |
B2 | y12 | y22 | ⋯ | yl2 | T.2 | ¯y.2 |
⋮ | ⋮ | ⋮ | ⋮ | ⋮ | ⋮ | |
Bm | y1m | y2m | ⋯ | ylm | T.m | ¯y.m |
합계 | T1. | T2. | ⋯ | Tl. | T | |
평균 | ¯y1. | ¯y2. | ⋯ | ¯yl. | ¯¯y |
Ti.=m∑j=1yij | ¯yi.=Ti.m |
T.j=l∑i=1yij | ¯y.j=T.jl |
T=l∑i=1m∑j=1yij | ¯¯y=Tlm=TN |
N=lm | CT=T2lm=T2N |
제곱합
개개의 데이터 yij와 총편균 ¯¯y의 차이는 다음과 같이 세 부분으로 나뉘어진다.
(yij−¯¯y)=(¯yi.−¯¯y)+(¯y.j−¯¯y)+(yij−¯yi.−¯y.j+¯¯y)
양변을 제곱한 후에 모든 i와 j에 대하여 합하면 아래의 등식을 얻을 수 있다.
l∑i=1m∑j=1(yij−¯¯y)2=l∑i=1m∑j=1(¯yi.−¯¯y)2+l∑i=1m∑j=1(¯y.j−¯¯y)2+l∑i=1m∑j=1(yij−¯yi.−¯y.j+¯¯y)2
위 식에서 왼쪽 항은 총변동 ST이고, 오른쪽 항은 차례대로 A의 변동, B의 변동, 오차변동인 SA, SB, SE가 된다.
- \begin{displaymath}\begin{split} S_{T} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (y_{ij}- \overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l} \sum_{j=1}^{m} y_{ij}^{ \ 2} - CT \end{split}\end{displaymath} * \begin{displaymath}\begin{split} S_{A} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (\overline{y}_{i.}- \overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l} \frac{T_{i.}^{ \ 2}}{m} - CT \end{split}\end{displaymath} * \begin{displaymath}\begin{split} S_{B} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (\overline{y}_{.j}- \overline{\overline{y}})^{2} \\ &= \sum_{j=1}^{m} \frac{T_{.j}^{ \ 2}}{l} - CT \end{split}\end{displaymath} * \begin{displaymath}\begin{split} S_{E} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (y_{ij} - \overline{y}_{i.} - \overline{y}_{.j} + \overline{\overline{y}})^{2} \\ &= S_{T} - S_{A} - S_{B} \end{split}\end{displaymath} ===== 자유도 ===== νA=l−1 νB=m−1 νE=(l−1)(m−1) νT=lm−1=N−1 ===== 평균제곱 ===== VA=SAνA VB=SBνB VE=SEνE ===== 평균제곱의 기대값 ===== E(VA)=σ 2E+m σ 2A E(VB)=σ 2E+l σ 2B E(VE)=σ 2E ===== 분산분석표 ===== ^ [[요인]] ^ [[제곱합]] SS ^ [[자유도]] DF ^ [[평균제곱]] MS ^ E(MS) ^ F0 ^ [[기각치]] ^ [[순변동]] S´ ^ [[기여율]] \rho |
^ A | S_{_{A}} | \nu_{_{A}} = l - 1 | V_{_{A}} = S_{_{A}} / \nu_{_{A}} | \sigma_{_{E}}^{ \ 2} + m \ \sigma_{_{A}}^{ \ 2} | V_{_{A}}/V_{_{E}} | F_{1-\alpha}(\nu_{_{A}} \ , \ \nu_{_{E}}) | S_{_{A}}\acute{} = S_{_{A}} - \nu_{_{A}} \ V_{_{E}} | S_{_{A}}\acute{} / S_{_{T}} |
B | S_{_{B}} | \nu_{_{B}} = m - 1 | V_{_{B}} = S_{_{B}} / \nu_{_{B}} | \sigma_{_{E}}^{ \ 2} + l \ \sigma_{_{B}}^{ \ 2} | V_{_{B}}/V_{_{E}} | F_{1-\alpha}(\nu_{_{B}} \ , \ \nu_{_{E}}) | S_{_{B}}\acute{} = S_{_{B}} - \nu_{_{B}} \ V_{_{E}} | S_{_{B}}\acute{} / S_{_{T}} |
---|---|---|---|---|---|---|---|---|
E | S_{_{E}} | \nu_{_{E}} = (l - 1)(m - 1) | V_{_{E}} = S_{_{E}} / \nu_{_{E}} | \sigma_{_{E}}^{ \ 2} | S_{_{E}}\acute{} = S_{_{T}} - S_{_{A}}\acute{} - S_{_{B}}\acute{} | S_{_{E}}\acute{} / S_{_{T}} | ||
T | S_{_{T}} | \nu_{_{T}} = lm - 1 | S_{_{T}} | 1 |
분산분석
각 수준의 모평균의 추정
- \hat{\mu}(A_{i})=\widehat{\mu + a_{i}} = \overline{y}_{i.}
i 수준에서의 모평균 \mu(A_{i})의 100(1-\alpha) \% 신뢰구간은 아래와 같다.
- \hat{\mu}(A_{i})= \left( \overline{y}_{i.} - t_{\alpha/2}(\nu^{*}) \sqrt{\frac{V_{B}+(l-1)V_{E}}{lm}} \ , \ \overline{y}_{i.} + t_{\alpha/2}(\nu^{*}) \sqrt{\frac{V_{B}+(l-1)V_{E}}{lm}} \right)
- 단, \nu^{*}는 등가자유도로 \nu_{*} = \frac{ [[ V_{B}+(l-1)V_{E} ]] ^{2} }{V_{B}^{ \ 2} / \nu_{B} + [[ (l-1)V_{E} ]] ^{2} / \nu_{E}} 이다.
각 수준의 모평균차의 추정
i 수준과 j 수준의 모평균차 \mu(A_{i})-\mu(A_{j})의 점추정값
- \widehat{\mu(A_{i})-\mu(A_{j})} = \overline{y}_{i.} - \overline{y}_{j.}
i 수준과 j 수준의 모평균차 \mu(A_{i})-\mu(A_{j})의 100(1-\alpha) \% 신뢰구간은 아래와 같다.
- \widehat{\mu(A_{i})-\mu(A_{j})}= \left( (\overline{y}_{i.} - \overline{y}_{j.}) - t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{2V_{E}}{m}} \ , \ (\overline{y}_{i.} - \overline{y}_{j.}) + t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{2V_{E}}{m}} \right)