Post

랜덤 프로세스 Ch 0. Introduction

랜덤 프로세스 Introduction, Probability Theory Review

랜덤 프로세스 Ch 0. Introduction

 이 포스팅은 25년 1학기 광주과학기술원(GIST) AI대학원에서 수강한 랜덤 프로세스 과목에 대한 정리글입니다.


들어가기 전에…

 우리는 학창 시절 통계학 수업에서 확률 변수(Random Variable) 라는 개념에 대해 배웠습니다. 주사위를 던졌을 때의 눈금, 동전을 던졌을 때 앞면의 개수처럼 뭔가 확률에 기반한 행동을 해서, 그 결과가 특정 실수값으로 나오는 경우를 주로 다뤘었죠.

 하지만 이는 그리 엄밀하지는 않은 설명 방식입니다.

 Outcome은 실수\(( \mathbb{R} )\)가 아닙니다. Outcome은 Outcome에 불과합니다. 그 Outcome이 정확히 어떤 값의 실수를 어떤 규칙으로 대응하게 되는지 언급이 있어야만, 비로소 그 Outcome을 수로써 해석이 가능해집니다.

 주사위를 1번 던졌을 때, ‘발생 가능한 모든 결과를 쓰라’는 문제를 보신 적이 있을 겁니다. 교과서에서는 보통 이를 ‘\(\{1, 2, ... , 6\}\)‘으로 표현합니다.

 하지만 여기서 ‘\(\{1, 2, ..., 6\}\)’ 속의 숫자들은 실수가 아닙니다. ‘결과’를 쓰라고 했는데 숫자를 쓰는 건 앞뒤가 맞지 않죠. 표기의 번거로움과 언어의 한계에 의해 ‘눈금이 몇이 나옴’이란 결과를 숫자를 통해 표현한 것 뿐입니다.

 그렇다면 ‘나올 수 있는 가능한 모든 눈금의 수를 쓰라’는 질문은 어떨까요? 마찬가지의 형태로 \(\{1, 2, ... , 6\}\)이 정답이겠죠. 그런데 여기서의 숫자들은 모두 실수입니다. 문제에서 요구한 것이 ‘눈금의 수’이기 때문에, 우리는 온전히 그 값을 수로써 다룰 수가 있는 것입니다.

 이것이 바로 outcome과 random variable의 차이입니다.

… 쓸데없이 복잡한 사고 방식 아니냐?

 엄밀함은 이론의 확장에 반드시 필요한 요소입니다. 발생한 Outcome\((\omega \in \Omega)\)이 특정 사건에 포함되는지\((\omega \in \mathcal{A})\)에 따라 ‘해당 사건이 발생했다’라고 말을 할 수 있으며, 발생한 사건을 \([0, 1]\)의 실수값으로 매핑하는 것(\(P: \mathcal{F} \rightarrow \mathbb{R}\))이 ‘사건의 확률’입니다.

 확률 변수는 사건이 아닌 Outcome을 \((-\infty, \infty)\)의 실수값으로 매핑하는 것(\(X: \Omega \rightarrow \mathbb{R}\))입니다. 이 개념을 확실히 정립하고나면, 우리는 확률변수를 랜덤 벡터, 랜덤 프로세스로 확장시킬 수 있습니다.

 랜덤 변수는 하나의 실험에서 하나의 수치로 결과를 나타내는 반면, 랜덤 벡터(Random Vector) 는 여러 개의 랜덤 변수를 모은 것으로, 동시에 여러 결과를 나타냅니다. 그리고 이들 개념을 더욱 확장한 것이 랜덤 프로세스(Random Process) 입니다.

 랜덤 프로세스는 시간이나 공간에 따라 변화하는 무작위 현상을 모델링하는 분야로, 단일 시점의 결과뿐만 아니라 여러 시점에 걸친 결과들의 상관관계를 고려합니다.

개념정의예시
랜덤 변수하나의 실험에서 하나의 결과를 나타내는 함수
\((X: \Omega \to \mathbb{R})\)
동전 던지기에서 앞면/뒷면을 0/1로 나타냄
랜덤 벡터여러 개의 랜덤 변수를 모은 벡터,
\((\mathbf{X} = (X_1, X_2, \ldots, X_n))\)
여러 시험 점수를 나타내는 벡터
랜덤 프로세스시간 또는 공간에 따라 변화하는 랜덤 변수의 집합,
\((\{X(t) : t \in T\})\)
주가의 시간에 따른 변화, 날씨의 변화, 브라운 운동

 랜덤 변수를 랜덤 프로세스로 확장하기 위해선 우선 확률론에 대한 정확한 기본이 갖춰져야 합니다. 그래서 이번 포스팅에서는 확률론에 대한 기초적인 Review를 진행해볼까 합니다.


1. 확률이란? - 상대빈도해석(Relative Frequency Interpretation)

 확률의 상대 빈도 해석은 다수의 독립된 시행을 반복할 때, 특정 사건이 발생한 상대적 빈도로 확률을 정의하는 방식입니다.
이를 수식으로 나타내면, 사건 \(A\)에 대해 \(n\)번의 시행 중 \(k\)번 \(A\)가 발생하였다면,

\[P(A) = \lim_{n \to \infty} \frac{k}{n}\]

와 같이 정의할 수 있습니다.

 이 접근법은 실제 데이터를 기반으로 확률을 추정할 수 있게 하며, 큰수의 법칙에 의해 그 타당성이 보장됩니다.

 그 상대적 빈도를 무엇을 기준으로 기술할까요? 그냥 횟수를 세는 것만으로 충분할까요? 하지만 만약, 그 ‘횟수’라는 것을 정의할 수 없는 경우에는 어떨까요?

‘횟수를 정의할 수 없는 경우’라니, 그런 게 있을까요?

 네, 분명히 존재합니다. 그리고 확률론에서는 횟수라는 불완전한 개념 대신, 집합을 이용하여 이를 표현합니다. 우선 집합론에 대한 기초를 짚고 넘어갑시다.


2. 집합론(Set Theory)

집합(Set)
서로 구분되는 객체들의 모임
원소(element/member)
집합에 포함되는 객체
  • \(a \in A\): \(a\)는 집합\(A\)의 원소
  • \(a \notin A\): \(a\)는 집합\(A\)의 원소가 아님
  • indicator function: \(1_A(s) = \begin{cases} 1 & \text{if }s \in A \\ 0 & \text{if }s \notin A \end{cases}\)
부분집합
특정 집합의 원소가 모두 다른 어떤 집합에도 포함되는 집합
\[A \subseteq B \iff \forall x\, (x \in A \Rightarrow x \in B)\]
합집합
두 집합 중 적어도 하나에 포함되어 있는 원소들의 집합
\[A \cup B = \{ x : x \in A \lor x \in B \}\]
교집합
두 집합에 공통적으로 포함되어 있는 원소들의 집합
\[A \cap B = \{ x : x \in A \land x \in B \}\]
멱집합
집합의 모든 부분집합으로 이루어진 집합
\[\mathcal{P}(A) = \{ B : B \subseteq A \}\]
Mutually Exclusive (상호 배타적)
두 집합의 교집합이 공집합인 경우
\[A \cap B = \varnothing\]
Collectively Exhaustive (전체를 포괄하는)
집합들의 합집합이 전체 집합 \(\Omega\)와 같은 경우
\[\bigcup_{i} A_i = \Omega\]

 확률론에서는 주로 표본공간(Sample Space)사건(Event) 을 표현하기 위해 집합의 개념을 사용합니다.


3. 집합론을 확률론에 적용시켜보기

1) Random Experiment

Random Experiment
그 결과에 불확실성이 있어, Stochastic하게 모델링하고자 하는 Experiment. 실험 결과가 확률적으로 나타나며, 각 시행에서의 결과는 불확실하지만 전체적으로 일정한 확률 분포를 따름.
Trial(시행)
Random Experiment를 한 번 시행하는 것
Outcome(결과)
experiment의 결과

 Random Experiment는 표본 공간(Sample Space \(\Omega\)), 사건 공간(Event Space \(\mathcal{F}\)), Probability Measure(\(P\))의 triplet으로 정의됩니다.

\[(\Omega, \mathcal{F}, P)\]

2) Sample Space, Event Space, Probability Measure

표본 공간(Sample Space \(S\))
RE의 모든 가능한 outcome의 집합.

정육면체 주사위를 한 번 던지는 RE의 경우 \(S=\{1, 2, 3, 4, 5, 6\}\)

동전을 한 번 던지는 RE의 경우 \(S=\{H, T\}\)

 표본공간(Sample Space)은 모든 가능한 결과들의 집합으로서, 실험의 전체 범위를 나타냅니다. 표본공간은 한 번의 실험에서 관측될 수 있는 모든 결과를 포함하며, 이론적 확률 계산의 기본 틀을 제공합니다.

사건 공간(Event Space \(\mathcal{F}\))
Sample Space \(S\) 위의 \(\sigma\)-대수

정육면체 주사위를 한 번 던지는 RE의 경우 \(S=\emptyset, \{1\}, \{2\}, ... , \{1, 2\}, ... , \{1, 2, 3, 4, 5, 6\}\), 총 \(2^6=64\)개

동전을 한 번 던지는 RE의 경우 \(S=\emptyset, \{H\}, \{T\}, \{H, T\}\), 총 \(2^2=4\)개

 여기서 갑자기 생소한 개념이 등장합니다. 시그마 대수(Sigma Algebra)란 어떤 집합의 특정 조건을 만족하는 부분집합들을 모아둔 집합입니다.

\(\sigma\)-대수(\(\sigma\)-algebra)
‘특정 조건’을 만족하는 집합들의 모임

 시그마 대수(Sigma Algebra)는 사건공간에 대해 확률을 정의할 수 있도록 하는 추가적인 구조입니다. ‘대수’란 집합과 그 집합에 대한 연산을 가리키는 일종의 구조를 뜻합니다. 어떤 집합에 대해 어떤 연산을 정의하고, 어떤 공리를 만족하냐에 따라 다양한 종류의 대수(또는 대수적 구조)가 될 수 있는데요, 시그마 대수는 아래의 특징을 만족하는 대수적 구조입니다.

  1. 공집합과 표본공간을 반드시 포함합니다.
  2. 가산 합집합과 여집합에 대해 닫혀 있는 성질을 가지며, 이는 확률 측도의 일관성을 보장합니다.

 위 특징을 굳이 깊게 알 필요는 없으며, 시그마 대수는 Sample Space에서 Event Space를 제대로 도출하기 위한 하나의 구조라고 생각하시면 됩니다.

 ‘주사위 던지기’라는 RE의 시그마 대수는 위처럼 64개의 집합들을 원소로 갖는 집합이, ‘동전 던지기’라는 RE의 시그마 대수는 위처럼 4개의 집합을 원소로 갖는 집합이 됩니다.

그럼 그냥 멱집합 아님?

 위 예시만 놓고 보면 그렇게 생각할 수 있습니다. 하지만 이는 우리가 Discrete Domain에 해당하는 RE들만을 다뤘기 때문입니다.

 사건공간(Event Space)은 표본공간의 부분집합들로 구성되며, 특정 사건을 기술하는 데 사용됩니다. 사건공간은 실험에서 발생할 수 있는 다양한 사건들을 포함하며, 이들을 체계적으로 분류할 수 있도록 합니다.

질문: 확률을 정의하기 위해 왜 시그마 대수같은 복잡한 개념이 필요할까요?

  • 확률 측도(Probbility Measure): 특정 사건을

 집합론의 원리를 확률론에 적용하면, Probability Measure (확률 측도) 는 사건을 실수$(R)$로 매핑하는 함수임을 알 수 있습니다.
즉, 확률 측도 $(P)$는 다음과 같은 함수로 정의됩니다. \(P: \mathcal{F} \to [0, 1]\)  여기서 $\mathcal{F}$는 사건 공간(Event Space)으로 보통 시그마 대수(Sigma Algebra)의 구조를 가집니다.
이 함수는 다음의 성질을 만족합니다.

  • 비음수성(Non-negativity): 모든 사건 $A$에 대해 $P(A) \ge 0$
  • 정규화(Normalization): 표본공간 전체 $\Omega$에 대해 $P(\Omega)=1$
  • 가법성(Additivity): 서로 상호 배타적인 사건 $A_i$에 대해
    \(P\left(\bigcup_i A_i\right) = \sum_i P(A_i)\)

다음은 간단한 True/False 문제입니다.

문제:

  1. Sample Space는 Mutually Exclusive하다.
  2. Sample Space는 Collectively Exhaustive하다.
  3. Event Space는 Mutually Exclusive하다.
  4. Event Space는 Collectively Exhaustive하다.

4. Probability Axioms

확률론은 세 가지 기본 공리에 의해 그 기초가 형성됩니다.

  1. \(P(A) \ge 0\) (비음수성) 모든 사건의 확률이 0 이상임을 명시하여, 음수 확률이 존재할 수 없음을 보장합니다.
  2. \(P(\Omega)=1\)정규화 공리는 표본공간 전체의 확률이 1임을 규정하며, 이는 모든 가능한 결과의 합이 1이 되어야 함을 의미합니다.
  3. 가법성 공리는 서로 배타적인 사건들의 확률의 합이 그 사건들의 합집합의 확률과 일치함을 규정합니다.

이러한 공리들은 확률론의 논리적 기반을 제공하며, 모든 확률 계산의 출발점을 이루는 중요한 원칙입니다.
공리 체계의 일관성은 확률 분포의 다양한 성질을 도출하는 데 있어서도 핵심적인 역할을 합니다.
이론적으로, 이 공리들은 확률론이 단순한 경험적 관찰을 넘어 엄밀한 수학적 구조로 발전할 수 있는 토대를 마련합니다.
공리의 엄격한 적용은 복잡한 확률 문제를 해결하는 데 있어서 신뢰성을 보장하며, 통계적 추론의 정확성을 높입니다.
따라서, 확률 공리들을 명확히 이해하고 활용하는 것은 실제 문제 해결에서 매우 중요한 역할을 합니다.

질문: 여러분께서는 이 세 가지 공리가 실제 문제 해결에서 어떠한 방식으로 적용되는지를 구체적인 예를 통해 설명해 주실 수 있으신지요?


5. 조건부 확률(Conditional Probabilty)과 베이즈 철학

조건부 확률

조건부 확률은 특정 조건이 주어졌을 때 한 사건이 발생할 확률을 나타내는 개념입니다.
수식 \(P(A|B) = \frac{P(A \cap B)}{P(B)}\) 를 통해, 사건 (B)가 발생한 상황에서 사건 (A)의 발생 확률을 정량적으로 표현할 수 있습니다.
조건부 확률은 사건들 간의 의존성을 분석하는 데 매우 중요한 역할을 하며, 새로운 정보를 반영하여 확률을 재조정하는 과정의 기초가 됩니다.
예를 들어, 질병 진단에서 특정 증상이 관찰되었을 때 해당 질병의 존재 확률을 추정하는 데 조건부 확률이 활용됩니다.
이 개념을 이해하면, 단순히 독립적으로 발생하는 사건과는 달리 사건들이 서로 영향을 주는 상황을 보다 정확하게 모델링할 수 있습니다.
조건부 확률은 이론과 실제 모두에서 불확실한 상황 하에서 합리적인 결정을 내리는 데 중요한 도구로 사용됩니다.
정보가 추가됨에 따라 확률 값이 어떻게 변화하는지 파악하는 것은 복잡한 시스템 내 상호작용 분석에 큰 도움이 됩니다.
따라서, 조건부 확률의 개념은 실무적인 문제 해결에 있어 필수적입니다.

질문: 여러분께서는 실제 사례에서 조건부 확률을 활용하여 문제를 해결한 경험이 있으신지요? 그 사례를 구체적으로 서술해 주시기 바랍니다.


Law of Total Prob.

전체 확률의 법칙은 복수의 조건 하에서 특정 사건의 전체 확률을 계산하는 체계적인 방법론입니다.
이 법칙은 여러 조건에 따른 조건부 확률을 모두 고려하여, 전체 사건의 확률을 가산하는 원리를 따릅니다.
각 조건에 따른 확률과 그 조건이 발생할 확률을 곱한 후 합산함으로써 전체 확률을 도출할 수 있습니다.
전체 확률의 법칙은 복잡한 사건들이 여러 하위 사건으로 분해될 수 있을 때 특히 유용하게 적용됩니다.
이 방법을 통해 개별 조건에서의 확률을 종합함으로써, 전체 현상의 확률적 특성을 체계적으로 이해할 수 있습니다.
이론적으로, 전체 확률의 법칙은 불완전한 정보 하에서도 합리적인 예측과 추론을 가능하게 합니다.
실제 문제 해결에서는 다양한 조건들을 모두 고려하여 하나의 사건의 전체 확률을 산출하는 데 중요한 역할을 합니다.
또한, 이 법칙은 베이즈 정리 등 다른 확률론적 결과와도 밀접하게 연관되어 있습니다.
전체 확률의 법칙을 통해 복잡한 시스템의 여러 부분을 단일 확률 값으로 통합하여 분석할 수 있습니다.

질문: 여러분께서는 다양한 조건들을 모두 고려하여 하나의 사건의 확률을 계산한 경험이 있으신지요? 그 경험을 상세히 기술해 주시기 바랍니다.


Bayes Theorem

베이즈 정리는 주어진 증거를 바탕으로 사건의 확률을 역으로 추정하는 강력한 도구입니다.
수식 \(P(A|B) = \frac{P(B|A) P(A)}{P(B)}\) 는 사건 (A)의 사전 확률과, 증거 (B)가 주어졌을 때 사건 (A)의 사후 확률을 계산하는 방법을 제공합니다.
이 정리는 새로운 정보가 들어올 때마다 기존의 확률을 업데이트할 수 있는 체계를 마련하며, 동적인 확률 판단을 가능하게 합니다.
의료 진단, 스팸 메일 필터링, 금융 시장 분석 등 다양한 분야에서 베이즈 정리는 널리 활용되고 있습니다.
베이즈 정리를 통해 기존의 지식과 새로운 증거를 결합하여 보다 정확한 예측을 수행할 수 있습니다.
정보가 점차 누적되고 갱신됨에 따라, 사건의 확률이 어떻게 변화하는지를 체계적으로 이해할 수 있습니다.
이론적 기반과 실무적 응용 모두에서 베이즈 정리는 확률 모델링의 핵심 원리로 작용합니다.
불확실한 상황에서도 합리적인 결정을 내릴 수 있도록 돕는 이 도구는, 다양한 사례에서 그 유용성이 입증되었습니다.

질문: 여러분께서는 베이즈 정리를 실제 문제에 적용해 본 경험이 있으신지요? 그 경험을 구체적으로 설명해 주시기 바랍니다.


Statistical Independence

두 사건이 통계적으로 독립적이라는 것은 한 사건의 발생이 다른 사건의 발생에 어떠한 영향을 미치지 않음을 의미합니다.
수식 \(P(A \cap B) = P(A)P(B)\) 는 두 사건 (A)와 (B)가 서로 독립임을 수학적으로 표현합니다.
독립 사건의 개념은 확률론에서 매우 중요한 역할을 하며, 복잡한 문제를 단순화하는 데 기여합니다.
이 개념을 통해 각각의 사건이 별개의 확률적 요소로 작용함을 가정하여 전체 확률을 보다 쉽게 계산할 수 있습니다.
예를 들어, 동전 던지기와 같이 각 시행이 서로 영향을 주지 않는 경우, 이러한 독립성의 가정은 매우 타당합니다.
실제 문제에서는 독립 사건 간의 관계를 분석함으로써, 복합 사건의 전체 확률을 효율적으로 산출할 수 있습니다.
독립성의 가정은 통계적 모델링과 데이터 분석에 있어서 중요한 전제로 작용하며, 이를 통해 계산의 단순화를 도모합니다.
이론적으로, 독립 사건 간의 확률을 곱하는 방식은 많은 확률 문제 해결의 핵심 전략으로 활용됩니다.
따라서, 통계적 독립성을 명확히 이해하고 적용하는 것은 확률론의 기본 원리를 실무에 반영하는 데 큰 도움이 됩니다.

질문: 여러분께서는 실제 데이터를 분석할 때 독립성 가정을 통해 문제를 단순화한 경험이 있으신지요? 그 경험을 구체적으로 기술해 주시기 바랍니다.


Bernouli Trials

베르누이 시행은 단 두 가지 결과, 즉 성공과 실패만을 가지는 실험을 의미합니다.
이러한 시행은 확률론에서 가장 기본적이고 중요한 실험 모델 중 하나로 취급되며, 각 시행이 독립적이고 동일한 확률 분포를 가진다는 가정을 전제로 합니다.
동전 던지기와 같이 단순한 성공과 실패의 두 결과만을 가지는 경우가 대표적인 예입니다.
베르누이 시행의 기본 개념은 여러 번의 시행을 통해 이항분포 등 다양한 확률 분포를 도출하는 기초가 됩니다.
이 모델은 복잡한 확률 문제를 단순화하여, 보다 명확하고 엄밀한 분석을 가능하게 합니다.
각 시행이 독립적이라는 가정 하에, 성공의 횟수를 확률적으로 예측할 수 있으며, 이는 다양한 실무 문제에 응용될 수 있습니다.
베르누이 시행의 특성은 실제 현상을 근사하는 데에도 효과적으로 활용되며, 확률론의 중요한 기반이 됩니다.
이러한 단순화된 모델을 통해 복잡한 문제도 명확한 수학적 모델로 전환할 수 있습니다.
실제 응용 사례에서는 베르누이 시행의 결과를 바탕으로 성공률을 평가하고, 예측 모형을 구성하는 데 큰 도움이 됩니다.

질문: 여러분께서는 베르누이 시행의 개념을 실제 문제 해결에 응용한 경험이 있으신지요? 그 사례를 구체적으로 제시해 주시기 바랍니다.


Reliability Problems

신뢰성 문제는 시스템 또는 장비의 고장 확률을 분석하고 예측하는 데 중점을 두는 분야입니다.
각 구성 요소의 고장 확률을 기반으로 전체 시스템의 신뢰도를 평가하는 것은 시스템 설계와 유지보수에 있어 매우 중요한 과제입니다.
여러 구성 요소들이 서로 연결된 시스템에서는 각 요소의 신뢰도와 상호 작용을 면밀히 분석하여, 전체 시스템의 고장 가능성을 추정해야 합니다.
수학적 모델링을 통해 구성 요소 간의 결합 방식과 독립성 또는 의존성을 고려한 신뢰도 평가가 이루어집니다.
신뢰성 문제의 분석은 전자제품, 기계 장비, 네트워크 시스템 등 다양한 분야에서 필수적입니다.
각 구성 요소의 고장률을 정확하게 파악하고, 이를 통합하여 전체 시스템의 신뢰도를 산출하는 과정은 실질적인 문제 해결에 큰 도움을 줍니다.
이와 같은 분석은 시스템의 성능 저하를 미리 예측하고, 예방적 유지보수를 계획하는 데 중요한 역할을 수행합니다.
여러 시나리오를 고려한 신뢰도 평가 모델은 실제 시스템의 안정성과 효율성을 높이는 데 기여합니다.
따라서, 신뢰성 문제의 해결은 구성 요소 간의 상호 작용을 정량적으로 분석하는 능력에 크게 의존합니다.

질문: 여러분께서는 신뢰성 문제를 해결하기 위하여 구성 요소 간의 상호 작용을 분석한 경험이 있으신지요? 그 경험을 구체적으로 서술해 주시기 바랍니다.


Binomial Distribution and its approximations (Poisson and Gaussian Dist.)

이항분포는 베르누이 시행이 여러 번 독립적으로 수행될 때, 성공 횟수를 모델링하는 확률 분포입니다.
각 시행의 결과가 성공 또는 실패로 나타나며, 전체 시행 횟수와 개별 시행의 성공 확률에 따라 분포의 모양이 결정됩니다.
이항분포는 실생활에서 발생하는 다양한 사건들을 모델링하는 데 매우 유용하며, 통계 분석의 기본 도구로 활용됩니다.
특정 조건, 즉 시행 횟수가 많고 성공 확률이 낮은 경우에는 이항분포를 포아송 분포로 근사할 수 있습니다.
또한, 중심극한정리에 따라 충분한 시행 횟수가 주어지면 이항분포는 가우시안(정규) 분포로도 근사될 수 있습니다.
이러한 근사 방법은 계산의 복잡성을 줄이고, 실질적인 문제 해결에 있어서 효율성을 높입니다.
각 근사 방법은 적용 조건과 한계가 있으므로, 실제 문제에 응용할 때는 그 조건들을 명확히 이해하는 것이 필요합니다.
이항분포와 그 근사는 통계적 추론, 신뢰성 평가, 데이터 분석 등 다양한 분야에서 폭넓게 사용됩니다.
실제 응용 사례에서는 근사 방법을 통해 계산의 편리성을 도모하고, 결과의 정확성을 보완하는 전략으로 활용됩니다.

질문: 여러분께서는 왜 때로 이항분포 대신 포아송 분포나 가우시안 분포를 사용하여 근사하는 것이 더 효과적인지, 구체적인 사례를 들어 설명해 주실 수 있으신지요?


이와 같이 각 항목에 대해 자세하고 심도 있게 기술함으로써, 랜덤 프로세스와 확률론의 기초 및 응용에 대한 이해를 높이고자 하였습니다.
각 이론의 배경과 실제 문제 해결에의 적용을 충분히 고민하시고, 여러분 스스로 생각해 보실 수 있는 기회를 제공하는 것이 본 글의 목적입니다.
앞으로도 이러한 이론들을 바탕으로 복잡한 무작위 현상을 체계적으로 분석하고, 실질적인 응용 방안을 모색하시길 기대합니다.

This post is licensed under CC BY 4.0 by the author.