Vector Space, Linear Independent, Basis

Vector Space

  • 집합 내 원소간 대한 덧셈과 상수곱을 했을 때 결과가 모두 해당 집합에 속하고, 다음 조건을 만족하는 집합을 Vector Space라고 정의한다
  • 합에 대하여
    • 교환법칙: $a + b = b + a$
    • 결합법칙 $(a + b) + c = a + (b + c)$
    • 항등원: $a + 0 = a$
    • 역원: $a + (-a) = 0$
  • 상수곱에 대하여
    • 분배법칙
      • $c(a + b) = ca + cb$
      • $(c + k)a = ca + ka$
    • $c(ka) = (ck)a$
    • $1a = a$
  • 좌표공간의 모든 원소나 함수의 집합도 Vector Space라고 할 수 있다

Linear Independent

  • $v_1...v_n \in W \subseteq V$라고 하고 \vec{A}와 \vec{B}가 원소일 때 여기에 덧셈을 하든 상수곱을 한 원소가 모두 $W$에 속한다고 할 때 $W$는 VectorSpace라고 할 수 있다.
  • 이 때 상수곱을 하는 것을 Span한다고 하고 선형결합이라고 한다.
  • Spanc Space가 커져서 아예 $V$와 동일해질 수 있다. 즉 $V$안의 모든 원소를 $v_1...v_n$의 모든 원소의 선형결합으로 나타낼 수도 있다.
  • 이때 특정 Vector에 대해서 $v_1$, $v_2$로 표시할 수 있는 방법이 하나만 존재한다고 할 때 $v_1$과 $v_2$는 선형독립이다라고 말한다.
  • Vecotr Sapce의 원소 $v$를 특정 Vector의 Linear Combination($v = c_1 v_1 + ... c_n v_n$)로 표현했을 때 $(c_1 + ... c_n)$이 순서쌍이 하나만 존재함을 말한다.
  • 만약 $v$를 $(c_1 + ... c_n)$외에도 $(d_1 + ... d_n)$이 있다고 가정할 때 두 선형결합간에 뺄셈을 했을 때 $c_1-d_1 = c_2-d_2 = c_n -d_n$이 0이 되어야 한다는 것을 말한다.
  • 선형독립이면 $0=c_1-d_1 = c_2-d_2 = c_n -d_n$을 만족해야 하고 즉 $0=c_1 v_1 + ... c_n v_n$을 만족해야 한다.
  • 일부 0은 아닌 순서쌍이 있다면 그 Vecotr는 다른 Vector로 표현할 수 있기 때문에 선형종속적이다.

Basis

  • Vector Space $V$의 모든 부분 집합을 $P(V)$라고 할 때 그 안에서 Span Space의 집합과 선형독립인 집합의 교집합을 Basis(기저)라고 한다. Basis는 무수히 많을 수 있다.
  • $v$를 $\vec{v} = a \hat{i} + a+ \hat{b}$라고 나타낼 수 있다면 $\hat{i}$와 {\hat{j}는 Basis가 될 수 있다.
  • 좌표는 Basis를 이용한 계수의 순서쌍이다. 따라서 Basis에서는 원소의 순서가 매우 중요하다.
  • Vector Space V의 Basis 집합 $\beta$가 될 수 있는 집합은 모두 원소의 갯수가 동일하다. 그래서 이를 하나의 특성으로 간주하고 그 원소의 갯수를 우리는 Dimension이라고 부른다.

Read more

다중공선성은 잘못된 인과추론 결과를 만들어낼 수 있습니다.

다중공선성은 잘못된 인과추론 결과를 만들어낼 수 있습니다.

다중공선성(Multi Collinearity) * **Multi-Collinearity(다중공선성)**는 독립 변수들 간의 강한 상관관계가 존재할 때 발생합니다. 즉, 한 독립 변수가 다른 독립 변수에 의해 설명될 수 있을 정도로 상관관계가 높은 상황을 의미합니다. * 이 문제는 주로 회귀 분석에서 나타나며, 변수들 간의 관계를 해석하는 데 있어 큰 장애물이 될 수 있습니다. * 일반적인 회귀식을 $Y=

Bayesian P-Value는 불확실성을 감안하여 모델의 적합도를 평가합니다.

Bayesian P-Value는 불확실성을 감안하여 모델의 적합도를 평가합니다.

Bayesian P- Value * Bayesian P-Value는 **모델의 적합도(goodness-of-fit)**를 평가하는 데 사용됩니다. * 사후 분포(posterior distribution)를 이용하여 실제 데이터와 모델이 생성한 예상 데이터를 비교함으로써, 관측된 데이터가 모델에 의해 얼마나 잘 설명되는지를 평가합니다. * 빈도주의 p-값은 "관찰된 데이터보다 극단적인 데이터가 나올 확률"을 계산하지만, Bayesian P-Value는 "모델이 실제

Non-Identifiability는 Model Parameter를 고유하게 식별할 수 없는 현상입니다.

Non-Identifiability는 Model Parameter를 고유하게 식별할 수 없는 현상입니다.

Non Identifiability * Non-Identifiability는 주어진 데이터와 모델에 대해 특정 파라미터를 고유하게 식별할 수 없는 상황을 의미합니다. 즉, 여러 파라미터 값들이 동일한 데이터를 생성할 수 있으며, 이로 인해 특정 파라미터 값을 확정적으로 추정하기 어렵게 됩니다. * 베이지안 추론에서 Non-Identifiability는 사후 분포가 특정 파라미터 값에 대해 명확하게 수렴하지 않고, 여러 값들에 대해 비슷한 확률을

Rootgram은 큰 분산을 갖거나 비정규 형태의 데이터를 위한 히스토그램입니다.

Rootgram은 큰 분산을 갖거나 비정규 형태의 데이터를 위한 히스토그램입니다.

Rootgram * 히스토그램의 변형으로 데이터가 비정규적이거나 큰 분산을 가지는 경우, 정확한 분포를 파악하기 위해 사용됩니다. * 일반적으로 히스토그램은 데이터의 빈도를 직접적으로 나타내기 때문에, 큰 값이 빈번하게 발생하는 경우 상대적으로 작은 값을 잘 드러내지 못하는 경향이 있습니다. 반면, Rootgram은 빈도를 제곱근 형태로 변환하여, 데이터 분포의 차이를 더 잘 시각화할 수 있도록 돕습니다 * 여기서