Numpy vs Torch

Numpy와 Torch의 차이

  • Numpy는 일반적인 ML을 위해서 이용되나, Torch Tensor는 무거운 행렬연산에 최적화되어 GPU 사용을 지원
  • Torch Tensor는 Tensor 생성시 추가 Parameter로 device_type과 require_grad를 옵션으로 지원

랜덤시드

np.random.seed(202206)
torch.manual_seed(202206) # for both CPU and CUDA

생성시

import numpy as np
import torch

np_random = np.random.random((4, 4))
torch_random = torch.rand(4, 4)

Size 파악시

array = [[1,2],[3,4]]
np_array = np.array(array)
torch_array = torch.tensor(array)

print(np_array.shape == torch_array.shape)
print(np_array.shape == torch_array.size())
print(np_array.reshape(4, 1).shape)
print(torch_array.view(4,1).shape)

차원 추가

np.expand_dims(np_random, axis=0).shape
torch.from_numpy(np_random).unsqueeze(0).shape

판별식

  • 행렬식은 아직은 Numpy만 제공
np.linalg.det(np_array)

역행렬

np_random = np.random.random((4, 4))
# Inverse
np.linalg.inv(np_random)
torch.inverse(torch.from_numpy(np_random))

# 유사역행렬
np.linalg.pinv(np_random)
torch.pinverse(torch.from_numpy(np_random))

전치행렬

np_random.T
np_random.transpose()
torch.from_numpy(np_random).T

세이브 및 로드

np.save('file.npy', np_random)
np.load('file.npy')

torch.save(torch.from_numpy(np_random), 'file')
torch.load('file')

References

Read more

다중공선성은 잘못된 인과추론 결과를 만들어낼 수 있습니다.

다중공선성은 잘못된 인과추론 결과를 만들어낼 수 있습니다.

다중공선성(Multi Collinearity) * **Multi-Collinearity(다중공선성)**는 독립 변수들 간의 강한 상관관계가 존재할 때 발생합니다. 즉, 한 독립 변수가 다른 독립 변수에 의해 설명될 수 있을 정도로 상관관계가 높은 상황을 의미합니다. * 이 문제는 주로 회귀 분석에서 나타나며, 변수들 간의 관계를 해석하는 데 있어 큰 장애물이 될 수 있습니다. * 일반적인 회귀식을 $Y=

Bayesian P-Value는 불확실성을 감안하여 모델의 적합도를 평가합니다.

Bayesian P-Value는 불확실성을 감안하여 모델의 적합도를 평가합니다.

Bayesian P- Value * Bayesian P-Value는 **모델의 적합도(goodness-of-fit)**를 평가하는 데 사용됩니다. * 사후 분포(posterior distribution)를 이용하여 실제 데이터와 모델이 생성한 예상 데이터를 비교함으로써, 관측된 데이터가 모델에 의해 얼마나 잘 설명되는지를 평가합니다. * 빈도주의 p-값은 "관찰된 데이터보다 극단적인 데이터가 나올 확률"을 계산하지만, Bayesian P-Value는 "모델이 실제

Non-Identifiability는 Model Parameter를 고유하게 식별할 수 없는 현상입니다.

Non-Identifiability는 Model Parameter를 고유하게 식별할 수 없는 현상입니다.

Non Identifiability * Non-Identifiability는 주어진 데이터와 모델에 대해 특정 파라미터를 고유하게 식별할 수 없는 상황을 의미합니다. 즉, 여러 파라미터 값들이 동일한 데이터를 생성할 수 있으며, 이로 인해 특정 파라미터 값을 확정적으로 추정하기 어렵게 됩니다. * 베이지안 추론에서 Non-Identifiability는 사후 분포가 특정 파라미터 값에 대해 명확하게 수렴하지 않고, 여러 값들에 대해 비슷한 확률을

Rootgram은 큰 분산을 갖거나 비정규 형태의 데이터를 위한 히스토그램입니다.

Rootgram은 큰 분산을 갖거나 비정규 형태의 데이터를 위한 히스토그램입니다.

Rootgram * 히스토그램의 변형으로 데이터가 비정규적이거나 큰 분산을 가지는 경우, 정확한 분포를 파악하기 위해 사용됩니다. * 일반적으로 히스토그램은 데이터의 빈도를 직접적으로 나타내기 때문에, 큰 값이 빈번하게 발생하는 경우 상대적으로 작은 값을 잘 드러내지 못하는 경향이 있습니다. 반면, Rootgram은 빈도를 제곱근 형태로 변환하여, 데이터 분포의 차이를 더 잘 시각화할 수 있도록 돕습니다 * 여기서