Bongho Lee

Bongho Lee
리더로서 힘들 수 있으나, 주저 앉아서는 안됩니다.

Team

리더로서 힘들 수 있으나, 주저 앉아서는 안됩니다.

리더는 외로운 자리이고 힘들 수 있습니다. 하지만 그렇다고 해서 팀원과의 대화를 멈춰서는 안됩니다. 리더는 아래는 팀원의 대화를, 위로는 상사의 대화를 들어야 하는 중간 위치에 서 있습니다. 그래서 당연히 외로울 수 있습니다. 하지만 멈춰서는 안됩니다. 리더가 외로운 것은 당연합니다. 위대함이 발현되는 상황일 수 있습니다. 포기하면 편합니다. 편하지 않고, 힘들다는 것은 무언가를

단일파일압축 기반 고성능 압축 알고리즘, zstd

Data

단일파일압축 기반 고성능 압축 알고리즘, zstd

zstd (Zstandard) * 페이스북에서 개발한 빠르고 효율적인 압축 알고리즘입니다. * 높은 압축률과 빠른 압축 및 해제 속도를 제공합니다. Motivation * zstd는 높은 압축률과 빠른 속도를 모두 제공하기 위해 개발되었습니다. 많은 데이터 처리와 전송이 필요한 환경에서 효율성을 높이기 위함입니다. * 스트리밍 지원: zstandard는 스트리밍 압축 및 해제를 지원합니다. 이는 실시간 데이터 처리나 네트워크 전송 시

HyperParameter Tuning 패키지, HyperOpt

Data

HyperParameter Tuning 패키지, HyperOpt

Motivation * 기존의 하이퍼파라미터 튜닝 방식은 주로 수동적이고 시간이 많이 소요되었습니다. * 그리드 서치(Grid Search)나 랜덤 서치(Random Search)는 단순하지만, 고차원의 하이퍼파라미터 공간에서는 비효율적입니다. * HyperOpt는 베이지안 최적화(Bayesian Optimization)와 같은 고급 기법을 통해 하이퍼파라미터 최적화를 보다 효율적으로 수행할 수 있게 합니다. Pros & Cons Pros * 효율적인 탐색: HyperOpt는

인사관리 - 조직장으로서 처음 챙겨야 하는 것들에 대해서

Tean

인사관리 - 조직장으로서 처음 챙겨야 하는 것들에 대해서

이 글은 복기와 회고의 글입니다. 최근에 읽었던 책, "HBR 리더십 인사이트"을 읽고 나니, 인사관리, 성과관리, 조직관리, 마인드셋의 관점에서 경험을 훑어보는 것도 좋겠다 싶었습니다. 한 회사에 영원히 있더라도 조직은 여러번 바뀔 수 있기 때문에 이렇게 정리해보는 것은 꽤나 좋은 경험이 아닐까 생각했습니다. 회사에 조직을 처음 구성하고 나면, 조직장과

Gibbs 샘플링과 MH 샘플링은 MCMC의 대표적 방법 중 하나입니다.

Data

Gibbs 샘플링과 MH 샘플링은 MCMC의 대표적 방법 중 하나입니다.

Motivation * 복잡한 다차원 확률 분포에서 직접 샘플링하는 것은 어려운 경우가 많습니다. 이러한 문제를 해결하기 위해 MCMC 방법이 등장했습니다. * * 고차원의 문제: 고차원 공간에서는 모든 가능한 값들을 커버하기 위해 필요한 샘플 수가 기하급수적으로 증가합니다. 이로 인해 효율적인 샘플링이 매우 어렵습니다. * 비선형성: 다차원 확률 분포는 종종 비선형성을 띄며, 특정 변수들 간의 복잡한 상호작용이

중간관리자는 상위조직과 하위조직 중간에서 통역을 담당한다.

Team

중간관리자는 상위조직과 하위조직 중간에서 통역을 담당한다.

실무를 담당하다, 리더로 맞닥뜨릴 때 제일 먼저 당황스러웠던 것은 바로 "언어"였습니다. 운이 좋게 같은 직군에 속한 사람이 상위 관리자면 그래도 다행일 수 있습니다. 하지만 상위로 올라갈 수록 동일 직군인 경우는 점차 드물어집니다. 동일 직군 출신이어도 동일직군의 느낌이 많이 옅어진 경우를 만나게 됩니다. "언어"가 달라졌기

앞으로는 신뢰가 가장 큰 자산이 될 것입니다.

Data

앞으로는 신뢰가 가장 큰 자산이 될 것입니다.

저녁에 샤워를 하고 있을 때였습니다.  세수를 위해 폼클렌저를 집는데, "나노버블"이라는 단어가 갑자기 눈에 띄었습니다. 그 때 머리속에 이런 질문이 떠올랐습니다 사람들이 나노버블의 의미를 이해하고 있을까? 이해한다면 얼마나 이해하고 있고 그 이해도는 얼마나 정확할까? 보통 우리가 문제를 해결할 때를 생각해보면 대부분의 문제는 초기 솔루션이 대부분의 문제는 해결합니다. 해결의

메일을 쓸 때 최소한의 양식을 갖추면 좋은 이유

Life

메일을 쓸 때 최소한의 양식을 갖추면 좋은 이유

육아휴직을 하면서 종종, 다양한 분들과 커피챗을 하게 됩니다. 이번에도 그렇게 커피챗 일정을 잡고 논의를 하는 중이었습니다. 저와 커피챗을 진행하신 분은 저를 좋게 봐주셨는지, 혹시 회사 입사 프로세스를 진행하실 생각이 있으실지 이야기를 주셨습니다. 그래서 가족과 이야기를 나눈 후 정중하게 메일을 써서 거절을 하였습니다. 그리고 받은 메일을 보았는데, 굉장히 당황스러웠습니다. 딱 세문장이었습니다.

끊임없이 교집합을 만들고자 하는 노력이 필요합니다.

Life

끊임없이 교집합을 만들고자 하는 노력이 필요합니다.

휴직 중에, 가장 많은 시간을 투자하고 있는 활동은 바로 사람을 만나는 것입니다. 기존에 알고 있던 사람들을 만나면서 의사결정을 하는 과정과 근황에 대해서 이야기를 나누고 있습니다. 회사에서 다양한 문제를 해결해볼 수록, 느끼는 것은 결과물의 품질만큼이나, 왜 결과물을 이렇게 만들었는지에 대한 이야기 역시 중요하다 입니다. 이 과정에서 정말 어디서도 듣기 쉽지 않은

Gaussian Process은 무한공간에서 사전정보를 결합하기 위해 사용된다.

Data

Gaussian Process은 무한공간에서 사전정보를 결합하기 위해 사용된다.

Definition * 연속적인 함수 공간에서 정의된 확률 과정으로, 주어진 데이터로부터 함수의 분포를 추정하는 강력한 비모수적 방법입니다. * Gaussian Process는 주로 회귀 분석, 분류, 최적화 문제에서 사용되며, 특히 불확실성을 정량화하는 데 유용합니다. * Bayesian Analytics에서 Infinite Space에 대해 Prior를 적용하기 위한 방안으로 활용됩니다. Pros & Cons Pros 1. 비모수적 접근: 모델의 구조를 사전 정의하지

그라운드 룰은 Atomic해야 한다.

Team

그라운드 룰은 Atomic해야 한다.

이전에 수학과 논리학에 관한 책을 보다가 수학에 관한 재미난 정의를 본 적이 있습니다. 수학은 여러 논쟁 끝에 얻어낸 단단한 논리 기반 위에 차곡차곡 쌓아 올린 학문이기에 가장 정확한 사실을 전달해주는 언어이다라는 내용이었던 것으로 기억합니다. 이 이야기를 듣고 나니, 왜 고등학교에서 배우던 수학의 정석의 첫 단원이 집합이고, 그 이후에 이어지는 내용이

두 포인트간의 유사도를 찾는데 사용되는 Kernel Function

Data

두 포인트간의 유사도를 찾는데 사용되는 Kernel Function

Definition * **커널 함수(Kernel Function)**는 기계 학습과 통계에서 사용되는 함수로, 두 데이터 포인트 간의 유사도를 측정합니다 * . 주로 비선형 데이터를 고차원 공간으로 변환하여 선형 분리가 가능하게 하는 데 사용됩니다. * 커널 함수는 Support Vector Machines (SVM), Gaussian Process, 커널 PCA와 같은 다양한 알고리즘에서 핵심적인 역할을 합니다. Motivation * 기계 학습에서 많은 데이터는

삶에서 바라보는 시간의 단위를 바꾸면 초연해질 수 있습니다.

Life

삶에서 바라보는 시간의 단위를 바꾸면 초연해질 수 있습니다.

아침에 집을 나서는데 비가 정말 많이 오고 있습니다. 비가 이렇게 많이 오고, 해는 보이지 않으니 정말 어제 걸어간 길이 오늘 걸어가는 길이 맞는지 상상이 되지 않습니다. 여기에 덧붙여 잠까지 설치고 나니, 하루 아침은 그야말로 우중충충하기 그지 없습니다. 하지만, 이런 날씨에 그다지 놀람은 없었습니다. 곧 멈출 것이니까요. 이렇게 생각하고 나니, 문득

Double ML과 DR Learner는 ML 기반 인과추론 방법론이다.

Data

Double ML과 DR Learner는 ML 기반 인과추론 방법론이다.

Double ML: Residual on Residual Regression + Cross-Fitting * 통제 변수를 조정하여 잔차 회귀(Residual on Residual Regression)와 교차 적합(Cross-Fitting)을 결합하여 사용합니다. * 장점 * 편향 감소: 잔차 회귀를 통해 통제 변수의 영향을 제거하여 인과 효과 추정의 편향을 줄입니다. * 일관성 보장: 교차 적합을 통해 과적합을 방지하고 추정의 일관성을 보장합니다. * 유연성: 다양한