Book
리더로서 내 사람을 만드는 것은 중요하다.
회사에서 팀장으로 이제 만 1년을 채운다. 이제는 실무 자체는 손을 대지 않되, 코드리뷰나 방향성 정도만 개입을 하고 기타 관리 측면에서 일정이나, 놓치고 있는 부분들에 대해서만 체크를 하고 있다. 하지만 이런 형태의 업무 자체로는 내 커리어의 선택옵션을 늘리는데 크게 도움이 되지 않는다고 생각해서 코칭에 관심을 가지기 시작하였고, 그래서 성과향상를 위한 코칭리더십이라는
Book
회사에서 팀장으로 이제 만 1년을 채운다. 이제는 실무 자체는 손을 대지 않되, 코드리뷰나 방향성 정도만 개입을 하고 기타 관리 측면에서 일정이나, 놓치고 있는 부분들에 대해서만 체크를 하고 있다. 하지만 이런 형태의 업무 자체로는 내 커리어의 선택옵션을 늘리는데 크게 도움이 되지 않는다고 생각해서 코칭에 관심을 가지기 시작하였고, 그래서 성과향상를 위한 코칭리더십이라는
Team
개발조직의 팀장으로 온지 이제 1년을 채워간다. 생각보다 쉽지 않고, 여전히 가야할 길이 멀다. 그 중에 가장 쉽지 않았던 부분이 바로 Output과 Outcome에 대한 구별과 이에 기반한 업무 진행방식을 이해시키는 것이었다. 내가 오기 전에도 개발팀은 Output과 Outcome을 충분히 잘 만들고 있었다. 차이가 있다면 Output에 대한 이해도를 바탕으로 능동적으로 일을 하는 것은
Book
최근에 언리더십이라는 책을 알게 되어 읽게 되었다. 제목자체가 여타 책과 달랐던 탓이다. 그 책에서는 기업을 알파와 베타기업으로 나눠서 설명하고 있었고 리더 역시 비슷한 관점에서 비교해서 설명하고 있었다. 사회생활을 하면서, 정보의 통제를 바탕으로 한 강압적인 리더십은 이미 사회생활에서 겪었고 그게 나에게 적합하지는 않다고 생각하지 않았고 그렇다면 어떠한 리더십이 적합할지 궁금해하던 차
Data
Summary * Rejection Sampling은 Sampling 기법의 하나로, 특정 Distribution을 따르는 수를 임의로 생성하는 기법이다. * Proposal Distribution $g(x)$에 Scale Factor M을 곱해서 $f(x)$을 덮은 다음(envelope) 여기에 Uniform Distribution을 곱해서 각 수의 발생확률을 균일하게 가져간다. * $u * M* g(x) \le f(x) → u \le {f(x) \over {M*
Book
리더가 된지 이제 1년이 되어간다. 여전히 조직에서는 리더로서의 의무를 팀의 방향성을 이끌고, 의사결정을 하는 최종 책임자로 인식하고 있지만, 나보다 더 뛰어난 구성원과함께 하는 입장에서는 오히려 이들의 의사결정을 이끌어내고 합의를 만듬으로써 팀을 이끄는 방식에 효과성을 느끼고 있다. 언리더십은 조직에서 말하는 리더십의 반대개념이다. 언리더십은 리더가 아닌 사람들이 자발적으로 일을 시작하고 다른 사람들이
Data
언제 사용하는가? * $X = {x_1,x_2,...,x_N}$이 있고 $X$의 Latent Varaible로 $Z$가 있을 때, Posterior인 $P(Z|X)$를 구하고 싶으나 구하기 어려울 때가 있다. 이 때 $p(z|x)$를 Variational Distirbution $q(z)$을 통해서 근사해서 구하는 방식이다. * 물론 EM(Expectation Maximization Algorithm)
Book
새벽 4시, 아이의 밤중수유를 위해서 일어나야 할 시간이다. 한달이 지나자 슬슬 아이가 울지 않아도 4시 20분 전후로 눈이 먼저 떠진다. 더 자고 싶은 욕구가 한껏 밀려오는 상황을 이겨내기 위해서 지난 주부터는 수유 전후로 차를 한 잔 마시기 시작하였다. 이미 아이 때문에 어느정도 각성이 된지라, 바로 잠을 자기는 어려운 것을 감안한다면
Book
솔직해서 너무 좋았다. 뭐랄까, 삶에 대해서 전체적으로 조망하지 않고, 흐리멍텅한 말투로 "현재의 나"가 계속 지속될 것처럼 말하는 사람이나 말투가 너무 싫었다. 그런 측면에서 저자인 세이노님은 정치적인 부분은 차치하고 나서라도 마음에 와닿는 부분이 참 많았다. 오히려 내가 부끄러운 부분이 너무 많았다. 부자가 되려면 미래 방정식에 지금의 처지를 대입하면
Data
"소로스"는 워런버핏과 더불어 성공한 한 시대의 투자가로서 아흔을 넘어 여전히 정력적으로 활동하고 있다. 하지만 그에 대해서 우리가 아는 것은 거의 없다. 나 역시도 "영국과 싸워 이긴 헤지펀드 투자가" 정도로만 기억하고 있을 뿐이다. 그런 그가 생전 듣지도 못했던 대학 "중부유럽대학"에서 특강을 했다는 이야기를
Data
Target Encoding은 해당 Category에 나타난 Target Variable의 평균을 이용해서 Categorical Values를 대체하는 방식이다. 구성원의 코드를 리뷰하던 도중, Label Encoder를 쓴 부분들을 보다가 Label Encoder를 쓰는게 맞는가에 대한 생각이 들어 대안을 생각해보던 중 Target Encoder가 떠올랐다. 평균이라는 하나의 Value로 Categorical Value를 대체하기 때문에 간편하기도 하고, Label Encoder로 했을 경우 대치된 수치간의
Book
Covid-19이 창궐할 즈음, 올웨더 포트폴리오를 시작으로, 정량투자, 시스템 트레이딩에 대해서 관심을 가지기 시작하였던 것같다. 그 이후 꾸준히 정량적인 투자를 하고 있지만, 뭐랄까 전체적인 그림 없이, 코끼리의 몸만 매번 만져가는 식의 투자는 개인적으로 맞지 않아 흥미가 많이 빠졌던 중에 퀀트대디님의 책, "퀀트의 정석"이 출간되었다고 하여 책을 읽어보게 되었다.
Data
Entropy는 Cross Entropy Loss라는 이름으로 Deep Learning에서 분류 모델을 하는 이에게는 꽤나 익숙한 함수이다. 식으로는 다음과 같이 쓴다. $$-{1 \over n}\sum\limits^n_{i=1}\sum\limits^c_{c=1}L_{ic}log(P_{ic})$$ * $n$ = 데이터 갯수 * $C$ = 범주 갯수 * $L$ = 실제 값 (주로 0 또는 1)
Data
* 강점 * Attention을 활용, 반복을 최소화하고, Positional Encoding을 활용해서 parallelization 지원 * Attention을 활용하여 Input Sequence에서 다른 Sequence의 어떠한 부분이 중요한지 결정 * 구조 * $X$개의 Encoder와 $X$의 Decoder로 구성되어 있음 * Encoder와 Decoder의 수는 동일하며, Encoder는 모두 동일한 구조, but Weight Matrix를 공유하지 않음 * Encoder는 Self-Attention과 Feed-Forward로 구성되어 있음 * Self Attention에서는 $K,
Data
Long Tail Event * Long Tail Event는 Right Skewed Distribution 에서 발생하는 특징 중 하나로, Outlier와도 비슷해보이지만, Outlier대비 상당히 길게 꼬리형태로 길게 이어지는 Data Point들이 보이고, 이들의 빈도가 상대적으로 높은 편이다. 이러한 형태는 이커머스나 배달앱 등 여러 곳에서 자주 보이는 형태이다. 전체 회원을 RFM 관점으로 나눠서 봐도 Long Tail Event를 찾아
Book
최근에 직장인과 문과생을 위한 수학교실 (이하 직문수)를 가볍게나마 들을 기회가 있었다. 수학이라는 거대한 학문내 주제들이 어떻게 연결되는지를 거시적인 관점에서 다루는 강의였는데, 개인적으로는 꽤 큰 소득이 많았던 강의였다. 무엇보다 "수학"이라는 것이 어떤 절대적인 진리라기보다는 탄탄한 근거를 통해 설명하는 학문이라는 것을 정확하게 알게 되었다. 개인적으로 데이터 과학 업에서
Life
아버지와 함께 오후 일정을 소화 후 집에 오니 오후 6시였다. 해야할 것들은 많다고 느껴지는데, 무엇을 해야 할지 모르겠다라는 생각이 머리를 맴돌았다. 그래서 오전에 읽을까 하여 Read it Later로 북마크해놓은 ‘챗GPT의 아버지’ 샘 알트만은 어떤 사람인가 글을 읽기 시작하였다. 이 글을 대략 빠르게 훑어서 마지막에 갈 때 쯤, 그 생각이 들었다.