Team
성장은 연속적이기 때문에 면담의 주제도 연속적이어야 합니다.
최근 들어 1:1 면담에 대한 다양한 책을 읽어보고 있다. 그러면서 공통적으로 떠오른 질문이 있었다. "3년뒤의 나, 5년 뒤의 나"를 면접 때 물어보는데 이러한 질문을 도와줄 수 있는 리더가 되려면 어떻게 해야할 것인가였다. 회사의 업무에 치이다보면 이런 사이클은 생각하지도 못한 상황에서 반복된 운영업무로 치일 수도 있는 것이
Team
최근 들어 1:1 면담에 대한 다양한 책을 읽어보고 있다. 그러면서 공통적으로 떠오른 질문이 있었다. "3년뒤의 나, 5년 뒤의 나"를 면접 때 물어보는데 이러한 질문을 도와줄 수 있는 리더가 되려면 어떻게 해야할 것인가였다. 회사의 업무에 치이다보면 이런 사이클은 생각하지도 못한 상황에서 반복된 운영업무로 치일 수도 있는 것이
Data
Background * 가게별로 예측치를 제공할 때 가게에 대한 식별자를 어떻게 전달할 것인가에 대해서 고민한 적이 있고, Label Encoder를 사용했던 적이 있다. Label Encoder is. * Label Encoder는 범주형 데이터를 수치형으로 변환하는 Encoder Motivation * Categorical Data를 ML이 이해할 수 있는 형태인 Numeric으로 변경 Pros & Cons Pros * 매우 구현이 간편하다. * 데이터셋이 크더라도 빠르게
Book
팀 리더로서 나는 격주로 1:1을 진행하는 편이었다. 그리고 그 때 가장 많이 언급한 말이 있었다. 법인은 하나의 법적인 인간라는 것이다. 그리고 인간으로서 비전, 미션으로 시작해서 지금의 하는 업무까지 하나의 거대한 스토리텔링을 한다는 관점으로 바라보라고 권한다. 결국 이 스토리를 이해하고 무대에 함께 설 수 있는 사람이 좋은 배우로서 살아남는다는 말과
Data
사실 너무나도 오래된 Activatio Function이지만, 복기 차원에서 정리해보았음 Leaky ReLU is * Leaky ReLU(Leaky Rectified Linear Unit)는 ReLU(Rectified Linear Unit)의 변형으로, ReLU의 단점을 보완하기 위해 고안 $$ \text{Leaky ReLU}(x) = \begin{cases} x & \text{if } x > 0 \ \alpha x & \text{if } x \leq 0
Team
회사의 규모가 커지게 되면 부서가 많아진다. 전문화라는 측면에서 부서가 많아지는 이유가 설득이 된다. 하지만 부서가 많아지면 얻게 되는 문제도 있다. 바로 고객과의 커뮤니케이션이 파편화될 수 있다는 것이다. 그리고 각 부서는 각 부서의 목표를 챙기는 상황이 되면서 파편화된 커뮤니케이션으로부터 문제를 분석해서 지표상에서 어떠한 변화를 주려고 시도한다. 분명 어떤 근본적인 원인으로 인해서
육아 휴직 이후에, 반복적인 삶의 패턴 속에 잠시 몸을 맡기다보니 시간이 2개월이나 흘러버렸다. 처음에는 돌아갈 직장도 있기에 그리 걱정할 것이 없어보였다. 하지만 의외로 스스로에게 많은 질문을 던지는 시간이 되어가고 있다. 아이와 함께 있다면 두 손은 오롯이 아이에게 가있기에 머리 혼자 생각을 굴리는 때가 많기 때문이다. 펜이라도 쥐어보고 싶었지만, 아이가 뺏으려고
Data
Why Huber Loss * 주요 모델링 업무 중 하나로 배달시간을 예측하다보면, Long Tail Distribution 형태의 모습을 자주 보게 된다. 이 부분에 대응하기 위해 Doordash도 비슷한 고민을 하는 과정에서 Loss Function을 수정하는 모습을 보여주었는데, 그외 Alternative로서 Huber Loss에 대해서 공부하고 적용해본 기억이 있다. 이에 대해서 정리해본다 Definition * Huber Loss는 평균 제곱 오차(
Data
Onnx is * Open Neural Network Exchange의 약자로 Pytorchs나 Tensorflow 등 다양한 Framework를 통해 생성된 모델을 결합하여 사용할 수 있도록 일관성과 상호 운용성을 보장하는 오픈소스 프레임워크 * ONNX는 표준화된 연산자 및 데이터 타입을 활용하여 다양한 플랫폼에서 호환성을 보장함 Motivation * Interoperability: 다양한 ML 프레임워크 간 모델을 호환해서 사용할 수 있도록 지원 * Standardization: 표준화된
Career
개발자로 계속 일을 하고 싶어하는 이가 있는가 하면, 개발팀의 리더로서 성장하고 싶은 이가 있다. 나는 후자였던 것같다. 최근 육아휴직을 하면서 지난 2년간 개발팀 리더로 버티고 지속가능하게 일해오는데 도움이 되었던 몇가지 팁에 대해서 정리해보고자 한다. 첫 번째로 커뮤니케이션 스킬은 너무나도 중요하다. 의사결정을 하는데 있어 팀에게 지시를 하기 보다는 좋은 질문을 던질
Data
MinHash & LSH are * MinHash는 두 집합간의 유사도를 측정하는 기술로 각 집합을 기존 데이터보다 적은 형태의 Signature로 변환하여 연산비용을 줄여준다 * LSH는 Locality Sensitivity Hashing의 약자로, 해싱(Hashing()을 이용, 높은 확률도 유사한 아이템을 같은 버킷(Bucket)에 분류하는데 이용된다. Motivation * 대량 데이터셋에서 유사도를 비교하는 것은 연산비용이 크게 들 수 있다.
Book
사실 이제는 출처가 기억이 나지 않는 이야기가 있다. 한 일본 검사에 관한 이야기였던 것으로 기억한다. 아이는 두려움이 너무나도 많아 툭하면 울곤 하였다. 이를 사람들은 울보라며 놀리곤했다. 그 때 누군가 아이에게 말한다. 우는 것은 굉장한 재능이야. 미래를 알기 때문에 반응하는 거란다. 이 위로를 계기로, 검사는 빠르게 성장하여 일본 제일의 검사가 된다는
Data
FineTuning 장점 * Privacy * Reliability * Cost-Efficient Performance * More Control FineTuning * Full Fine Tuning: 모든 Layer & Parameter를 업데이트 * Parameter-Efficient Finetuning (PEFT): Parameter의 일부만 업데이트 * Low Rank Adaptation (LoRA) * AdaLoRA * Adaption Prompt (LLaMA Adapter). * Alignment Raining: 사용자 선호도를 반영하기 위한 방식 * Direct Preference Optimization * Representation Finetuning * Parameter(Weight) 업데이트 대신 모델 내
Book
사실 왜 이 책을 읽게 된지는 기억이 정확하게 나지 않는다. 데이터 업에 근무한 이래, 우리가 보는 데이터는 어떠한 분포의 산물일 뿐이고, 나머지가 불확실성으로 가려져있다는 것을 알게 되었을 때가 기억난다. 그 이후로 세상을 더 이해하고 싶었다. 이후에 잠시 아팠을 때는, 몸의 무수한 세포들이 각자의 확률분포 함수를 가지고 있을 텐데, 이 수많은
Team
리더로서 일을 한지도 2년이 넘었다. 그 전에도 CEO Staff으로 일하면서 프로젝트를 위해서 버추얼 팀(Virtual Team)팀의 리더로 일한 적이 있었으나, 과제에만 집중할 뿐 리소스 관리에는 고민을 크게 할 필요가 없었기 때문에 리더로서의 경력은 순전히 이제 2년을 조금 넘은 수준이라고 생각된다. 리더로서 일을 하면서 감사하게도 좋은 사람들을 정말 많이 만났지만,
Book
사실 이 책을 읽은 이유는 순전히 제목 때문이었다. 월급을 두 번 받는다니, 게다가 나와 비슷한 공대생이라니 저 사람은 어떻게 할 것인가? 하지만 내용을 훑어보고는 금새 덮어버리고 말았다. 기술적 분석이라니 말이다. 하지만 곧 책을 다시 펼쳐서 보기 시작하였다. 개인적으로 별로 좋아하지 않는 기술적 분석에 대한 내용이 펼쳐졌고, 머리 속에 내용이 들어오지
Book
왜 읽으려고 했을까? 사실 정확히 정리되지는 않았다. 그런데 회사의 상사 역시 이 책을 통해서 회고하고 있었고, 다른 누군가도 비슷한 행위를 하고 있었다. “노르웨이의 숲“ 작가 정도로 기억에 남는 무라카미 하루키의 책을 가지고 왜 이렇게 활용하고 있을지 궁금해졌다. 한 명도 아닌 두 명이 이 책을 동일한 용도로 활용하고 있다니 말이다. 그렇게