본문 바로가기

분류 전체보기

(393)
관악산 구간별 소요시간: 서울대 윗공대에서 연주대까지 38분 소요 관악산 구간별 소요시간을 정리해봤다. 앞으로도 자주 갈테니, 등장하는 랜드마크까지 소요시간을 기억해두는 것이 좋을 것 같다 . 1. 입구 302동에서 더 위로 살짝 넘어가면 입구가 나온다. 정확히는 건설환경종합연구소 정류장이지만, 그곳까지 내려가서 등산하기에는 입구가 너무 멀다. 울타리에 구멍이 뚫려있는 곳이 많으니 그쪽으로 들어가면 된다. 2. 첫 번째 다리: 3분 소요 입구에서 3분 정도 올라가면 첫 번째 다리가 나온다. 사진찍기 좋은 스팟! 3. 첫 번째 계단: 13분 소요 죽을 둥 살둥 올라가면, 계단이 등장한다. 물론 얼마 안 가 다시 산길로 바뀌는 계단이다. 관악산은 산길 - 계단이 반복되는 구조라서 "다 와가나?" 하고 착각하기 쉽다. 3. 가짜 정상: 14분 소요 첫 계단에서 14분 정도가..
휴대폰 쳐다보는 습관 고치기: 3일차 다시금 생각을 하는 삶을 살고 싶다고 말한 현재, 가장 크게 바꿔야 하는 습관은 휴대폰을 보는 습관이다. 정확히 1년 전에도 똑같은 말을 하며 글을 올린 바 있다. 휴대폰 쳐다보는 습관 고치기: 2일차 (tistory.com) 휴대폰 쳐다보는 습관 고치기: 2일차 이틀 동안 휴대폰을 왜 쳐다보고 있는지에 대한 다양한 가설을 세워봤다. 1) 하는 일이 막혀서: 집중을 한참 하다가도 휴대폰을 보고 싶다는 갈망이 샘솟는 걸 느낄 때가 있다. 2) 하는 일이 재미 mech-literacy.tistory.com 무슨 이유에서인지, 휴대폰을 보는 이유가 "휴대폰을 보고 싶기 때문" 이라는 수준의 사고에서 그쳤다. 믿기지 않을 정도로 얕은 수준의 사고 방식인데 현재는 좀 더 명확한 사고의 흐름이 가능하다. 휴대폰을 ..
생각하며 살기를 멈추었던 이유 뭔가를 쓰는 습관은 내게 굉장한 일이다. 내가 뭔가 쓰기 위해서는 신경을 곤두세우지 않으면 안된다. 말이 되는 문장인지, 감정에 치우진 것은 아닌지 검토하는 것도 물론 한 몫을 한다. 연필로, 펜으로 쓰는 것은 그나마 쉬운 줄 알고 노트에 이 글을 쓰다가, 그마저도 만만치 않다는 것을 깨닫고 다시금 블로그에 접속하여 글을 옮겨 담는다. 신경을 곤두세우지 않으면 안되는 본질적인 이유는, 내 머리로 생각하며 살기를 멈췄기 때문이다. 조금만 빈 틈이 보이면 유튜브 시청, 넷플릭스 시청. 아이패드로 그리는 그림 실력도 꽤나 많이 늘었다고 생각된다. 아무 생각도 하지 않으면서, 보이는 대상을 그림으로 잘 옮겨담았는지만 신경쓰면 되기 때문이다… 아무튼 내 상황을 직시하기에 너무 머리 아파하는 탓이다. 인지부조화인 ..
[딥러닝 공부] 2일차: Transformer를 공부하기 전에 훑어보는 LSTM (이론편) RNN (Recurrent Neural Network)이란, 아래 하나의 그림으로 표현이 가능하다. recurrent 라는 말이 의미하듯 (재현하다, 재발하다), 연속적인 데이터가 들어올 때, 동일한 블록을 거쳐서 연속적인 Output을 내놓는 형태의 Neural Network라고 할 수 있겠다. 연속적인 Output의 대표적인 예시가 언어의 문장 구조이기에 번역 등의 업무에 많이 쓰이지만, 이미지 해석 등의 영역에도 충분히 쓰일 수 있다. 하지만 단순한 RNN 블록으로는 한계가 있었는데, 바로 문장이 길어질수록 초반에 들어온 정보를 잘 기억하지 못한다는 것이다. 이런 현상이 나타나는 이유는 Gradient Vanishing 문제와 연관이 있다고 하는데, 상세한 내용은 아래 논문(링크)을 참고하면 좋을 ..
[딥러닝 공부] 2일차: Transformer를 공부하기 전에 훑어보는 LSTM (준비편) CNN의 가장 보편화된 버전인 ResNet을 익혔으니, 내가 알고 있는 언어 모델의 가장 보편화된 버전인 Transformer를 공부하기 전에 LSTM을 읽어봐야겠다 생각했다. 우선 "보편화"에 대한 정의를 생각해보자면, 1) 만족할만한 성능을 내면서 2) 구현하기 쉽도록 각종 튜토리얼이 많이 쌓여있어야 한다는 점이다. 그리고 Transformer를 바로 공부하지 않고 LSTM을 보는 까닭은, 예전에 하던 딥러닝 스터디에서 봤던 강연의 제목 때문이다. 위 제목 때문에, "아, Transformer를 이해하려면 LSTM부터 알아야겠구나!" 하는 생각을 했던 것이다. Transformer와 LSTM의 비교가 이뤄지는 강연이니, LSTM을 알면 Transformer를 더 잘 이해할 수 있을 것이라는 생각을 했..
[딥러닝 공부] 1일차: ResNet (2016)을 공부하는 2022년의 나 (실습편) ResNet 실습을 어떻게 해볼까 고민을 하다가, 그냥 github에 올라온 실습 코드를 그대로 따라가보기로 했다. ResNet: Deep Residual Learning for Image Recognition (꼼꼼한 딥러닝 논문 리뷰와 코드 실습) - YouTube 위 영상에서 소개해주는 ResNet 원리와 코드들이 상당히 쉽고 좋았다. 다만, 예제 코드에서는 ImageNet dataset을 사용하는데, 2021년 3월 이래로 사이트 개편이 되면서 더 이상 imagenet 예제를 사용할 수 없게 되었다. 다양한 예제들을 주피터 노트북을 통해 시도해봤지만, 일주일이 지난 오늘, 뭐가 뭔지 기억조차 잘 나지 않는다. 하지만 첫 술에 배부르랴? 일단 ResNet을 시도해봤으니 다음 논문으로 넘어가나 봐야겠다.
[딥러닝 공부] 1일차: ResNet (2016)을 공부하는 2022년의 나 (이론편) 아니 14만 회 인용된 논문은 난생 처음 본다. 아마 CNN을 처음으로 제안했던 논문은 이보다 더하겠지? CVPR이라는 Computer Vision 관련 학회에 2016년 publish된 논문으로, Kaiming He 등 microsoft 출신 연구진 4명이 작성했다. 이름만 들었을 때는 "어디 오스트리아쪽 사람인가?" 했더니 중국인이었다. 4명 모두 중국계다. 아래 그래프를 통해 보여지듯, ResNet의 장점은 두 가지라고 한다. 1) 성능 향상: 기존에 layer를 쌓아갈 때 발생하던 성능 저하 문제를 "잔여학습 (Residual Network)"를 통해 해결했음 2) 쉬운 알고리즘: 이해하기 쉬운 간단한 방법. 다만, 아래 그래프에는 첫 번째 장점 (성능 향상)만 확인할 수 있다. 초반 intro만..
[딥러닝 공부] 0일차: pytorch 튜토리얼 진행 그동안 깔짝대기만 했던 딥러닝 공부를 다시 한 번 시작해보고자 한다. 생각해보면 퇴사 후 인턴을 준비하면서도 딥러닝 스터디를 했고, 이번에 졸업 준비를 하면서도 딥러닝 공부를 시작하려는 참이니, 딥러닝을 "시간 때우기" 용으로만 써왔던 것이 아닌가 싶다. 조금만 바빠지면 거들떠도 보지 않게 되는 수준으로만 대했던 것 같다. 하지만 이번엔 다르다! 취미생활로라도 꾸준히 딥러닝을 파봐야겠다 생각을 한 것은, 이제 앞으로 할 일이 이것과 연관이 되어 있기도 하거니와, 내가 사용할 줄 아는 산업용 도구들의 (공학적 디자인 및 해석에 치우쳐 있다) 한계를 맛봤기 때문이다. 다시금 블로그에 기록을 하며 공부를 이어가야겠다. 첫 날에는 pytorch 튜토리얼을 진행했다. 몇 번째 진행하는 튜토리얼인지는 잘 모르겠지만..
[대학원] 또 다시 마주한 취업 준비의 계절 - 자기소개서 아아 9월은 잔인한 달, 10월도, 11월도, 12월도 잔인한 달. 합격 연락이 오기까지는 죄다 잔인한 달. 19년도 상반기에 이어 또 다시 취업 준비의 계절이, 아니 학기가 도래했다. 내 생애 다시는 없었으면 좋겠다 생각했던 것 같기도 하다. "6개월 뒤에 어디서 뭘 하고 있을까" 하는 고민을 도대체 몇 번 하는 건지 모르겠다. 하지만 예전의 나와는 달리, 대학원을 성실하게 보낸 나로서는 거 참 자신감이 하늘을 찌른다. 이래도 안뽑아? 하는 마음가짐을 가질 수 있는 것이다. 그럼에도 불구하고, 취업 준비란 빡세다. 면접관들이 읽고 싶어할 글을 적는 것부터 그렇다. 난 내가 쓰는 글에 자부심이 있다. 어제 썼던 글만 하더라도 오늘 몇 번 읽었는지 모르겠다. 심지어 내가 보낸 이메일도 여러 번 읽는 사람인..
기계과 대학원 워크샵에서 진행했던 싯다운 코미디 대학원 워크샵을 다녀왔다. 우리 연구실끼리 간 것은 아니고, 총 인원이 80명 쯤 되었을까 여튼 꽤 큰 행사였다. 강릉으로 1박 2일이었는데, 일정이 상당히 빡빡했다. 그 와중에 먼 훗날에도 깔깔 웃으며 자랑할 만한 애드립이 두 가지 있어 기록을 해두고자 한다. 적고 나면 사소한 일이겠지만 (사실 적기 전에도 사소한 일이다) 가끔씩 이렇게 자신감을 높여줄 필요가 있다. 1. 미리 준비해둔 애드립이 잘 먹힌 사례 워크샵을 가기 전에 이런 생각을 했더랬다. "분명히 나이 많은 연구원분들도 많이 오실 건데, 어떤 식으로 이야기가 오갈까? 옛날 이야기를 하고 계시면 농담을 하나 던져야겠다." 아니나 다를까, 워크샵에서 짜인 팀이 있었고 팀별 멘토가 한 명씩 배정되었다. 우리 연구실을 졸업한 젊은 교수님이었는데,..