본문 바로가기

트렌드 한눈에 보기

(202)
Segger RTT Viewer와 STM을 함께 사용할 때 주의사항 STM 소스코드에 Segger RTT 모듈을 사용하기 위한 폴더를 만들게 될 때, "undefined reference to 'SEGGER_RTT_printf" 같은 에러를 만나기 쉽다. 이유는 Eclipse 기반 IDE에서는 새로운 폴더가 생성될 경우 default로 compile 대상에서 제외시키기 때문이다. 새로운 폴더의 properties에 들어가서 (alt + Enter) "Exclude resource from build" 를 해제해야 해당 폴더를 컴파일 하게 된다. 그럼 문제 해결!
예제와 함께 단숨에 이해하는 Lyapunov Stability [2/2] 1편에서 이어집니다. 예제와 함께 단숨에 이해하는 Lyapunov Stability [1/2] 0. 배경 "단숨에"라는 부사와 [1/2]라는 편명이 조화롭지 않다는 것은 알고 있다. 하지만, Lyapunov를 단숨에 이해하기는 불가능하다. 혹시 너무 직관적으로 이해하고 있다면, 제대로 이해하지 못했 mech-literacy.tistory.com 1편을 쓴 지 17일이 지났는데, 이제서야 2편을 쓰는 이유는 오늘에서야 Lyapunov를 이해했기 때문이다. 이해라기 보다는 계산 방법을 깨달았다는 수준에 그치겠지만, 여튼 내가 사용할 수 있기까지 2주가 넘는 시간이 걸렸다. 이게 뭐라고... 싶지만, 막상 알고보니 이거 참 유용하다. 예제를 활용한 Lyapunov stability 계산법, 정확히는 Maxim..
예제와 함께 단숨에 이해하는 Lyapunov Stability [1/2] 0. 배경 "단숨에"라는 부사와 [1/2]라는 편명이 조화롭지 않다는 것은 알고 있다. 하지만, Lyapunov를 단숨에 이해하기는 불가능하다. 혹시 너무 직관적으로 이해하고 있다면, 제대로 이해하지 못했다는 증거일 테다. 하지만 한 번 이해하고 나면, 이름에서 오는 간지와 더불어 나 이제 완전한 공학도로 거듭났구나 하는 뽕맛도 느낄 수 있다. 게다가 웬걸, 한 번 이해하고 나면 아 이런 간단한 거구나! 하는 상쾌함도 다가온다. 이에 간단한 예제 (보행 상황에서 Lyapunov stability 확인) 와 함께 Lyapunov stability를 설명하는 글을 작성해봤다. 나처럼 이야기 좋아하는 사람들은 본격적인 리야푸노프 튜토리얼 자체보다는 그 개개인에 대한 역사를 좀 더 흥미로워한다. 사실 리야푸노프..
[Bayesian 1차] 모르면 모른다 말하는 Deep Learning - "What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vision?" 저자인 Alex Kendall은 2017년 SegNet이라고 하는 Encoder-Decoder 구조를 발표하면서 해당 분야의 선두주자로 뛰어오른 바 있다. 잘 감이 안오겠지만, 생성형 AI (Generative AI)의 두 분야가 1) Encoder/Decoder 구조 2) Generative Adversarial Network (GAN) 라고 생각하면 된다. 그 중 천하통일을 하고 있는 것이 Encoder/Decoder 구조인 것이다. 다른 저자인 Yarin Gal 역시 젊은 나이에 해당 분야에서 두각을 나타내며 현재는 영국 Oxford의 교수를 하고 있다. 2020년부터 200여개 가까운 연구결과물을 발표했으니, 성과가 상당하다. Encoder/Decoder 구조를 더 잘 이해할 수 있으면 좋겠지만,..
애플이 침해한 마시모 특허, 삼성은 괜찮을까? - 혈중산소 측정방법 ”혈중산소 측정센서를 영어로 뭐라부르는지 알아요? SpO2 Sensor라고 해요. 수면무호흡증 같은 몇 안되는거 측정하자고 시계에 넣어뒀는데 이게 확! 특허에 걸려버리면 황당하잖아. 지금 내 기분이 그래. SpO2가 없네~“ 그렇다. 애플이 특허침해로 판매를 중지한 혈중산소센서는 그렇게 활용도가 높지 않음에도 ”기술력“이라는 명목으로 고사양 버전 (애플워치6 이상)에는 모두 탑재되어 있다. 그렇다면 애플이 침해한 특허는 무엇이고, 과연 삼성은 이로부터 자유로울까? 스마트워치를 차본 사람이라면, 시계 뒤편에서 초록불이 반짝이는 것을 본 적 있을테다. 이건 심박센서로, 빨간 피가 초록 빛을 흡수하기 때문에 초록색으로 설정됐다. 초록 빛의 반사율을 측정하면서 혈류를 추정하면 심박을 잴 수 있다. 혈중산소 센서..
세 번째 Tesla Optimus, Gen 2에 숨겨진 기술 (feat. 디즈니 리서치) 테슬라가 세 번째 휴머노이드, 옵티머스 2세대를 공개했다. "범블비"라는 이름의 프로토타입 (2022 9월, 보행만 겨우 가능한 수준), 외관과 제어에 조금 더 신경을 쓴 Gen 1 (2023 3월)을 거쳐 8개월 만에 공개한 로봇이다. 원본 영상은 X (옛 트위터)에만 올라와있지만, 유튜브에서도 시청은 가능하다. X의 Tesla Optimus님(@Tesla_Optimus) There’s a new bot in town 🤖 Check this out (until the very end)! https://t.co/duFdhwNe3K twitter.com 이게 다야? 하는 사람이라면 Gen 2를 통해 휴머노이드를 처음 본 사람일테다. 반면에 움직임이 자연스러운 것에 놀랐다면, 기존 Gen 1을 눈여겨 본 사..
[2023 ver.] tensorflow에서 GPU를 사용하는 방법 Windows 개발 환경은 하루가 멀다 하고 바뀌기 때문에, 종이 책으로 공부하는 것은 절대로 추천하지 못한다. 심지어 인터넷 자료들조차도 라이브러리 업데이트 속도를 따라가지 못하는 경우가 허다하다. 아래 자료가 가장 최신 (2023년 11월 기준)으로, Windows 11 / Tensorflow 2.10 이하 / python 3.9 이하에서 GPU를 사용하는 방법을 정리한 것이다. pip로 TensorFlow 설치 pip로 TensorFlow 설치 Learn the latest in machine learning, generative AI, and more at WiML Symposium 2023Register 이 페이지는 Cloud Translation API를 통해 번역되었습니다. Switch to English..
[STM] 2023 ST K-Tec Conference 참가 후기 231122 ST K-TEC Conference ST에서 주최하는 제품 전시회에 참여했다. 명확한 목적은 오전 11시에 30분간 진행하는 “AI on STM32, Multiple object detection on STM32MP1”이라는 세미나였기에 오전에만 참여한 뒤 나갈 예정이었지만, 로비에 전시해둔 다른 시연제품들을 보면서도 다양한 것을 접할 수 있었다. Key speech 및 ST 주요 target markets 사실 전자장비가 들어가는 모든 영역을 target으로 잡았다고 해도 무방할 만큼 넓은 범위에서 사업소개를 했다. 빠진 산업이라고 하면 우주항공, 방산 정도가 될 것 같은데, 이렇게 다양한 산업에 적용 가능하다고 하니 왠지 모르게 심드렁해지는 기분이다. STM 보드를 조금만 써보면 버그 투..
Transformer 를 Classification/Regression에 사용하려면 어떻게 해야 할까 [2화] Transformer 이해를 하기 위해 필요한 것들 [1화] (tistory.com) Transformer 이해를 하기 위해 필요한 것들 [1화] "Attention is all you need", Transformer 모델을 처음으로 제시한 2017년 논문의 제목이다. [1706.03762] Attention Is All You Need (arxiv.org) 익살스러운 이름이지만, 2023년 11월 현재 97,503 건의 피인용수를 자랑한다. mech-literacy.tistory.com Transformer 를 통해 번역기 모듈을 만든다면 모르겠지만, Regression 혹은 Classification에 Transformer를 적용하기 위해서는 약간의 시행착오가 필요하다. Transformer의 구조..
Transformer 이해를 하기 위해 필요한 것들 [1화] "Attention is all you need", Transformer 모델을 처음으로 제시한 2017년 논문의 제목이다. [1706.03762] Attention Is All You Need (arxiv.org) 익살스러운 이름이지만, 2023년 11월 현재 97,503 건의 피인용수를 자랑한다. 저자들은 모두 구글 브레인 소속이었지만, 현재는 모두 (!) 퇴사하여 창업을 했다는 점도 인상적이다. Attention Is All You Need The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The..