본문 바로가기

트렌드 한눈에 보기/학계 트렌드

탐조 입문자를 위한 딥러닝 활용기 - 2편

오늘은 집(세종) 근처 합강(미호천 + 금강)으로 탐조를 나갔다.

겨울 철새인 말똥가리가 이사갈 때가 되었다고 생각되었기에 

마지막이라는 생각으로 관찰을 나간 것이었다.

이 때가 아마 11시 정도였을 것으로 생각된다.

 

자전거를 타고 열심히 가고 있는데, 아무리 가도 말똥가리가 나오질 않았다.

"하, 설마 말도 없이 가버린 것은 아니겠지" 하고 생각해봤자

어차피 말은 못하는 녀석인데다가, 말을 하더라도

말하지 않고 떠나는 것이 심장에도 좋을 것 같아 마음을 고쳐 먹었다.

"그래, 내년에 건강한 모습으로 다시 만나자"

 

그런데 한참 자전거를 밟던 중, 눈 앞에 활공하는 새가 아른거리기 시작했다.

 

 

아, 아직 떠나지 않았구나 말똥가리! 

기쁜 마음으로 한참을 보고 있는데, 똑같은 새들이 12마리로 불어나는 것이 아니겠는가?

 

먼지가 아니라 각각 새들입니다

 

아니 말똥가리가 떼로 등장하다니 이럴 수가 있나, 싶어 머리를 곰곰이 굴리던 찰나에

다른 언덕 너머로 익숙한 실루엣이 등장하였다.

날개가 미묘하게 앞쪽으로 꺾여있는 데다가, 

살짝 보랏빛마저 띠는 갈색과 흰색의 조화.

진짜 말똥가리가 두 마리 활공하고 있던 것이다.

 

미묘하게 다른 활공모습

 

"아, 저게 말똥가리였구나. 그럼 이 새 떼는 뭐지?"

그러고 보니, 합강 위의 다리를 건널 때 까마귀들이 앉아있었는데

설마 까마귀는 아니겠지, 하는 마음으로 계속 새 떼를 바라보았다.

하지만 정오시간인지라 눈이 부신데다가, 휴대폰 카메라로 찍으려고 해봤자

잘 보이지도 않는 화질로 어쩔 수가 없는 노릇이었다.

 

결국 이 정도면 됐다- 싶어 집으로 복귀했다.

그제서야 집에 있는 카메라 생각이 났다.

어머니께서 사진을 취미로 배우실 때, 급하게 산 삼성 NX200이었는데

휴대폰보다 성능이 좋지 않은 것 같아 서랍에 묵혀둔 것이다.

 

 

물론 어머니의 휴대폰보다 좋지 않았던 것이지,

냉큼 확인해보니 내 휴대폰(아이폰 SE 1세대)보다는 나은 성능을 가진 것 같았다.

점심을 호다닥 먹고는 다시 합강으로 나섰다.

 

그런데 이번에는 자전거를 열심히 밟다보니

자전거 도로 근처에서 대포 카메라를 들고 강을 바라보고 계신 아저씨와 사모님이 보였다.

살금 살금 걸어가서 인사를 드리니, 역시 새를 찍으려고 오신 것이었다.

 

네이버 블로거 "수요군자"

 

장난감같은 내 NX200도 격려해주시고, 근처에 수달이나 삵까지 등장할 수 있으니

관심있게 지켜보라는 응원을 말씀을 해주셨다.

알고보니 네이버 블로거셨는데, 그간 찍은 사진이 엄청났다.

대전 근방에서 볼 수 있는 새들의 도감같은 느낌이랄까?

 

여튼 그 분께서 내가 아침에 봤던 새가 독수리라는 사실을 확인해주셨다.

떼로 몰려다니며 죽은 동물만 바라보고 있을 텐데, 배가 고플 것 같다.

그건 차치하고, 독수리를 독수리인 줄도 모르고 카메라에 담다니, 참 개탄스럽다.

그래서 집에 돌아와서는 다시금 AI를 이용한 사진 확대 기술을 찾아보았다.

 

www.youtube.com/watch?v=Jt_jZouVCRU

 

이번에 도입한 알고리즘은 proSR인데, 알고보니 지난 ESRGAN보다도 이전 알고리즘이었다.

코드를 열심히 돌려보았지만, 결과물을 역시나 실망스러운 수준이었다.

NX200으로 찍은 고니(세 마리가 합강에 있었다!) 사진으로 실험해 보았다.

 

입력:

 

출력:

 

차이점을 느낄 수 없다면, 정상이다.

아무런 차이가 없다.

 

알고리즘이 주로 활용하는 기술은 GAN이라는 인공지능인데,

풀어서 이야기하자면 플라톤의 '이데아'와 유사하다.

머릿 속에 존재하는 '나무'라는 이상적인 이미지가

숱한 다른 형태로 현실에 존재하는 나무를 보더라도 '나무'임으로 알아보게 하듯이

화질 개선을 시켜줘야 하는 사물이, 인공지능으로 학습한 대상이라면

최대한 학습된 이미지와 유사하게끔 그림을 그려내는 것이다.

 

결국 입력으로 넣어준 것을 '새'라고 인식하지 못했기에,

결과물이 아무런 변화 없이 뛰쳐나온 것이 아닌가 싶다.

 

도대체 작동은 하는 알고리즘인 것인가 확인해보기 위해 

고니가 있던 풍경 사진을 입력으로 주었다.

 

입력:

알고리즘이 400x400 이하 사이즈만 입력으로 받을 수 있기에

일부러 화질을 낮추어 주었다. (이게 인공지능이냐!)

그건 차치하고, 화면의 중간 정도에 고니 세 마리가 눈에 띈다.

 

출력:

 

별 차이점을 모르겠다면, 정상이다.

출력 이미지의 크기가 너무 작아서 뭘 더 세세하게 확인하기가 어렵다.

사이즈를 확대해보면 그래도 차이점이 눈에 드러난다.

 

입력:

 

출력:

 

물가의 바위와 모래톱, 다리를 잇는 끈들이 조금씩 선명해진 것을 확인할 수 있다.

결국 인공지능으로 선명히 만들 수 있는 존재들은 이 정도로 한계인 것이다.

멀리 있는 새를 휴대폰으로 찍어서는,

바로 가까이에서 보이는 것처럼 만들어주는 기술은 아직 없다.


카메라를 살 돈이 없는 나로서는 꽤나 실망스러운 결론이 아닐 수가 없다.

카메라 성능을 인공지능으로 보완하는 것은 무리다!

설날에는 아버지 휴대폰(갤럭시S20)으로 새를 찍어보고

갤럭시가 자랑하는 스페이스 줌의 성능을 확인해봐야겠다.