그동안 bskyvision에는 컴퓨터비전, 영상처리, 딥러닝, 선형대수학, 코딩과 관련된 이런 저런 내용들을 산발적으로 포스팅해왔습니다. 2021년에는 하나의 주제를 심도있게 연재하고 싶다는 생각이 들었습니다. 그래서 선택한 주제는 바로 선형대수학(linear algebra)입니다.
선형대수학으로 말할 것 같으면, 제가 대학교 신입생 때 멋도 모르고 친구따라 수강했다가, 그 당시 F 폭격기로 유명하셨던 어떤 백발의 교수님께 F를 받았던 과목입니다. 제대로 폭격받았죠. 제가 대학생 때 받은 유일한 F이기도 했습니다. 중간고사, 기말고사 때 말 그대로 백지를 내고 왔던 기억이 있습니다. 사실 백지를 낼 것 같으면 아예 시험에 참석하지 않았을 텐데, 나름대로 시험은 봐야한다는 고등학생적 순진함(?)이 있었던 것 같습니다.
한 번 그렇게 데이고 나니, 선형대수학이란 과목은 제게 너무 큰 벽으로 느껴졌습니다. 사실 지금 생각해보면 공부를 시작도 안해보고 지레 겁먹고 피했던 것이지만요. 그 당시에 선형대수학이 필수 과목은 아니었기에 저는 재수강하지 않았고, 그 상태로 대학원을 진학하게 되었습니다.
그런데 대학원에서 컴퓨터비전, 영상처리를 전공으로 삼다보니, 절실하게 필요한 기초과목이 바로 선형대수학이라는 것을 깨닫게 되었습니다.
'아뿔싸!'
디지털 이미지를 가장 효율적으로 표현할 수 있는 방식이 바로 행렬(matrix)이었기 때문입니다. 또한 머신러닝과 딥러닝에 사용되는 많은 데이터들도 가장 효율적으로 표현할 수 있는 방식이 바로 벡터(vector)와 행렬(matrix)이었습니다.
그 벡터와 행렬을 이렇게 저렇게 다루는 과목이 바로 선형대수학이죠. 그런데 저는 그 단계를 껑충 건너뛰고 온 것이었습니다. 선형대수학을 공부하지 않았더니, 논문에 나오는 많은 수식들이 정말 외계어로 느껴졌습니다. 항상 느끼는 것이지만 농땡이 친 것은 결국 다 부메랑처럼 돌아옵니다.
'큰일났다.'
그래서 길버트 스트랭 교수님의 선형대수학 원서를 구입하고, 그분의 영상 강의와 함께 선형대수학을 공부해가기 시작했습니다. (길버트 스트랭 교수님은 제가 가장 존경하는 교수님이기도 합니다. 말을 살짝 더듬으시는데도 그 핸디캡을 완벽히 덮어버리는 논리정연한 강의력 때문에 그렇습니다. 저도 말을 살짝 더듬는데, 스트랭 교수님 덕에 용기를 많이 얻었습니다.)
선형대수학 책을 한 챕터, 한 챕터를 어떻게든 읽어나갔습니다. 대학원 신입생일 때는 원서를 읽는 것이 그렇게 능숙하지 않았기에 초반에는 한 페이지 읽는 데도 많은 시간을 할애해야 했습니다. 그래도 꾸역꾸역 읽어나갔습니다. 연습문제도 풀고, 이렇게 저렇게 그림도 그려보고, 이해된 것은 블로그에 포스팅도 해가며 끝까지 읽어나갔습니다.
'광명'
선형대수학을 완벽하게 이해한 것은 아니지만, 시야가 달라졌습니다. 이전에 안 보이던 것들이 많이 보이기 시작했습니다. 선형대수학이 얼마나 엄청난 학문인지, 또 얼마나 많은 공학적 문제들을 해결할 수 있는 기초를 제공하는지 알게 되었습니다. 한마디로 컴퓨터비전과 딥러닝은 선형대수학의 기초 위에 서 있는 학문이었습니다.
제 생애 처음으로 SCI 학술지에 게재한 논문이 바로 선형대수학의 꽃이라고 말할 수 있는 고유값 분해와 밀접한 관련이 있습니다. 이미지 행렬의 고유값과 이미지 품질의 상관관계에 관한 논문입니다.
J. Yang, K. Sim, B. Jiang and W. Lu, "Blind image quality assessment utilising local mean eigenvalues," in Electronics Letters, vol. 54, no. 12, pp. 754-756, 14 6 2018
선형대수학에서 F 학점을 받았던 제가 그 선형대수학을 기초해서 논문을 쓰게 되었다는 사실이 감격스러웠습니다.
여전히 선형대수학에 대해 모르는 것이 많지만, 예전의 저처럼 암흑 속에 빠져 계실 분들을 위해서 2021년에는 선형대수학 강의를 연재하려고 합니다. 한 주에 하나를 올리는 것을 목표로 하고 있습니다. 정말 바쁠 때라도 2주에 하나씩은 올리도록 노력하겠습니다. 사람은 기본적으로 약속을 잘못 지키는 존재이긴 하지만, 그래도 노력해보겠습니다.
제가 기본적으로 참고할 텍스트북은 길버트 스트랭(Gilbert Strang) 교수님의 Introduction to Linear Algebra입니다. 제 4판을 사용할 것인데, 다른 판을 참고하셔도 무방합니다. 또 다른 분이 쓰신 선형대수학을 참고하셔도 괜찮습니다.
강의는 이 책의 한 챕터, 한 챕터를 순차적으로 진행할 것입니다. 중요도가 떨어진다고 생각되는 부분은 생략하기도 할 것이고, 중요한 부분은 좀 더 집중적으로 파헤치기도 할 것입니다.
다시 한번 말씀드리지만, 제가 선형대수학을 완벽히 알아서 강의하는 것이 아닙니다. 더 잘 알고 싶어서 강의하는 것입니다. 훗날 제가 만약 교수가 된다면 꼭 강의하고 싶은 과목이라서 그렇습니다. 제가 포스팅하는 내용 중에 잘못된 내용이 있다면, 언제든 지적해주시고 바로잡아 주시길 부탁드립니다.
"2021년 저와 함께 선형대수학 공부해보시는 것은 어떨까요?"
'Research > 선형대수학' 카테고리의 다른 글
[bskyvision의 선형대수학, 제4강] row picture와 column picture (6) | 2021.02.08 |
---|---|
[bskyvision의 선형대수학, 제3강] 행렬 (10) | 2021.02.01 |
[bskyvision의 선형대수학, 제2강] 점곱과 길이 (0) | 2021.01.25 |
[bskyvision의 선형대수학, 제1강] 벡터와 선형결합 (6) | 2021.01.18 |
[선형대수학] 놈(norm)이란 무엇인가? (13) | 2020.06.25 |
[선형대수학] 고유값과 고유벡터의 물리적 의미는? (4) | 2019.12.23 |
[선형대수학] 헤시안(Hessian) 행렬과 극소점, 극대점, 안장점 (12) | 2019.12.11 |
[선형대수학] 가우스-요르단 소거법으로 n차 정방행렬의 역행렬 구하기 (0) | 2019.06.25 |