공부 참고자료: https://gaussian37.github.io/ml-concept-t_sne/

 

t-SNE 개념과 사용법

gaussian37's blog

gaussian37.github.io

 

위 글로 공부하면서 내가 필요한 포인트만 정리:

t-분포는 소표본으로 모평균을 추정하는 분포로, 

모집단이 정규분포와 유사하나, 모표준편차를 모를때 주로 사용한다 

 

일반적으로 정규분포보다 큰 표준편차를 갖는다고 가정하는데, 

이는  정규분포 상에서는 i 번째 변수와 적당히 떨어진 j, 멀리 떨어진 k의 확률이 꼬리로 갈수록 차이가 나지 않기 때문이다.

큰 표준편차를 갖는(=꼬리가 두터운) 분포를 가정하면 변수끼리의 거리가 확률의 차이에 반영된다. 

 

 

 

 

t-sne는 비선형적 방법 / PCA는 선형적 방법이다 

t-sne는 iterative한 방법으로 feature 집단을 계산하고 sklearn을 이용하는 방법은 아래 매뉴얼을 따라하면 된다

https://scikit-learn.org/stable/modules/generated/sklearn.manifold.TSNE.html 

'딥러닝 공부 > 짧은 AI' 카테고리의 다른 글

어쩌다보니 공부한 domain adaptation  (0) 2023.01.09
Representation Learning  (0) 2022.08.18

문득 카페에서 t-sne 사용법을 위해 PCA에 대해 공부를 다시 하다가 

학습을 전달하는 교육자나 학습을 받아들이는 학생이나 

모두 첫 시작은 "이것을 왜 배우는가"에 대한 고민이어야 한다는 점이 다시 한번 와닿았다. 

 

학창시절 방학특강 등으로 고등수학을 선행하다보면 "그래서 이게 뭔소리..?"라는 생각이 자주 들었다.

지금 당장 내용을 이해할만큼 머리가 성숙한 것도 아니고,

어떻게든 이해하도록 반복학습을 할 단원도 아니니 단순히 머릿속을 스쳐지나가는 과정이 되어버렸다.

 

그래서 나는 중학생을 과외할 때도 항상 이 과정의 단원은 왜 이렇게 구성되어 있는지, 

이걸 지금 배워서 나중에 뭐에 써먹는지를 설명해주고 시작한다 

(예를 들어, 극한을 배울 때는 나중에 미분을 할 때 이렇게 저렇게 사용한다,

삼각함수를 배울 때는 이건 각도를 실수로 바꾸는거다 or 길이나 넓이를 구할 수 있다 등등)

 

학부시절에 사실 공부에 너무 집중을 못했는데 

공학수학을 배울때 당최 이걸 왜 배우는지.. 를 이해를 못해서 마음이 안붙었던 것 같다 (라는 좋은 핑계이지만..)

PCA도 학부 / 대학원 거치면서 10번도 넘게 배웠을텐데 

연구에 필요해서 찾아보니 드디어 기억속에 어떻게 구하는 건지 제대로 자리잡아 장기기억으로 넘어간 것 같다

 

나중에 교육을 다시 업으로 하는 날이 온다면 꼭 기억하고 싶어서 짧게 기록해둔다

무엇이던 그걸 왜 하는지 목표설정과 이해가 우선이다 !

 

Lecture: Computer Vision by Andreas Geiger 

본 게시글은 아래 링크의 Andreas Geiger 교수님의 튀빙겐 대학의 CV 강의를 듣고 사견과 함께 요약/정리한 글입니다 

https://www.youtube.com/playlist?list=PL05umP7R6ij35L2MHGzis8AEHz7mg381_ 

 

Computer Vision — Andreas Geiger

Lecture: Computer Vision (Prof. Andreas Geiger, University of Tübingen) Course Website with Slides, Lecture Notes, Problems and Solutions: https://uni-tuebin...

www.youtube.com


Artificial Intelligence

: AI란 추상화과 컨셉화를 통해 사람에게 주어진 문제를 해결(또는 해결 보조)하려는 시도이다. 

아래와 같은 세부 분화들을 포함하고 있다. 

https://www.youtube.com/watch?v=mQgjfvjjW3Q&list=PL05umP7R6ij35L2MHGzis8AEHz7mg381_&index=2

 

Computer Vision

: Computer Vision은 light를 의미로 재구성하는 것이다 

그 응용으로는 Robotics, Medial applications, 3D modeling, Autonomous Driving 등이 있다 

 

Computer Vision vs Computer Graphics

Computer Vision vs Image Processing

: IP에 CV가 관여하기도 한다. IP는 본 강의의 주요 범위는 아님

Computer Vision vs Machine Learning

: ML의 많은 툴들이 CV에 적용되고 있으며

ML이 CV의 실행 시간을 많이 줄여주었기 때문에 CV가 상업적으로 성공할 수 있었던 요인중 하나이다. 

특히 2015년 ImageNet Classification Challenge에서 ResNet이 

사람의 오차범위를 넘는 성능을 보여주면서 CV의 전반에 ML이 자리잡았다

 

https://www.youtube.com/watch?v=mQgjfvjjW3Q&list=PL05umP7R6ij35L2MHGzis8AEHz7mg381_&index=2

 

 

Why is Visual Perception Hard?

: 우리가 사진을 보는 방식과 컴퓨터가 사진을 보는 방식이 다르다

같은 사진을 0~255 사이의 픽셀값으로 본다면 의미를 찾는 것이 더 어렵다. 

 

또한 이미지는 3D 세상의 Projection이고, 그 과정에서 소실되는 정보가 있다

(사족: 그러한 소실되는 정보에 대해 추상화가 가능한 사람은 의미를 파악하는게 쉽지만,

Machine은 그러한 추상화를 할 수 없다.)

또한 View point와 illumination 등에 따라 물체의 pixel이 바뀐다. 

같은 의자라도 다양한 모양을 갖기 때문에 추상화가 더더욱 필요하다

'딥러닝 공부 > 주제별 정리' 카테고리의 다른 글

[CV] 1.1 Introduction - Organization  (0) 2023.08.20

Lecture: Computer Vision by Andreas Geiger 

본 게시글은 아래 링크의 Andreas Geiger 교수님의 튀빙겐 대학의 CV 강의를 듣고 사견과 함께 정리한 글입니다 

https://www.youtube.com/playlist?list=PL05umP7R6ij35L2MHGzis8AEHz7mg381_ 

 

Computer Vision — Andreas Geiger

Lecture: Computer Vision (Prof. Andreas Geiger, University of Tübingen) Course Website with Slides, Lecture Notes, Problems and Solutions: https://uni-tuebin...

www.youtube.com

 


Computer Vision이란 무엇인가? 

: 사람의 인지 능력을 machine으로 구현하려는 시도이며, light(이미지)를 의미로 재해석하는 방법이다. 

 

예를 들어, 2D-3D의 예시를 들었을 때 아래와 같이 unconstrained된 이미지의 모음을 

재해석하고 조립하여  새로운 view와 새로운 appearance의 이미지를 생성할 수 있다. 

 

https://www.youtube.com/watch?v=YW1cIaOBkI8&list=PL05umP7R6ij35L2MHGzis8AEHz7mg381_&index=1

 

 

'딥러닝 공부 > 주제별 정리' 카테고리의 다른 글

[CV] 1.2 Introduction  (0) 2023.08.20

+ Recent posts