본문 바로가기
반응형

지식공학41

지도학습과 비지도학습 기계학습에서 종종 등장하는 용어인 지도학습과 비지도학습에 대해 설명하고자 한다. 주어진 데이터에서 어떤 특정한 패턴을 찾아내는 것이 기계학습이다. 컴퓨터 알고리즘을 활용하여 데이터의 규칙성을 자동적으로 찾아내고, 이 규칙성을 이용하여 데이터를 각각의 카테고리로 분류하는 등의 일을 하는 분야이다. 손글씨로 쓰인 숫자를 인식하는 예시를 살펴보도록 하자. 각 숫자는 28 $\times$ 28픽셀 이미지이며, 784개의 숫자로 구성된 벡터로 표현할 수 있다. 목표는 벡터 $x$를 입력값으로 받았을 때 숫자 0~9중 하나의 값을 올바르게 출력하는 기계를 만드는 것이다. 손글씨는 쓰는 사람에 따라서 여러 다양한 형태를 이는 그리 만만한 문제가 아니다. N개의 숫자들 $\{x_1,\cdots,x_N\}$을 훈련집합(.. 2023. 6. 17.
Estimation Problem(추정 기초) 추정(estimation)이란... 사람은 앞으로 발생할 일에 대해 미리 알고 싶어한다. 그래야 나에게 다가올 안좋을 일을 피하거나 대처할 수 있기 때문이다. 예언, 일기예보, 주식시장 등 추정은 과거 수많은 정보를 바탕으로 앞으로 발생할 것을 미리 예측하는 것이다. 공학적인 추정을 이야기 하기전에 기본 전제를 정하고 시작한다. 우리 주변에 모든 정보나 신호는 시간에 대해 연속적인 값을 가지고 있다. 흔히 파동(wave)형태로 모든 값이 자연스럽게 연결되어 흘러가고 있다. 연속적인 값으로 추정문제를 접근하기에는 어려움이 있기 때문에, 정보가 시간에 대해 이산(discrete)적인 값을 갖는다고 가정을 하면 추정을 보다 쉽게 접근할 수 있다. 여기서 이산적이다는 것이 생소할 수 있는데, 간단한 예로 이산적.. 2022. 9. 7.
Histogram of Oriented Gradients 많은 물체들은 어렵고 신비스럽게 보인다. 하지만 일단 그것들은 시간을 가지고 해체해 보면, 우리가 찾고자 하는 것은 이런 신비함이 숙련됨으로 바뀌게 하는 것이다. 형상 기술자(Feature Descriptor)는 유용한 정보를 추출하고 관계가 없는 정보를 버림으로써 이미지를 단순화하는 이미지 또는 이미지 패치를 표현하느 것이다. 일반적으로, 이 형상 기술자는 폭 x 높이 x 3(RGB)의 이미지를 형상 벡터/길이 n의 배열로 변환한다. HOG 형상 기술자의 경우 입력 이미지의 크기는 64 x 128 x 3이고 출력 형상 벡터의 길이는 3780이다. "유용한(useful)"것은 무엇이며, "외적인(extraneous)"것은 무엇일까? 형상 벡터는 이미지를 보는 목적으로는 유용하지 않다. 그러나 이미지 인식.. 2022. 3. 20.
Histogram of Oriented Gradients 많은 물체들은 어렵고 신비스럽게 보인다. 하지만 일단 그것들은 시간을 가지고 해체해 보면, 우리가 찾고자 하는 것은 이런 신비함이 숙련됨으로 바뀌게 하는 것이다. 형상 기술자(Feature Descriptor)는 유용한 정보를 추출하고 관계가 없는 정보를 버림으로써 이미지를 단순화하는 이미지 또는 이미지 패치를 표현하느 것이다. 일반적으로, 이 형상 기술자는 폭 x 높이 x 3(RGB)의 이미지를 형상 벡터/길이 n의 배열로 변환한다. HOG 형상 기술자의 경우 입력 이미지의 크기는 64 x 128 x 3이고 출력 형상 벡터의 길이는 3780이다. "유용한(useful)"것은 무엇이며, "외적인(extraneous)"것은 무엇일까? 형상 벡터는 이미지를 보는 목적으로는 유용하지 않다. 그러나 이미지 인식.. 2022. 3. 4.
Interactive Multiple Model IMM필터는 혼합과정, 필터링 과정, 모델 확률 갱신과정, 최종 추정치 계산 과정을 반복하는 구조를 갖는다. 각 서브 필터들은 칼만필터로 설계를 하고 각 필터는 매 cycle의 초기에 혼합된 추정값으로 새로운 추정값을 계산하기 위해 현재 측정값 및 모델에 대한 우도비율(Likelihood ratio)을 계산한다. 결과적으로 모델의 우도비율을 이용하여 각 모델에 대한 모드 확률을 계산하고 이를 이용하여 각각의 필터 출력들을 결합하여 최종 필터 추정치를 계산한다. 1) 혼합과정 IMM필터의 상호작용 과정에서는 이전 시간(k-1)에 모든 필터에서 계산된 추정치를 혼합하여 각 필터에 들어가는 초기치를 계산한다. 첫 번째 모드 행렬이 동질 마르코프 연쇄성질(homogeneous markov transition p.. 2021. 10. 5.
Generative Adversarial Network Loss Functions Challenge of GAN Loss GAN(The generative adversarial network)은 이미지 합성을 위해 생성모델을 훈련시키는 딥러닝 방법이다. 매우 효과적이고 사실적인 얼굴이나 장면 등을 생성하는데 인상적인 결과를 얻음으로써 매우 효과적인 것으로 증명되었다. GAN의 구조는 상대적으로 간단하지만 여전히 어려운 한가지 측면은 GAN 손실함수에 관한 내용이다. GAN은 판별기와 생성기의 두 가지 모델로 구성된다. 판별자는 실제이미지와 생성된 이미지에 대해 직접 학습되며 이미지를 실제 또는 가짜로 분류하는 역할을 한다. 생성기는 직접 훈련되지 않고 대신 판별자 모델을 통해 훈련이 된다. 여기서 주목해야 할 것은 판별자는 생성기에 손실 함수를 제공하도록 학습된다. 두 모델은 마치 2.. 2021. 8. 31.
PCA(Principal Component Analysis)의 이해 성분 분석, 영어로는 PCA(Principal Component Analysis). 주성분 분석(PCA)은 사람들에게 비교적 널리 알려져 있는 방법으로서, 다른 블로그, 카페 등에 이와 관련된 소개글 또한 굉장히 많다. 그래도 기존에 이미 있는 내용들과 차별성이 있다면 이 글은 주성분 분석(PCA)을 자신의 공부, 연구 또는 개발에 보다 잘 활용할 수 있도록 주성분분석(PCA)의 다양한 활용예를 중심으로 기본 원리 등을 가급적 폭넓게 다뤄보고자 한다. 주성분 분석(PCA)은 사실 선형대수학이라기 보다는 선형대수학의 활용적인 측면이 강하며 영상인식, 통계 데이터 분석(주성분 찾기), 데이터 압축(차원감소), 노이즈 제거 등 다양한 활용을 갖는다. PCA(Principal Component Analysis).. 2021. 7. 26.
The Gaussian Distribution 가우시안 분포는 보통 정규분포(standard distribution)로 알려져있다. 왜냐하면 연속 확률 분포 중 가장 널리 알려진 분포이기 때문이다. 단일 변수 $ x $ 에 대해 가우시안 분포는 다음과 같이 기술된다. $$N(x|\mu, \sigma^2) = \dfrac{1}{(2\pi\sigma^2)^{1/2}}\exp\left\{-\frac{1}{2\sigma^2}(x-\mu)^2\right\} \qquad{(2.42)}$$ 여기서 $ \mu $ 는 평균, $ \sigma^2 $ 은 분산이다. 입력 변수가 $ D $ 차원의 벡터인 경우를 다변량 가우시안 분포라 하며 다음과 같은 식으로 기술한다. $$N({\bf x}|{\pmb \mu}, {\bf \Sigma}) = \dfrac{1}{(2\pi)^.. 2021. 7. 20.
Binary Variables 우선 가장 간단한 형태의 식으로 부터 논의를 시작한다. 베르누이 분포 (Bernoulli Distribution) 랜덤 변수 $x$ 가 $ x \in { 0,1 }$ 인 상황(즉, 취할 수 있는 값이 단 2개)에서의 확률 분포를 살펴본다. 가장 간단한 경우가 바로 동전 던지기 예제인데, 동전을 던저 앞면이 나오면 $ x=1 $ , 뒷면이 나오면 $x=0 $ 이다. 이 때 이 동전의 앞,뒷면이 나올 확률이 서로 동일하지 않다고 하면 앞면이 나올 확률은 다음과 같이 정의할 수 있다. $$p(x=1\;|\;\mu)=\mu \qquad{(2.1)}$$ 여기서 $ 0 \le \mu \le 1 $ 이다. ( 이 때 $\mu $ 는 앞면이 나올 확률) $ x=0 $ 인 경우도 생각해야 하는데 확률식이므로 그리 어렵지.. 2021. 7. 20.
반응형