2016/10
-
1. Esper 설치BigData Processing/Esper 2016. 10. 14. 19:57
Esper 설치 1. Esper 설치환경과 개발환경 1) 설치환경 - Window 7 (64bits) - CentOS 6.4 (64bits) 2) 개발환경 - Window 7 (64bits) - Eclipse Kepler (64bits) 2. Esper 개발환경 구축 1) Esper 다운로드 - EsperTech : http://www.espertech.com/download/ ( 회원가입 필요) - https://mvnrepository.com/artifact/com.espertech/esper/5.5.0 2) Eclipse 설치 - Download : https://www.eclipse.org/downloads/download.php?file=/oomph/epp/neon/R1/eclipse-inst-..
-
SVD(Singular Value Decomposittion)Deep Learining/Deep Learning 기초지식 2016. 10. 13. 22:44
SVD SVD(Singular Value Decomposition)는 행렬을 특정한 구조로 분해하는 방식으로, 신호처리와 통계학 등의 분야에서 자주 사용된다.SVD는 행렬의 스펙트럼 이론을 임의의 직사각형 행렬에 대해 일반화한 것으로 볼 수 있다. 스펙트럼을 이용하면 직교 정사각행렬을 고유값을 기저로 하여 대각행렬로 분해할 수 있다. 이러한 특이값 분해가 유용한 이유는 행렬이 정방행렬이든 아니든 모든 m x n행렬에 대해 적용가능하기 때문이다. 0. 특이값 m x n 행렬 M에 대해 다음 두 조건을 만족하는 벡터 와가 존재할 때, 음수가 아닌 실수 를 특이값이라 부른다.또한 u와 v를 각각 좌측 특이벡터와 우측 특이 벡터라 부른다. 1. SVM (특이값 분해) 실수나 복소수로 이루어진 m x n 행렬 M..
-
Precision / RecallDeep Learining/Deep Learning 기초지식 2016. 10. 13. 21:28
Precision / Recall Precision과 Recall을 해석하면 정밀도(정확도)와 재현률로 해석할 수 있다. Precision과 Recall은 두개 이상의 Database Schema를 비교할 때 Schema Match의 품질을 측정하기 위해 사용하는 방법이다. Precision은 검색된 결과 중 관련 있는 것으로 분류된 결과물의 비율이고, Recall은 관련 있는 것으로 분류된 항목들 중 실제 검색된 항목들의 비율이다. 이것을 수식으로 표현해보면 다음과 같다: 통계적인 측면에서 본다면 다음과 같을 것이다. 위의 표는 분류의 결과를 표로 나타낸 것이다. Precision의 경우는 실험결과가 positive인 모든 결과 중에 실제 정답인 경우 이므로 다음과 같다: 반면에 Recall의 경우는 ..
-
Word2Vec카테고리 없음 2016. 10. 12. 21:56
Word2Vec 구글에서 만든 텍스트 마이닝 알고리즘이다. Word2Vec는 구글 연구원인 Tomas Mikolov와 Kai Chen, Greg Corrado, Jeffrey Dean에 의해 작성된 논문 "Efficient Estimation of Word Representations in Vector Space" 에서 제안된 방법이다. 간단하게 설명하자면 각 단어의 앞 뒤 관계를 보고 근접도를 정하는 알고리즘이며 딥러닝을 통한 비지도 학습 알고리즘이다. Word2Vec는 이름이 나타내는 것 처럼 단어의 의미를 벡터형태로 표현하는 계량기법이다. 장점 비지도학습을 통해 학습하므로 단어사전을 따로 필요로하지 않는다. 또한 신조어도 학습이 가능하다.
-
SoftmaxDeep Learining/Activation Function 2016. 10. 12. 21:48
Softmax Softmax function은 Neural network의 최상위층에 사용하여 Classification을 위한 function으로 사용한다. NN의 최상위 계층에 사실 Sigmoid function을 사용하여 실제값과 출력값을 차이를 error function으로 사용해도 된다. 하지만 Softmax function을 사용하는 주요한 이유는 결과를 확률값으로 해석하기 위함이다. 위 그림을 보면 입력된 데이터가 히든레이어를 거쳐 마지막층에서 softmax function을 사용해 입력된 데이터가 y1인지 y2인지 y3인지 분류한다. 이러한 입력된 데이터를 바탕으로 입력된 데이터가 특정 분류가 될 확률을 계산하여 분류할 수 있도록 한다. 즉 y1이 나올 확률, y2가 나올 확률, y3가 나..
-
DropoutDeep Learining/Deep Learning 기초지식 2016. 10. 3. 18:41
Dropout Dropout은 딥러닝 학습에 있어서의 문제중 하나인 Overfitting을 해소하기 위한 방법이다. 요약하자면 hidden layer의 일부 유닛이 동작하지 않게 하여 overfitting 되는 것을 막는 방법이다. 1. Overfitting오버피팅이란 모델이 학습데이터(training data)에 대해서 지나치게 훈련되어 실험데이터(test data)에 대해서는 결과가 않좋은 경우이다. Overfitting된 상황을 이해하기 쉽도록 다음 아래 그림을 보자. 빨간색 점과 파란색 점을 분류하는 모델을 학습시켰다고 할 때, 학습이 잘 이루어진 경우 검은색 선과 같이 파란색 점과 빨간색 점을 나눈 경우 일 것이다. 그러나 학습데이터에 대해 지나치게 fitting이 일어났을 경우 녹색 선과같이 ..
-
ReLu(Rectified Linear Unit)Deep Learining/Activation Function 2016. 10. 3. 18:40
ReLu(Rectified Linear Unit) ReLu는 Rectified Linear Unit의 약자로 해석해보면 정류한 선형 유닛이라고 해석할 수 있다. ReLu를 Activation function이 발표된지는 오래되었다. ReLu는 Nature지에 Hahnloser가 발표한 dynamical network에서 처음 소개되었다. 그러나 현재처럼 Neural Network에서 주된 activation function으로 사용된지는 오래되지 않았다. Neural Network를 처음배울 때 activation function으로 sigmoid function을 사용한다. sigmoid function이 연속이여서 미분가능한점과 0과 1사이의 값을 가진다는 점 그리고 0에서 1로 변하는 점이 가파르기..