본문 바로가기

카테고리 339

CNN (Convolution Neural Network) CNN (Convolutional Neural Networks) = ConvNet, DCN(Deep Convolution Network) 큰 이미지를 다루기 위해서는 더 큰 input을 다뤄야 하고 더 큰 모델이 필요하다. CNN을 이용하면 더 큰 input을 다룰 수 있다. 주로 후반부에는 DNN과 결합하여 사용한다. CNN vs. DNN operation DNN : linear operation + non-linear operation CNN : convolution + non-linear operation task DNN : loss를 제일 낮추는 weight + bias를 학습 CNN : loss를 제일 낮추는 filter 학습 input size DNN : 일반적인 linear transform.. 2022. 6. 6.
[Convolution] 2D Convolution, 1D Convolution 2D Convolution 정의 $G = H * F$ $G[i, j] = \sum^{\infty} _{u=- \infty} \sum ^{\infty} _{v = - \infty} H[i-u, j-v] F[u, v]$ * H : source img * F : filter 방법 모든 차원에 대해 filter를 flip(상하좌우 반전) 한다. cross-correlation을 적용한다. 1D Convolution 정의 $f(t) * g(t) = \int ^{\infty} _{-\infty} f(\tau) g(t - \tau) d \tau$ 2022. 6. 6.
[Hierarchical Clustering] ROCK - using Links ROCK RObust Clustering using linKs 특징 Categorical data에 대해서도 clustering 할 수 있다. Proximity를 계산하기 위해 link의 개념을 사용한다. Distance-based가 아니다. Jaccard Coefficient Categorical data에 주로 사용되는 measure이다. Jaccard coefficient-based similarity function $Sim(T_1, T_2) = \frac{|T_1 \cap T_2|}{|T_1 \cup T_2|}$ 예를 들어, $T_1 = \{a, b, c \}, T_2 = \{ c, d, e \}$의 jacard coefficient-based similarity는 $Sum(T_1, T_2) =.. 2022. 6. 6.
[Hierarchical Clustering] BIRCH - with 1 DB Scan BIRCH Balanced Interative Reducing and Clustering using Hiearhcies 방법 BIRCH는 CF(Clustering Feature) tree를 통해 1 DB scan만으로 대략적인 cluster 구조를 파악한다. (1 DB scan) DB를 scan하면서 in-memory CF tree를 구성한다. (optional) CF-tree의 leaf nodes에 임의의 clustering algorithm을 적용해서 clustering 결과를 보완할 수 있다. 장단점 장점 : scales linearly 1 scan 만으로 괜찮은 clustering 결과를 찾고 추가적인 scan을 통해 quality를 개선한다. 때문에 linear한 cost를 가진다. 단점 num.. 2022. 6. 6.
[Hierarchical Clustering] DIANA (Divisive Analysis) DIANA (DIvisive ANAlysis) Top-down 방식의 hierarchical clustering method이다. Splus 같이 statistical analysis packages에 구현되어있다. 개념적으로는 AGNES(bottom-up)과 반대이지만 순서적으로 완전히 역순은 아니다. 각 object를 하나의 cluster로 만들기 위해 과정을 반복해나간다. Divisive vs. Agglometrative n개의 object가 속해있는 전체 cluster를 두 개의 cluster로 나눌 때 complexity는 agglomerative $_n C _2 = \frac{n(n-1)}{2}$ 가능한 모든 조합에 대해 distance를 계산 divisive $2^{n-1} - 1$ (각 요.. 2022. 6. 6.