본문 바로가기

Computer Science 254

[CNN] CNN의 구조와 Notation CNN의 구조 CNN은 크게 3가지 종류의 layer로 구성된다. CONV : Convolution POOL : Pooling FC : Fully connected = dense layer = 퍼셉트론 레이어 CNN의 Notation Input과 filter의 channel은 동일해야 한다. Output의 channel은 filter의 수(unit의 수)에 의해 결정된다. 한 레이어에서의 파라미터 수 한 레이어에서의 파라미터 수 = # of weight + # of bias 3*3*3 필터가 10개 있을 경우 한 레이어에서의 파라미터 수는 (3*3*3) * 10 + 10 이 된다. (3*3*3) → filter * 10 → unit 수 + 10 → bias 수 2022. 6. 6.
[CNN] Local Connectivity & Weight Sharing CNN의 주요 특징 : Local Connectivity, Weight Sharing Connectivity와 parameter sharing을 통해 파라미터의 수를 굉장히 줄일 수 있다. 따라서 같은 수의 파라미터를 사용함에도 더 깊은 네트워크를 구성할 수 있다. 더 깊은 네트워크의 구성은 더 많은 non-linear을 만날 수 있음을 의미한다. 이를 통해 더 복잡한 기능을 구현할 수 있다. CNN을 사용하는 주된 이유이기도 하다. Local Connectivity 모든 데이터에 대해 input으로 받아들이지 않고 인접한 데이터에 대해서만 input으로 받아들인다. 이를 통해 각 output은 모든 input을 고려하지 않고 적은 수의 input에 의해서만 결정될 수 있다. 아래 상황에서 global .. 2022. 6. 6.
CNN (Convolution Neural Network) CNN (Convolutional Neural Networks) = ConvNet, DCN(Deep Convolution Network) 큰 이미지를 다루기 위해서는 더 큰 input을 다뤄야 하고 더 큰 모델이 필요하다. CNN을 이용하면 더 큰 input을 다룰 수 있다. 주로 후반부에는 DNN과 결합하여 사용한다. CNN vs. DNN operation DNN : linear operation + non-linear operation CNN : convolution + non-linear operation task DNN : loss를 제일 낮추는 weight + bias를 학습 CNN : loss를 제일 낮추는 filter 학습 input size DNN : 일반적인 linear transform.. 2022. 6. 6.
[Convolution] 2D Convolution, 1D Convolution 2D Convolution 정의 $G = H * F$ $G[i, j] = \sum^{\infty} _{u=- \infty} \sum ^{\infty} _{v = - \infty} H[i-u, j-v] F[u, v]$ * H : source img * F : filter 방법 모든 차원에 대해 filter를 flip(상하좌우 반전) 한다. cross-correlation을 적용한다. 1D Convolution 정의 $f(t) * g(t) = \int ^{\infty} _{-\infty} f(\tau) g(t - \tau) d \tau$ 2022. 6. 6.
[Hierarchical Clustering] ROCK - using Links ROCK RObust Clustering using linKs 특징 Categorical data에 대해서도 clustering 할 수 있다. Proximity를 계산하기 위해 link의 개념을 사용한다. Distance-based가 아니다. Jaccard Coefficient Categorical data에 주로 사용되는 measure이다. Jaccard coefficient-based similarity function $Sim(T_1, T_2) = \frac{|T_1 \cap T_2|}{|T_1 \cup T_2|}$ 예를 들어, $T_1 = \{a, b, c \}, T_2 = \{ c, d, e \}$의 jacard coefficient-based similarity는 $Sum(T_1, T_2) =.. 2022. 6. 6.