카테고리 338 Computation Graph (Forward/Backward Propagation) Neural Network에서의 Computation Forward propagation : neural network의 output을 계산하는 과정 Backward propagation : gradient(derivate)를 계산하는 과정 Computation Graph Forward/backwrad propagation 과정을 그래프로 나타낸 것이다. Computation graph를 이용해서 컴퓨터가 gradient를 간단하게 계산할 수 있도록 변환할 수 있다. 사람은 눈으로 보고 미분 방정식을 통해 쉽게 gradient를 계산할 수 있지만, 컴퓨터는 그렇지 못하다. 따라서 computation graph를 이용해서 컴퓨터가 gradient를 쉽게 계산할 수 있도록 수식을 만들어준다. 예시 아래 모.. 2022. 4. 6. [코로나 위젯] 업데이트 후 변경된 내용 안녕하세요! 그동안 업데이트를 하지 못해서 죄송합니다.😥 업데이트 방법 업데이트는 자동으로 진행될 예정입니다. 다만, 업데이트 중 에러가 발생한다면 스크립트를 수동으로 실행시켜주세요. * 수동으로 실행시키는 과정은 1번이면 충분합니다. 이후에는 정상 작동됩니다. 업데이트 후 변경사항 이번 코로나 위젯 v4.0 업데이트 이후 변경되는 부분에 대해 말씀드립니다. 전반적인 기능 개선과 그 동안 있었던 코로나 전일 데이터의 오류 수정을 진행하였습니다. 정보 받아오는 방법 변경 👉 속도 개선 기존에 모바일 디바이스에서 직접 날씨와 코로나 정보를 받아왔습니다. 이로 인해 오류도 자주 발생하고 속도가 느렸습니다. 이제는 복잡한 일들을 서버에서 처리함으로써 속도를 개선하였습니다. 코로나 정보 표시 변경 👉 더 유용한 .. 2021. 9. 20. [백준 10448번] 유레카 이론 문제 번호 백준 10448번 유레카 이론 내용 삼각수 Tn(n ≥ 1)는 [그림]에서와 같이 기하학적으로 일정한 모양의 규칙을 갖는 점들의 모음으로 표현될 수 있다. 자연수 n에 대해 n ≥ 1의 삼각수Tn는 명백한 공식이 있다. Tn = 1 + 2 + 3 + ... + n = n(n+1)/2 1796년, 가우스는 모든 자연수가 최대 3개의 삼각수의 합으로 표현될 수 있다고 증명하였다. 예를 들어, 4 = T1 + T2 5 = T1 + T1 + T2 6 = T2 + T2 or 6 = T3 10 = T1 + T2 + T3 or 10 = T4 이 결과는 증명을 기념하기 위해 그의 다이어리에 “Eureka! num = Δ + Δ + Δ” 라고 적은것에서 유레카 이론으로 알려졌다. 꿍은 몇몇 자연수가 정확히 3.. 2021. 9. 3. [백준 2231번] 부분합 문제 번호 백준 2231번 부분합 내용 어떤 자연수 N이 있을 때, 그 자연수 N의 분해합은 N과 N을 이루는 각 자리수의 합을 의미한다. 어떤 자연수 M의 분해합이 N인 경우, M을 N의 생성자라 한다. 예를 들어, 245의 분해합은 256(=245+2+4+5)이 된다. 따라서 245는 256의 생성자가 된다. 물론, 어떤 자연수의 경우에는 생성자가 없을 수도 있다. 반대로, 생성자가 여러 개인 자연수도 있을 수 있다. 자연수 N이 주어졌을 때, N의 가장 작은 생성자를 구해내는 프로그램을 작성하시오. 제한사항 입력 : 첫째 줄에 자연수 N(1 ≤ N ≤ 1,000,000)이 주어진다. 출력 : 첫째 줄에 답을 출력한다. 생성자가 없는 경우에는 0을 출력한다. 입출력 예 입력 : 216 출력 : 198.. 2021. 9. 2. Gradient Descent Gradient Descent Minimize Cost 우리의 목표는 cost(error의 합)을 최소화하는 것이다. 더 정확히는 cost가 최소가 되는 W와 b를 찾는 것이다. 이를 위해 gradient descent 방법을 이용한다. Gradient Descent Gradient가 최소가 되는 방향으로 이동하며 optimal을 찾는 방법이다. 즉, 경사를 따라 내려가면서 cost가 최솟값일 때의 W를 찾는 방법이다. Cost function $J(w, b)$를 최소화하는 $w$와 $b$를 찾는 것이 training의 목표이다. 이를 위해 임의의 지점에서 gradient가 감소하는 방향으로 이동함으로써 목표지점 $(w, b)$ 로 이동할 수 있다. 이상적인 상황에서 목표지점(optimal)에서의 gra.. 2021. 8. 6. 이전 1 ··· 31 32 33 34 35 36 37 ··· 68 다음