BOOTCAMP(70)
-
Deep Learning Basics Lecture3: Optimization
Introduction Language is the source of misunderstandings" Antoine de Saint-Exupery(1900-1944) Gradient Descent First-order iterative optimaization algorithm for finding a local minimum of a differentiable function. Important Concepts in Oprimization Generalization Under-fitting vs. over-fitting Cross validation Bias-variance tradeoff Bootstrapping Bagging and boosting Genenralization How well th..
2023.01.05 -
Mathematics for Artificial Intelligence 8강: 베이즈 통계학 맛보기
조건부 확률이란? 베이즈 통계학을 이해하기 위해선 조건부 확률의 개념을 이해해야 한다. 조건부 확률 P(A|B)는 사건 B가 일어난 상황에서 사건 A가 발생할 확률을 의미한다. 베이즈 정리는 조건부확률을 이용하여 정보를 갱신하는 방법을 알려준다. A라는 새로운 정보가 주어졌을 때 P(B)로부터 P(B|A)를 계산하는 방법을 제공한다. 베이즈 정리: 예제 COVID-99의 발병률이 10%로 알려져 있다. COVID-99에 실제로 걸렸을 때 검진될 확률은 99%, 실제로 걸리지 않았을 때 오 검진될 확률이 1%라고 할 때, 어떤 사람이 질병에 걸렸다고 검진결과가 나왔을 때 정말로 COVID-99에 감염되었을 확률은? 사전확률, 민감도(Recall), 오탐율(False alarm)을 가지고 정밀도(Precis..
2023.01.04 -
Deep Learning Basis Lecture 4: Convolutional Neural Networks
Convolution Continuous convolution Discrete convolution 2D image convolution K(3X3 filter) * I(7X7 image) = Output(5X5) 2D convolution in action Blur, Emboss, Outline RGB Image Convolution 5X5X3 filter / 32X32X3 Image / 28X28X1 feature 32X32X3 Image * Four 5X5X3 filter -> 28X28X4 feature Stack of Convolutions [32X32X3] -> CONV(4 5X5X3 filters), ReLU -> [28X28X4] -> CONV(10 5X5X4 filters), ReLU -..
2023.01.04 -
Linear Transformation
Transformation A transformation, function, or mapping, T maps an input x to an output y Mathematical notation: T: x -> y Domain: Set of all the possible values of x (정의역) Co-domain: Set of all the possible values of y (공역) Image: a mapped output y, given x Range: Set of all the output values mapped by each x in the domain (치역) Note: the output mapped by a particular x is uniquely determined. Lin..
2023.01.03 -
Deep Learning Basics Lecture2: Neural Networks & Multi-Layer Perceptron
Neural Networks "Neural networks are computing system as vaguely inspired by the biological neural networks that constitute animal brains." Neural networks are function approximators that stack affine transformations followed by nonlinear transformations. ex) GoogLeNet, ResNet Linear Neural Networks We compute the partial derivatives w.r.t the optimization variables. Then, we iteratively update ..
2023.01.03 -
Mathematics for Artificial Intelligence 5강: 딥러닝 학습방법 이해하기
신경망을 수식으로 분해하려면 우선 선형모델을 먼저 이해해야 한다. 행렬은 데이터를 모아놓은 행렬 A, 다른 벡터로 보내는 가중치 행렬 W d개의 변수로 p개의 선형모델을 만들어서 p개의 잠재변수를 설명하는 모델을 상상해볼 수 있다. 딥러닝에서 화살표는 가중치 w가 결정짓고, 출력 벡터 o에 softmax 함수를 합성하면 확률벡터가 되므로 특정 클래스 k에 속할 확률로 해석할 수 있다. 소프트맥스 연산 소프트맥스(softmax) 함수는 모델의 출력을 확률로 해석할 수 있게 변환해주는 연산이다. 분류 문제를 풀 때 선형모델과 소프트맥스 함수를 결합하여 예측한다. softmax 함수를 통해 R에 있는 벡터를 확률벡터로 변환할 수 있다. (예: [1, 2, 0] -> [0.24, 0.67, 0.09]) impo..
2023.01.02