본문 바로가기

DL/밑바닥부터 시작하는 딥러닝1

(3)
[DL/밑바닥부터 시작하는 딥러닝] 4장 - 신경망 학습 한빛미디어의 "밑바닥부터 시작하는 딥러닝" 책을 다시 읽어보며 각 챕터에서 중요하게 생각한 부분이나, 정리하고 싶은 부분을 남깁니다. 목차 1. 데이터 학습 2. 손실 함수 3. 미니배치 학습 4. 에폭(epoch), 배치 사이즈, 이터레이션(Iteration) 5. 미니 배치는 복원 추출일까 비복원 추출일까? 6. 경사 하강법 1. 데이터 학습 신경망은 데이터를 있는 그대로를 사용해 학습합니다. cf) 입력된 데이터로부터 중요한 데이터를 정확하게 추출할 수 있도록 설계된 변환기인 특징을 추출하고 그 특징의 패턴을 기계학습 기술로 학습하는 방법 범용 능력을 제대로 평가하기 위해 train set 과 test set 을 분리합니다. 2. 손실 함수 평균 제곱 오차 y_k 는 신경망의 추정값, t_k는 정답..
[DL/밑바닥부터 시작하는 딥러닝] 3장 - 신경망 한빛미디어의 "밑바닥부터 시작하는 딥러닝"책을 다시 읽어보며 각 챕터에서 중요하게 생각한 부분이나, 정리하고 싶은 부분을 남깁니다. 1. 활성화 함수 정의 2장 퍼셉트론에서 다룬 함수 y 에서 b + w1x1 + w2x2 부분을 x로 나타내면 아래와 같이 단순하게 표현할 수 있습니다. 위와 같이, 입력 신호의 총합을 출력 신호로 변환하는 함수를 활성화 함수 (activation function) 이라고 하며, 입력 신호의 총합(a) 이 활성화 (deactivate or activate) 를 일으키는지 정하는 역할을 합니다. 위와 같이 어떤 값 (a0)을 경계로 출력이 바뀌는 함수를 계단 함수라고 하며, 활성화 함수에는 계단 함수 이외에도 다른 여러 함수를 사용할 수 있으며, 대표적으로 시그모이드, 렐루 ..
[DL/밑바닥부터 시작하는 딥러닝] 2장 - 퍼셉트론 한빛미디어의 "밑바닥부터 시작하는 딥러닝" 책을 다시 읽어보며 각 챕터에서 중요하게 생각한 부분이나, 정리하고 싶은 부분을 남깁니다. 퍼셉트론은 입력을 주면 정해진 규칙에 따른 값을 출력하는 입출력을 갖춘 알고리즘이며, 이 책에서 가장 먼저 이 알고리즘을 다루는 이유는 퍼셉트론의 아래 특징들을 이용해 신경망을 이해하기 위함입니다. 1. 퍼셉트론은 가중치 (w) 와 편향(b) 을 매개변수로 설정합니다. 가중치 w1 과 w2 는 입력 신호가 결과에 주는 중요도를 조절하는 매개변수이고, 편향 b 은 뉴런이 얼마나 쉽게 활성화하느냐를 조정하는 매개변수(= 가중치) 입니다. 퍼셉트론에서는 원하는 결과를 출력하도록 가중치 값을 적절히 정하는 작업은 사람이 수동으로 정해야하는 반면, 신경망에서 이 부분을 데이터로부터..