728x90

 

6. 두번째 딥러닝 - 보스턴 집값 예측

  • 각 행은 하나의 타운을, 각 열은 특성값을 의미
    • 마지막 열(중앙값)이 종속변수, 그 외의 열이 마지막 열에 영향을 주는 독립변수
    • 1 ~ 13열의 값 - 마지막 열 값의 관계를 이용한 지도학습
  • 중앙값과 평균
    • 중앙값 : 여러 값을 크기순으로 정렬할 때, 가운데 있는 값
    • 평균값 : 값의 합을 개수로 나눈 값
    • 평균값이 보통 집단을 대표하는 값이나, 높거나 낮은 쪽으로 값이 편중될 경우 괴리의 위험이 있음 ( = 이상치 ). 이 경우 대안으로 중앙값을 사용
  • 수식과 퍼셉트론
    • keras 모듈을 이용, 13개 입력 - 1개 출력을 갖는 수식 형성 가능
    • 위 그림의 인공신경망 모델을 퍼셉트론(perceptron) 이라고 정의 : n개 입력 - 1개 출력을 갖는 모델
    • 퍼셉트론 모델의 w1, w2, ..., w13 값을 가중치(weight)라고 정의
    • 상수 b값은 편향(bias)이라고 정의
    • ex ) 12개의 독립 / 2개의 종속변수가 존재 시
      • Input Layer는 12, Dense Layer는 2의 크기를 갖게 됨
      • 2개의 퍼셉트론이 병렬로 존재, 학습 시 각 퍼셉트론 별로 가중치과 bias값을 찾아주어야 함(24개 weight, 2개 bias)

7. 학습의 실제

  • 딥러닝 워크북을 활용하여 직접 원리를 배워 보기
  • 1개 독립 / 1개 종속변수를 가정
    • W(가중치), B(편향)의 초기값 가정 : y = W * x + B
    • 초기값으로 계산된 W, B, Loss를 저장
    • W의 값을 약간 조정
      • W의 값 변화분에 대한 Loss값 변화 확인
      • 해당 값을 기반으로 다음에 설정할 W값 확인
    • B를 Loss가 작아지도록 값 조정
      • B 값 변화에 대한 Loss 값 변화 확인
      • 그 값을 기반으로 다음 B값 확인
    • 계산한 다음 W, B값을 식에 대입해 Loss값 변화 확인
    • 위 과정을 반복하여 일정 이하로 Loss가 감소할 때까지 반복
728x90

+ Recent posts