[PART3 요약추가]

2023. 10. 31. 14:08[빅분기]

728x90
반응형

  • AI)머신러닝)딥러닝
  • 딥러닝: 인공신경망에 기반한 머신러닝의 한 갈래/점진적으로 의미표현을 배우는 데 좋음/데이터로부터 표현을 학습하는 방식
    • 비정형데이터 good/인지문제 잘 해결
    • 음성,이미지인식,자연어처리,헬스케어 등의 분야 활용
    • 인공신경망~심층신경망
      • 심층신경망: DNN
      • 합성곱신경망: CNN
      • 순환신경망: RNN
      • 생성적 거대신경망: GAN
      • RBM 등
  • 인공신경망(ANN): 뇌의 신경망에서 착안해서 구현한 컴퓨터 시스템의 총칭
    • 연구 flow
      • 1943: 단순패턴분류모형 개발
      • 햅: 뉴런간의 연결강도 weight를 조정하여 학습규칙 개발
      • 로젠블럿: 퍼셉트론(인공세포)개발
      • XOR문제(비선형성 한계점)
      • 홉필드~: 역전파알고리즘을 활용해 다층의 퍼셉트론 개발 및 문제해결
    • 구조: 입력/은닉/출력
      • 은닉층이 여러개, 층마다 복수의 뉴런으로 구성, 동일층의 뉴런은 이엊지 않는다
      • 뉴런(노드): 기본 정보처리단위
      • 가중된 link로 연결됨, 최초 가중치는 랜덤 설정/가중치 반복 갱신하여 훈련수행
      • 뉴런은 입력링크에서 여러 신호를 받고 활성함수는 새로운 활성화 수준을 계산해 출력링크로 전달
    • 뉴런의 계산&학습
      • 전이함수(활성화함수)를 사용해 출력 결정& 입력신호의 가중치 합을 계산해 임계값과 비교
      • 가중치의 합<임계값 :-1 , 가중치의 합>임계값:1 출력함
    • 활성화함수
      • 시그모이드 함수: 로지스틱과 유사, 0~1
      • softmax(표준화지수 함수): 출력값이 여러개로 주어지고 목표치가 다범주인 경우/ 각범주에 속할 사후확률 제공
      • ReLUg함수: 입력값이 0이하는 0, 0보다 크면 그대로 반환
      • Leaky ReLU: dead ReLU/렐루가 모델을 학습하는 동안 일부 뉴런이 0만 출력해서 활성화되지 않는 문제를 해결하기 위해 고안됨/ 입력값이 0보다 작을 때, 매울 작은 기울기를 부여해서 출력값이 0이 되지 않도록 함.
      • 하이퍼볼릭 탄젠트: 입력값을 -1~1사이로 변환, 시그모이드와 달리 0중심
    • 단일뉴런의 학습(단층퍼셉트론)
      • 퍼셉트론은 선형결합기로 구성
728x90
반응형

'[빅분기]' 카테고리의 다른 글

[모의고사 2회차/오답노트]  (0) 2023.10.31
[모의고사 1회차/오답노트]  (1) 2023.10.31
[빅데이터 모델링]  (0) 2023.10.31
[PART1/PART2 오답노트]  (0) 2023.10.31
[빅데이터 탐색]  (0) 2023.10.31