[PART3 요약추가]
2023. 10. 31. 14:08ㆍ[빅분기]
728x90
반응형
- AI)머신러닝)딥러닝
- 딥러닝: 인공신경망에 기반한 머신러닝의 한 갈래/점진적으로 의미표현을 배우는 데 좋음/데이터로부터 표현을 학습하는 방식
- 비정형데이터 good/인지문제 잘 해결
- 음성,이미지인식,자연어처리,헬스케어 등의 분야 활용
- 인공신경망~심층신경망
- 심층신경망: DNN
- 합성곱신경망: CNN
- 순환신경망: RNN
- 생성적 거대신경망: GAN
- RBM 등
- 인공신경망(ANN): 뇌의 신경망에서 착안해서 구현한 컴퓨터 시스템의 총칭
- 연구 flow
- 1943: 단순패턴분류모형 개발
- 햅: 뉴런간의 연결강도 weight를 조정하여 학습규칙 개발
- 로젠블럿: 퍼셉트론(인공세포)개발
- XOR문제(비선형성 한계점)
- 홉필드~: 역전파알고리즘을 활용해 다층의 퍼셉트론 개발 및 문제해결
- 구조: 입력/은닉/출력
- 은닉층이 여러개, 층마다 복수의 뉴런으로 구성, 동일층의 뉴런은 이엊지 않는다
- 뉴런(노드): 기본 정보처리단위
- 가중된 link로 연결됨, 최초 가중치는 랜덤 설정/가중치 반복 갱신하여 훈련수행
- 뉴런은 입력링크에서 여러 신호를 받고 활성함수는 새로운 활성화 수준을 계산해 출력링크로 전달
- 뉴런의 계산&학습
- 전이함수(활성화함수)를 사용해 출력 결정& 입력신호의 가중치 합을 계산해 임계값과 비교
- 가중치의 합<임계값 :-1 , 가중치의 합>임계값:1 출력함
- 활성화함수
- 시그모이드 함수: 로지스틱과 유사, 0~1
- softmax(표준화지수 함수): 출력값이 여러개로 주어지고 목표치가 다범주인 경우/ 각범주에 속할 사후확률 제공
- ReLUg함수: 입력값이 0이하는 0, 0보다 크면 그대로 반환
- Leaky ReLU: dead ReLU/렐루가 모델을 학습하는 동안 일부 뉴런이 0만 출력해서 활성화되지 않는 문제를 해결하기 위해 고안됨/ 입력값이 0보다 작을 때, 매울 작은 기울기를 부여해서 출력값이 0이 되지 않도록 함.
- 하이퍼볼릭 탄젠트: 입력값을 -1~1사이로 변환, 시그모이드와 달리 0중심
- 단일뉴런의 학습(단층퍼셉트론)
- 퍼셉트론은 선형결합기로 구성
- 연구 flow
728x90
반응형
'[빅분기]' 카테고리의 다른 글
[모의고사 2회차/오답노트] (0) | 2023.10.31 |
---|---|
[모의고사 1회차/오답노트] (1) | 2023.10.31 |
[빅데이터 모델링] (0) | 2023.10.31 |
[PART1/PART2 오답노트] (0) | 2023.10.31 |
[빅데이터 탐색] (0) | 2023.10.31 |