본문 바로가기
728x90

AI16

[ML] 강화학습 - 강화학습(Reinforcement Learning) 지도학습처럼 정답이 있지 않고 비지도학습처럼 데이터만을 기반으로 학습하지도 않음 강화학습은 에이전트라는 존재가 환경과 상호작용하며, 이 환경에는 보상이라는 기분이 있어서 다양한 시행착오를 겪어가며 보상을 최대화하는 방향으로 학습 진행 다양한 시행착오를 통해 학습이 가능하며, 비교적 명확한 보상을 설정할 수 있는 문제를 해결하는 데 사용 2016년 3월 구글 딥마인드의 AlphaGo 강화학습이란 보상을 최대화하는 의사결정전략, 즉 순차적인 행동을 알아나가는 기법 → Markov decision process - MDP(Markov decision process) 상태, 행동, 보상함수, 상태 변환 확률, 감가율로 구성 에이전트(Agent) : 강화학습.. 2021. 5. 13.
[DL] 역전파(backpropagation) - 신경망의 손실함수 식 : 다차함수 → 정의하거나 미분하기 어려움 - 신경망의 목적 : 손실함수가 최솟값일 때의 파라미터를 찾아 올바른 학습 결과를 내는 것(회귀분석이나 로지스틱 회귀와 기본 개념이 같음, 단 신경망이 사용하는 파라미터의 개수가 더 많음) - 역전파(backpropagation) 신경망의 파라미터를 효율적으로 찾기 위한 연구 1987년 역전파가 공개됨 뉴런의 가중치를 효율적으로 조정하기 위하여 거꾸로 무엇인가를 전파하는 방식 위의 신경망 모델에서 기대 출력 값과 현재 출력 값의 오차 = 1 역전파 기존 출력값을 지우고 새로운 출력값으로 3을 전달 은닉층 노드 값(3)과 고정값(1)을 비교하여 값이 큰 쪽의 가중치 혹은 편향을 더 크게 조정하여 출력 값을 3이 되도록 조정 편향에서 0.1.. 2021. 5. 13.
[DL] 퍼셉트론(perceptron) - '맥컬록-피트 뉴런(MCP)' 1943년 워랜 맥컬록 & 윌터 피츠 : AI를 설계하기 위해, 생물학적 뇌가 동작하는 방식을 이해하려는 시도 → 간소화된 뇌의 뉴런 개념 발표 신경세포를 이진 출력을 내는 간단한 논리 회로로 표현 - Perceptron 1957년 프랭크 로젠 블렛 : MCP 뉴런 모델을 기반으로 퍼셉트론 학습 개념을 처음 발표 자동으로 최적의 가중치를 학습하는 알고리즘 제안 가중치는 뉴런의 출력 신호를 낼지 말지를 결정하기 위해 입력 특성에 곱하는 계수 입력을 받아 계산한 후 출력을 반환하는 구조 활성화함수 : 뉴런의 출력 값을 정하는 함수 뉴런에서 학습할 때 변하는 것은 가중치 가중치는 처음에 초기화를 통해 무작위 값을 넣고 학습과정에서 일정한 값으로 수렴 학습이 잘 된다는 것은 좋.. 2021. 5. 13.
[DL] 딥러닝 기초 - 딥러닝 인간의 신경망 이론을 이용한 인공신경망의 일종 계층 구조로 구성되며 입력층과 출력층 사이에 하나 이상의 은닉층을 가지고 있는 심층 신경망 딥러닝은 20세기로 넘어옴과 동시에 충분한 하드웨어와 그래픽 처리장치, 드롭아웃과 같은 알고리즘의 발견으로 더욱 폭발적으로 상승 향상 곡선을 그림 - 딥러닝이 학습을 이루는 방법 입력데이터 : 해당 계층에 의해 데이터가 특정되고 변환되어 '가중치'라는 형태로 저장 다양한 계층을 반복적으로 통과하며 학습 진행 이러한 맥락에서 '학습'이란 신경망에서 모든 계층의 가중치에 대한 값 집합을 찾아, 새로운 입력값이 목표한 값에 올바르게 이르기까지 가중치를 조절하는 반복작업 심층 신경망에는 수천만개의 가중치가 존재, 모든 가중치들을 대상으로 올바른 값을 찾는 일은 쉽지.. 2021. 5. 12.
728x90