본문 바로가기
728x90

machinelearning13

[ML] 머신러닝 모델(퍼셉트론, 로지스틱 회귀, 서포트 벡터 머신) - 퍼셉트론(Perceptron) 여러 개의 입력을 받아 각각의 값에 가중치를 곱한 후, 모두 더한 것이 출력되는 모델 신경망이나 딥러닝의 뿌리가 되는 모델 선형 분리 불가능 문제에는 수렴하지 못함 - 로지스틱 회귀 : 분류를 확률로 생각하는 방식 퍼셉트론의 간단함은 유지된 채, 선형 분리 불가능한 문제에서도 적용 가능 어느 클래스에 분류 되는 지 구하는것 이를 구하기 위해 함수가 필요 → 로지스틱 시그모이드 함수(S자 모양) 시그모이드 함수 모양을 파이썬으로 구현 import matplotlib.pyplot as plt import numpy as np # 시그모이드 함수 정의 def sigmoid(z) : return 1.0 / (1.0 + np.exp(-z)) # exp : numpy의 지수함수 z.. 2021. 5. 11.
[ML] 경사하강법 - 편미분 - 2개의 매개변수를 가지고 있는 경우라면, 미분이 아니라 편미분을 활용해야함 - 머신러닝에 나오는 최적화 문제에는 매개변수의 개수만큼 변수가 있으므로 목적함수가 다변수 함수의 형태로 등장 - 매개변수가 여러 개라면, 각각의 매개변수마다 기울기와 움직임이 다름 따라서 다변수 함수를 미분할 때는 미분할 변수에만 주목하고 다른 변수는 모두 상수로 취급해서 계산하는 편미분 사용 - 합성함수의 미분 합성함수 : 여러 개의 함수가 조합된 것 f(g(x))의 미분 - 갱신식을 위한 목적함수의 매개변수 편미분 과정 이와 같은 방식으로 다항식의 차수를 늘린 함수를 사용하는 것을 다항식 회귀라고 함 이를 일반화하여 표기하면 - 이러한 방식의 경사하강법은 모든 학습 데이터의 개수만큼 반복해야함 → 시간과 컴퓨팅 파워가 많.. 2021. 5. 10.
[ML] 경사하강법- 미분 - 머신러닝을 적용하는 방법 : 쉽게 말해 함수를 만드는 것 그래프의 각각의 점을 지나는 함수의 모양을 알게 되면 광고비를 통해 페이지 노출 횟수를 알 수 있음 하지만 노출 횟수에는 노이즈(Noisy Data)가 껴있기 때문에 항상 모든 점을 정확히 지나지는 않음 1차함수의 기울기와 절편을 찾는 것이 목표 - 머신러닝의 핵심 : 과거의 관측을 기반으로 새로운 샘플의 결과값을 예측 - 우리가 바라는 이상 : 적합한 파라미터(parameter), 즉 적합한 가중치와 절편 탐색 → 실제 결과값과 예측 결과값의 차이를 찾아 0을 만드는 것 - 우리의 목표 : 어느 정도 현실성을 반영하여, 모든 점에서 생기는 오차의 합계가 가능한 작아지는 함수를 찾는 것 → 오차의 합계식을 목적함수라고 함 목적함수값이 가장 작아.. 2021. 5. 10.
[ML] 붓꽃의 품종 분류(지도학습 / 분류) import numpy as np import pandas as pd import matplotlib.pyplot as plt - Data Collection from sklearn.datasets import load_iris iris_dataset = load_iris() iris_dataset.keys() # 데이터셋에 대한 설명 print(iris_dataset['DESCR'][:193]+'\n') # 예측하려는 붓꽃의 품종 이름 iris_dataset['target_names'] # 특성 # sepal은 꽃받침, petal은 꽃잎 iris_dataset['feature_names'] # 실제 데이터는 target과 data에 들어있음 # 샘플의 수 확인 iris_dataset['data'].sh.. 2021. 4. 29.
728x90