Emotion/인공지능 기초
나이브 베이즈
기초 수학 조합 순서를 상관하지 않고 뽑는 것 순열 순서를 고려하고 뽑는 것 사건 A가 일어날 확률 P(A) = n(A) / n(S) (A 경우) / (전체 경우) P(A) = A 사건이 일어날 확률 조건부 확률 사건 A가 일어났다고 가정했을때, 사건 B가 일어날 확률 P(B | A) = P(A∩B) / P(A) (단, P(A) > 0) 확률의 곱셈 정리 P(A∩B) = P(A)P(B|A) = P(B)P(A|B) (단, P(A) > 0 && P(B) > 0) P(B | A) = P(A∩B) / P(A) P(A | B) = P(A∩B) / P(B) P(A∩B) = P(A)∗P(A∩B) / P(A) = P(B)∗P(A∩B) / P(B) 독립과 종속 독립 : 사건 A가 일어나거나 일어나지 않는 것이 사건 B가..
랜덤 포레스트
ursobad.tistory.com/31 ursobad.tistory.com/34 위 글들을 먼저 읽어야 이해할 수 있는 내용이다. 랜덤 포레스트(random forest) 분류, 회귀 분석 등에 사용되는 앙상블 학습 방법의 일종 분류 - 분류는 미리 정의된, 가능성이 있는 여러 클래스 레이블 중 하나를 예측하는 것 회귀 - 연속적인 숫자(실수)를 예측하는 것 앙상블이란? 여러 Base 모델들의 예측을 다수결 법칙 또는 평균을 이용해 통합하여 예측의 정확성을 향상시키는 방법 랜덤 포레스트는 의사결정 트리(Decision Tree)를 Base 모델로 사용한다. 결정 트리의 단점인 훈련 데이터에 오버 피팅이 된다는 점을 여러 개의 결정 트리를 통해 랜덤 포레스트를 만들어 해결한다 핵심 아이디어 1. 여러개의..
의사결정 트리 CART
의사결정트리 ID3 글을 먼저 읽고오는것을 추천한다. ursobad.tistory.com/31 의사결정 트리 ID3 의사결정트리 의사결정 규칙을 나무구조로 나타내에 전체 데이터를 소집단으로 분류하거나 예측하는 분석기법 전체 데이터에서 마치 스무고개하듯이 질문하며 분류해나간다. 그 모양이 마치� ursobad.tistory.com 의사결정트리 CART알고리즘의 불순도는 지니계수를 사용한다. 지니계수 불순도를 측정하는 지표, 정보의 기대값 지니계수가 높을수록 불순도가 높고, 지니계수가 낮을수록 불순도가 낮다. S : 이미 사건의 모음 c : 사건의 개발생한수 특징 CART 알고리즘은 ID3 알고리즘과 달리 이진 분할 형태를 따른다. 숫자 및 범주 형 변수를 모두 처리 할 수 있으며 특이치를 쉽게 처리 가..
의사결정 트리 캐글
캐글의 튜토리얼 격인 타이타닉 데이터를 의사결정트리로 분류해보자 sklearn을 이용하여 CART알고리즘으로 구현한다. 데이터 자체를 이해하고 어떤것이 중요한 데이터인지 분류하는 것보다는 sklearn을 이용하여 의사결정 트리의 CART 알고리즘 자체를 구현해 보는것이 목적이기 때문에 데이터 전처리에는 큰 비중을 두지 않고 넘어간다. www.kaggle.com/c/titanic Titanic: Machine Learning from Disaster Start here! Predict survival on the Titanic and get familiar with ML basics www.kaggle.com 위 링크에서 데이터셋을 다운받는다. 데이터 뜯어보기 import pandas as pd #트레이닝..
의사결정 트리 ID3
의사결정트리 의사결정 규칙을 나무구조로 나타내에 전체 데이터를 소집단으로 분류하거나 예측하는 분석기법 전체 데이터에서 마치 스무고개하듯이 질문하며 분류해나간다. 그 모양이 마치 나무와 같아서 의사결정 나무라 부른다. 불순도 말 그대로 불순도. 순도의 반대말 1번과 3번 항아리를 파란 공, 빨간 공으로만 채워져 있으며, 2번 항아리는 빨간 공과 파란 공이 정확히 반반 섞여 있다. 1번과 3번 항아리는 순도 100%라 할 수 있으며, 2번 항아리는 불순도가 높은 상태라 할 수 있다. 불순도를 수치로 나타내는 지표는 엔트로피와 지니계수가 있는데 ID3알고리즘은 엔트로피를 이용한다. 엔트로피 불순도를 측정하는 지표, 정보의 기대값 엔트로피가 높을수록 불순도가 높고, 엔트로피가 낮을수록 불순도가 낮다. k는 대상..
KNN_캐글
캐글의 튜토리얼 격인 타이타닉 데이터를 의사결정 트리로 분류해보자 sklearn을 이용하여 KNN알고리즘으로 구현한다. 데이터 자체를 이해하고 어떤것이 중요한 데이터인지 분류하는 것보다는 sklearn을 이용하여 KNN알고리즘 자체를 구현해 보는 것이 목적이기 때문에 데이터 전처리에는 큰 비중을 두지 않고 넘어간다. www.kaggle.com/c/titanic Titanic: Machine Learning from Disaster Start here! Predict survival on the Titanic and get familiar with ML basics www.kaggle.com 실습 1. 사용할 모듈을을 불러온다 데이터 처리를 위한 pandas와 numpy KNN알고리즘을 구현하기 위한 sk..
K-NN 최근접 이웃 (K-Nearest Neighbor) 알고리즘
분류와 군집화 분류(Classification) 소속집단의 정보를 이미 알고 있는 상태에서, 비슷한 집단으로 묶는 방법 -> 지도 학습 위 그림에는 사전 정보인 색깔이 존재한다. 이런 데이터의 분포에서 비슷한 집단으로 묶을 때는 분류를 사용한다. 군집화(Clustering) 소속집단의 정보가 없고, 모르는 상태에서, 비슷한 집단으로 묶는 방법 -> 비지도 학습 위 그림에서는 각 데이터들의 사전 정보가 주어지지 않는데 이럴 때 군집화를 사용한다. K-Nearest Neighbor 알고리즘 정답이 없는 예시를 "분류" 하기 위한 알고리즘 가장 고전적이고 직관적인 특징이 있다. 새로운 데이터를 입력받았을 때, 가장 가까이에 존재하는 데이터가 무엇이냐를 중심으로 새로운 데이터를 분류한다. 물음표에는 별이 들어가..