전체 글

전체 글

    DreamHack[Web] simple_sqli

    보호되어 있는 글입니다.

    앙상블 학습법(Ensemble Learning)

    앙상블 여러개의 알고리즘을 사용하여, 그 예측을 결합함으로써 보다 정확한 예측을 도출하는 기법 단일의 강력한 알고리즘보다 복수의 약한 알고리즘이 더 뛰어날수 있다는 생각에 기반을 두고 있음 보팅(Voting), 배깅(Bagging), 부스팅(Boosting)등의 유형으로 나눌 수 있음 보팅(Voting) 여러 모델에서 구해진 예측값을 투표를 통하여 결정하는 방식 서로 다른 알고리즘 여러개를 결합하셔 사용 하드 보팅(Hard Voting) 다수의 분류기가 예측한 결과값을 최종 결과로 선정(다수결 원칙과 유사) 소프트 보팅(Soft Voting) 각 알고리즘이 예측한 레이블 값 결정 확률의 평균을 구한 뒤 가장 확률이 높은 레이블 값을 최종 결과로 선정 위 그림에서 레이블값 예측의 평균 1일 확률 = (0...

    로지스틱 회귀(Logistic Regression)

    ursobad.tistory.com/36 선형회귀(linear regression) 선형회귀(linear regression) 회귀란? 관찰된 연속형 변수들에 대해 두 변수 사이의 모형을 구한뒤 적합도를 측정해 내는 분석 방법 선형회귀 가장 기본적이고 널리 사용되는 기계 학습 알고리즘 중 ursobad.tistory.com 로지스틱 회귀(Logistic Regression) 종속 변수와 독립 변수 간의 관계를 구체적으로 나타낸다. 선형 회귀처럼 연속된 값을 예측하는 것이 아니라 종속변수가 범주형 데이터일 때 사용한다. 회귀를 사용하여 범주에 속할 확률을 예측한다. - 가능성이 더 높은 범주로 분류하는 알고리즘이다. # 독립 변수 : 독립 변수는 입력값이나 원인 # 종속 변수 : 종속 변수는 결과물이나 효..

    SVM(Support Vector Machine) 알고리즘

    SVM 2개의 범주를 분류하는 이진분류기 # 이진분류란? 그렇다 / 아니다 2개로 분류하는 것 어느 카테고리에 속할 것인지 판단하는 비확률적 이진 선형 분류 모델을 만들게 된다. EX) 텍스트, 이미지 분류 검은선 : Decision boundary(결정 경계) 파란선 : Magin(마진) 파란선을 잇는 도형 : Support Vector(서포터 백터) SVM알고리즘은 Magin이 가장 큰 Decision boundary(결정 경계)를 긋는 알고리즘이다. Kernel trick(커널 트릭) 선형으로 분리되지않는 비선형 데이터들을 분류할때 사용한다. 현재 데이터보다 고차원으로 차원을 옮겨서 선형분리가 가능한 데이터로 바꾼다. 위의 그림과 같이 2차원에서 선형적으로 분리되지 않는 데이터들을 3차원의 공간으로..

    선형회귀(linear regression)

    선형회귀(linear regression) 회귀란? 관찰된 연속형 변수들에 대해 두 변수 사이의 모형을 구한뒤 적합도를 측정해 내는 분석 방법 선형회귀 가장 기본적이고 널리 사용되는 기계 학습 알고리즘 중 하나 독립 변수 x를 사용해 종속 변수 y의 움직임을 예측하고 설명한다 간단하게 일차함수의 개념 y = ax + b의 직선을 임의로 그려놓고, 그 직선을 바탕으로 예측하는 것 #독립 변수 : 독립 변수는 입력값이나 원인 #종속 변수 : 종속 변수는 결과물이나 효과 단순 선형회귀(simple linear regression) : 하나의 x 값만으로도 y 값을 설명할 수 있는 것 다중 선형회귀(multiple linear regression) : x 값이 여러 개 필요로 할 때 사용 Error(에러) 사용..

    나이브 베이즈

    기초 수학 조합 순서를 상관하지 않고 뽑는 것 순열 순서를 고려하고 뽑는 것 사건 A가 일어날 확률 P(A) = n(A) / n(S) (A 경우) / (전체 경우) P(A) = A 사건이 일어날 확률 조건부 확률 사건 A가 일어났다고 가정했을때, 사건 B가 일어날 확률 P(B | A) = P(A∩B) / P(A) (단, P(A) > 0) 확률의 곱셈 정리 P(A∩B) = P(A)P(B|A) = P(B)P(A|B) (단, P(A) > 0 && P(B) > 0) P(B | A) = P(A∩B) / P(A) P(A | B) = P(A∩B) / P(B) P(A∩B) = P(A)∗P(A∩B) / P(A) = P(B)∗P(A∩B) / P(B) 독립과 종속 독립 : 사건 A가 일어나거나 일어나지 않는 것이 사건 B가..

    백준 상수

    www.acmicpc.net/problem/2908 2908번: 상수 상근이의 동생 상수는 수학을 정말 못한다. 상수는 숫자를 읽는데 문제가 있다. 이렇게 수학을 못하는 상수를 위해서 상근이는 수의 크기를 비교하는 문제를 내주었다. 상근이는 세 자리 수 두 � www.acmicpc.net 문제 상근이의 동생 상수는 수학을 정말 못한다. 상수는 숫자를 읽는데 문제가 있다. 이렇게 수학을 못하는 상수를 위해서 상근이는 수의 크기를 비교하는 문제를 내주었다. 상근이는 세 자리 수 두 개를 칠판에 써주었다. 그 다음에 크기가 큰 수를 말해보라고 했다. 상수는 수를 다른 사람과 다르게 거꾸로 읽는다. 예를 들어, 734와 893을 칠판에 적었다면, 상수는 이 수를 437과 398로 읽는다. 따라서, 상수는 두 수..

    랜덤 포레스트

    ursobad.tistory.com/31 ursobad.tistory.com/34 위 글들을 먼저 읽어야 이해할 수 있는 내용이다. 랜덤 포레스트(random forest) 분류, 회귀 분석 등에 사용되는 앙상블 학습 방법의 일종 분류 - 분류는 미리 정의된, 가능성이 있는 여러 클래스 레이블 중 하나를 예측하는 것 회귀 - 연속적인 숫자(실수)를 예측하는 것 앙상블이란? 여러 Base 모델들의 예측을 다수결 법칙 또는 평균을 이용해 통합하여 예측의 정확성을 향상시키는 방법 랜덤 포레스트는 의사결정 트리(Decision Tree)를 Base 모델로 사용한다. 결정 트리의 단점인 훈련 데이터에 오버 피팅이 된다는 점을 여러 개의 결정 트리를 통해 랜덤 포레스트를 만들어 해결한다 핵심 아이디어 1. 여러개의..