google.com, pub-9850333530125189, DIRECT, f08c47fec0942fa0 기계학습 신경망은
본문 바로가기
카테고리 없음

기계학습 신경망은

by ╰(*°▽°*)╯(¬_¬ ) 2021. 12. 19.
반응형

신경망은 기계 학습과 딥 러닝을 배울 때 기본적인 항목 중 하나입니다. 신경망이란 인간의 뇌 내의 신경세포의 네트워크 구조를 인공적으로 모방하고 문제해결 능력을 갖도록 수학 모델로 표현한 것입니다. 시냅스의 결합에 의해 복수의 상호 접속하는 인공 뉴런으로 구성되는 숨겨진 층을 다층 조합하는 것으로 학습을 실시합니다. 신경망은 복잡한 함수 근사를 하지 않으면 분류나 회귀를 할 수 없는 경우에도 함수 근사를 할 수 있다는 특징을 가지고 있습니다. 신경망은 이미지 인식, 음성 인식, 패턴 인식, 데이터 분류, 미래 예측에 활용되고 있으며 전력 회사의 전력망 부하를 정확하게 예측한 발전 효율을 최적화및 ATM에 의한 수표에 기재된 계좌 번호와 예금액의 읽기와 종양의 양성인지 악성인지의 분류 등의 실례가 있습니다. 이 신경망의 노드로 구성된 계층이 깊고 심층에 이르는 알고리즘을 딥 러닝이라고 부릅니다. 기계 학습의 회귀 기법은 지속적인 응답을 예측합니다. 기업의 매출 예측, 수요 예측, 내점자 예측, 경제 분석, 온도 예측, 기기 고장까지의 시간, 전기 부하 예측과 알고리즘 거래 등 용도도 다양합니다. 일반적인 회귀 알고리즘은 선형 회귀, 비선형 회귀, 스텝 와이즈 회귀, 부스팅된 결정 트리 및 버깅된 결정 트리, 신경망 등을 포함한다. 회귀 분석이란 목적 변수를 복수의 예측자 변수를 이용하여 예측하고 설명하는 것입니다. 일반적으로 응답 변수는 예측 분석하고자 하는 데이터와 이를 위해 사용하는 데이터를 가리킨다고합니다. 선형 회귀 모델의 일반적인 공식은 다음 형식이라는데 y=β0+∑ βiXi+?i(y는 응답 변수, X는 예측자, β는 선형 방정식의 계수, ?는 오차항) 어렵습니다. 선형 회귀 는 응답 변수를 최적으로 예측하기 위해 하나 이상의 독립적인 예측 변수를 사용하여 선형 방정식의 계수를 추정합니다. 선형 회귀는 일반적으로 하나의 응답 변수에 대해 하나의 예측자만을 갖는 단회귀와 복수의 예측자를 갖는 중회귀, 복수의 응답 변수를 위한 모델인 다변량 회귀 등 유형으로 나뉩니다. 비선형 회귀 는 연속 응답 변수와 하나 이상의 예측 변수 사이의 비선형 관계를 나타내는 방정식을 생성하여 새로운 관측치를 예측합니다. 선형 매개변수와의 관계를 적절하게 모델링할 수 없는 경우 일반 선형 회귀 대신 비선형 회귀를 사용합니다. 비선형 회귀 모델은 파라메트릭으로 간주되며 모델은 비선형 회귀로 설명됩니다. 기타 비파라메트릭 비선형 회귀에는 기계 학습 기술이 사용됩니다. 파라메트릭 비선형 회귀는 목적 변수를 비선형 매개변수와 하나 이상의 설명 변수의 조합으로 함수화합니다. 이것은 1변량 또는 다변량의 어느쪽이든 대응 가능합니다. 이 매개 변수는 지수 함수, 삼각 함수, 필요한 함수 또는 기타 비선형 함수의 형태를 취할 수 있습니다. 정규화 는 기계 학습에서 모델 학습에 사용되며 특히 과 학습을 방지하고 일반화 능력을 높이는 목적으로 사용됩니다. 학습이란 과잉적합이라고도 불리며 어느 특정 데이터에서는 정밀도가 높은 평가를 내고 있던 모델이 다른 미지의 데이터에는 적합할 수 없어 정밀도가 낮은 모델이 되어 버리는 것을 가리킵니다. 이것을 일반화를 할 수 없는 상태라고도 합니다. 정규화에서는 모델의 복잡성이나 부드럽지 않은 것 등에 페널티라고 하는 형태로 정보를 추가해 이 과 학습을 막는 것으로 일반화 능력을 높입니다. 정규화를 실시한 선형 회귀로는 리지 회귀, LASSO 회귀, Elastic Net 회귀 등이 있습니다. 스텝 와이즈 회귀 는 자동으로 예측 변수를 하나씩 추가, 삭제하여 정밀도가 높은 모델을 선택하는 회귀 분석 기법입니다. 중회귀 등 다변량 예측자 변수의 선택을 잘못함으로써 분석 결과에 왜곡이 발생하는 것을 모델의 misspecification이라고 합니다. 예를 들어 목적 변수에 영향을 줄 수 있는 중요한 예측 변수가 포함되지 않거나 반대로 응답 변수에 영향을 미치지 않는 예측 변수를 추가하는 경우에도 모델의 잘못된 설정이 발생합니다. 스텝 와이즈법이라고 불리는 통계 소프트가 자동으로 유효한 예측자 변수의 편성을 선택하는 방법을 이용한 회귀 분석을 실시하는 것에 맞는 좋은 모델을 작성할 수 있습니다. 교사가있는 학습의 예에는 심장 마비 예측이 있는데 한 환자가 1년 이내에 심장마비를 일으키는지 여부를 의사가 예측하고자 한다고 가정합니다. 의사는 과거의 여러 환자에 대한 연령, 체중, 신장, 혈압 등의 데이터를 가지고 있습니다. 또한 이러한 과거 환자가 1년 이내에 심장 발작을 일으켰는지 여부도 알고 있습니다. 따라서 문제는, 가지고 있는 데이터를 어떻게 조합해 모델화하면 새로운 환자가 1년 이내에 심장 발작을 일으킬지 어떨지를 예측할 수 있을까 하는 점이 됩니다.교사 없는 학습 은 데이터에 내재된 숨겨진 패턴과 고유한 구조를 찾는 것입니다. 라벨링 된 응답이없는 일련의 입력 데이터에서 추론을 도출하는 데 사용됩니다. 가장 일반적인 교사 없는 학습 기법인 클러스터링 은 유전자 서열분석, 시장조사, 물체인식 등에 활용되고 있습니다. 이동통신사가 휴대전화 중계탑 위치를 최적화하고자 하는 경우 기계 학습을 사용하여 중계탑 사용자의 클러스터 수를 추정할 수 있습니다. 휴대폰이 한 번에 연결하는 중계국은 한 곳에서만 클러스터링 알고리즘을 사용하여 고객의 그룹 또는 클러스터가 최적화된 신호 수신을 받기 위해 최적의 중계탑 배치를 설계합니다.
비계층 클러스터링은 데이터 세트 중에서 분석 담당자가 결정한 클러스터 수만큼 유사한 데이터를 수집하고 클러스터를 만드는 방법 중 하나입니다. k-평균법은 먼저 데이터를 정해진 k개의 클러스터로 나눈 후 각 클러스터의 무게 중심과 각 데이터 포인트의 거리를 계산하고 거리가 가장 가까운 클러스터에 다시 할당하는 프로세스를 k개 클러스터가 변하지 않을 때까지 수행하고 분류하는 기술입니다. 그러나 k-means 방법은 첫 번째 클러스터의 무작위 분할에 결과가 크게 의존하기 때문에 한 k-means 방법으로 최상의 결과가되지 않을 수 있음을 유의해야합니다. 계층적 클러스터링은 간단하며 데이터의 클러스터 수를 미리 알지 못하는 경우에 유효한 클러스터링 기술입니다. 첫째, N개의 데이터를 포함하는 데이터세트가 있고 각각 하나의 데이터만으로 구성된 N개의 클러스터가 있는 상태가 초기 상태로 시작됩니다. 그리고 이 N 개의 클러스터 중 가장 거리가 가까운 두 개의 클러스터를 통합합니다. 이것이 반복되어 모든 대상이 하나의 클러스터에 통합된 시점에서 종료합니다. 대부분의 경우 데이터 클러스터링에는 혼합 가우스 모델(GMM)이 사용됩니다. 혼합 가우스 모델에 의한 클러스터링은 데이터 포인트가 둘 이상의 클러스터에 속할 수 있거나 클러스터의 크기가 다양하고 클러스터의 상관 구조가 다른 경우에 유효합니다. k평균법을 활용한 클러스터링 등보다 보다 적절한 경우가 있습니다. 혼합 가우스 모델을 사용하면 데이터 세트를 클러스터별로 나눌 수 있을 뿐만 아니라 데이터 세트의 확률 밀도 분포를 얻을 수 있습니다. 이 분포를 사용하면 새로운 샘플링, 회귀 분석, 클래스 분류에도 응용 가능합니다. 근사한 혼합 가우스 모델은 주어진 데이터에서 데이터 포인트를 사후 확률이 최대가되는 다변량 정규 성분에 할당하여 클러스터링합니다. 즉, 혼합 가우스 모델을 통해 클러스터는 사후 확률이 최대가 되는 구성 요소에 데이터를 할당합니다. 이렇듯 최적의 기계 학습 알고리즘을 구현함은 또다른 세상으로의 통로라고 할수있을것입니다.

댓글