머신러닝에서 일반적으로 사용되는 방법은 무엇인가요?

기계 학습에서 일반적으로 사용되는 방법은 다음과 같습니다.

(1) 귀납적 학습

기호적 귀납적 학습: 일반적인 상징적 귀납적 학습에는 예시 학습과 의사결정 트리 학습이 포함됩니다.

기능 유도 학습(발견 학습): 일반적인 기능 유도 학습에는 신경망 학습, 예제 학습, 발견 학습, 통계 학습이 포함됩니다.

(2) 연역적 학습

(3) 유추 학습: 일반적인 유추 학습에는 사례(예) 학습이 포함됩니다.

(4) 분석 학습: 일반적인 분석 학습에는 설명 학습과 매크로 연산 학습이 포함됩니다.

확장 정보:

일반적인 기계 학습 알고리즘:

1. 의사결정 트리 알고리즘

의사결정 트리 및 그 변형은 입력 공간은 서로 다른 영역으로 나뉘며 각 영역에는 알고리즘에 대한 독립적인 매개 변수가 있습니다. 의사결정 트리 알고리즘은 트리 모델을 최대한 활용합니다. 루트 노드에서 리프 노드까지의 경로 규칙은 각각의 리프 노드가 판단 범주를 상징합니다. 먼저 샘플을 서로 다른 하위 집합으로 나눈 다음 각 하위 집합이 동일한 유형의 샘플을 얻을 때까지 분할 및 재귀를 수행하여 루트 노드에서 시작하여 하위 트리, 리프 노드까지 테스트하면 예측 범주를 얻을 수 있습니다. 이 방법은 구조가 간단하고 데이터 처리 효율성이 높은 것이 특징입니다.

2. 나이브 베이즈 알고리즘

나이브 베이즈 알고리즘은 분류 알고리즘입니다. 이는 단일 알고리즘이 아니라 모두 동일한 원리를 갖는 일련의 알고리즘입니다. 즉, 분류되는 각 기능은 다른 기능의 값과 무관합니다. Naive Bayes 분류기는 이러한 각 "특성"을 고려하여 특성 간의 상관 관계에 관계없이 확률에 독립적으로 기여합니다. 그러나 기능이 항상 독립적인 것은 아니며 이는 종종 Naive Bayes 알고리즘의 단점으로 간주됩니다. 간단히 말해서 Naive Bayes 알고리즘을 사용하면 확률을 사용하여 일련의 기능이 주어진 클래스를 예측할 수 있습니다. 다른 일반적인 분류 방법과 비교할 때 Naive Bayes 알고리즘은 훈련이 거의 필요하지 않습니다. 예측을 하기 전에 수행해야 하는 유일한 작업은 특성의 개별 확률 분포 매개변수를 찾는 것입니다. 이는 일반적으로 신속하고 결정론적으로 수행할 수 있습니다. 이는 Naive Bayes 분류기가 고차원 데이터 포인트 또는 많은 수의 데이터 포인트에 대해서도 잘 수행될 수 있음을 의미합니다.

3. 지원 벡터 머신 알고리즘

기본 아이디어는 다음과 같이 요약할 수 있습니다. 첫째, 변환을 사용하여 공간을 고차원으로 만듭니다. 물론 이 변환은 비선형입니다. 그런 다음, 새로운 복합 공간에서는 최적의 선형 분류 표면을 취합니다. 이렇게 얻은 분류 함수는 신경망 알고리즘과 형태가 유사하다. 서포트 벡터 머신(Support Vector Machine)은 통계 학습 분야의 대표적인 알고리즘이지만, 공간을 입력하고 차원을 늘려 문제를 단순화하고 선형적으로 분리 가능한 고전적인 해법 문제로 축소하는 전통적인 사고방식과는 매우 다릅니다. 스팸 인식, 얼굴 인식 등 다양한 분류 문제에 서포트 벡터 머신(Support Vector Machine)이 적용됩니다.

참고 자료: 바이두 백과사전 - 기계 학습(다양한 분야 및 학제간 주제)