분류 전체보기6 Random Forest Classifier와 SGDClassifier Random Forest Classfier은 SGDClassfier보다 우수한 성능을 보인다. 1. 알고리즘의 복잡성과 접근 방식의 차이 - Random Forest Classifier은 여러 개의 의사결정 트리를 구성하여 학습하고, 각 트리의 예측을 평균하여 최종 결정을 내림. 각 의사결정 트리는 데이터의 서로 다른 부분 집합에서 독립적으로 작동하여 특성 공간을 종합적으로 탐색하고 데이터의 서로 다른 부분 집합에서 독립적으로 작동하여 특성 공간을 종합적으로 탐색, 데이터 내 복잡 관게를 포착 - SGDClassifier은 확률적 경사하강법을 사용하여 선형 모델을 학습. 선형 모델은 데이터의 선형 결합으로 예측 수행. 데이터의 비성형 관계를 포착하는데 한계가 있음 2. 잡음 및 이상점 - Random F.. 2024. 4. 16. 확률적 경사하강법과 더미 분류기 확률적 경사하강법 sgd_clf = SGDClassifier(random_state = 42) sgd_clf.fit(X_train, y_train_5) print(any(sgd_clf.predict(X_train))) #True 출력 더미 분류기 dummy_clf = DummyClassifier() dummy_clf.fit(X_train, y_train_5) print(any(dummy_clf.predict(X_train))) #False 출력 둘의 출력이 다른 이유? - 확률적 경사 하강법을 사용하여 학습을 진행하면 모델은 점진적으로 데이터의 패턴을 파악하고 예측을 수행하는 경향을 가짐. 모델이 학습 데이터에 대해 어느 정도의 정확도를 갖추게 되었을 떄, 학습 데이터의 일부 또는 전체에 대해 예측이 맞.. 2024. 4. 16. 이전 1 2 다음