Pythonの機械学習ライブラリscikit-learnは、豊富なアルゴリズムと使いやすいAPIで人気を集めています。本記事では、scikit-learnの基本的な使い方から、回帰分析、分類、クラスタリングなどの実践的なテクニックまで、実例を交えて詳しく解説します。機械学習の入門から応用まで、scikit-learnを活用するための知識が身につくでしょう。
- scikit-learnの概要と特徴
- 機械学習モデルの構築と評価の方法
- 回帰分析、分類、クラスタリングの実践的な手法
- データ前処理とハイパーパラメータ最適化のテクニック
- パイプライン、アンサンブル学習など発展的な使い方
- 不動産価格予測、感情分析など実務での適用例
scikit-learnとは?機械学習ライブラリの概要と特徴
scikit-learn(サイキット・ラーン)は、機械学習のためのPythonライブラリです。シンプルで効率的な機械学習ツールを提供することを目的に開発され、NumPyやSciPyなどの科学計算ライブラリを基盤としています。オープンソースで提供されているため、誰でも無料で利用することができます。
scikit-learnは、教師あり学習(回帰、分類)や教師なし学習(クラスタリング、次元削減)など、様々な機械学習アルゴリズムを網羅しています。また、交差検証やグリッドサーチによるハイパーパラメータ最適化の機能も提供しており、高度なモデルチューニングを行うことができます。大規模なデータセットにも対応しているため、実用的な機械学習タスクに適用しやすいのが特徴です。
scikit-learnの大きな利点は、統一されたシンプルなAPIにあります。一度使い方を覚えてしまえば、様々なアルゴリズムを同じ感覚で扱うことができるため、学習コストが非常に低くなっています。また、高速な実装により、大規模データの処理にも適しています。豊富なドキュメントとユーザーコミュニティによるサポートも、scikit-learnの魅力の一つと言えるでしょう。
一方で、scikit-learnにも欠点や注意点があります。深層学習には対応しておらず、ニューラルネットワークを扱うにはKeras, TensorFlowなどの別のライブラリを使う必要があります。また、一部のアルゴリズムについては、他のライブラリの実装に及ばない場合もあります。独自のアルゴリズムを組み込むのも、他のライブラリと比べると難しいかもしれません。
とはいえ、機械学習の入門から実践までをカバーする、非常に有用なライブラリであることに変わりはありません。本記事では、scikit-learnの基本的な使い方から発展的なテクニックまで、実例を交えて詳しく解説していきます。機械学習を学ぶ上で、ぜひ押さえておきたいライブラリと言えるでしょう。
scikit-learnの基本的な使い方
ここからは、scikit-learnを実際に使ってみましょう。まずはインストールから始めます。
scikit-learnのインストール方法
scikit-learnのインストールは、pipを使うのが最も簡単です。以下のコマンドを実行することで、最新版のscikit-learnがインストールされます。
pip install scikit-learn
Anacondaを使っている場合は、以下のコマンドでインストールできます。
conda install scikit-learn
インストールが完了したら、以下のようにバージョンを確認しておきましょう。
import sklearn print(sklearn.__version__)
学習データとテストデータの分割方法
機械学習では、データを学習用とテスト用に分割するのが一般的です。scikit-learnでは、train_test_split
関数を使ってデータを簡単に分割できます。
from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
上記の例では、データX
とラベルy
を8:2の比率で学習用とテスト用に分割しています。random_state
を指定することで、乱数シードを固定し、再現性を確保しています。
モデルの学習と評価の方法
scikit-learnでモデルを学習するには、以下の手順を踏みます。
- モデルのインスタンス化
- 学習データを使ってモデルを学習(
fit
関数) - テストデータを使って予測を行う(
predict
関数) - 予測結果を評価する(
score
関数)
例えば、線形回帰モデルを学習するには以下のようにします。
from sklearn.linear_model import LinearRegression model = LinearRegression() # モデルのインスタンス化 model.fit(X_train, y_train) # 学習データを使って学習 y_pred = model.predict(X_test) # テストデータを使って予測 score = model.score(X_test, y_test) # 予測結果を評価 print(f"Score: {score:.2f}")
ハイパーパラメータの探索方法
モデルの性能を最大限に引き出すには、ハイパーパラメータの調整が重要です。scikit-learnでは、GridSearchCV
やRandomizedSearchCV
を使ってハイパーパラメータの探索を行うことができます。
from sklearn.model_selection import GridSearchCV param_grid = {'C': [0.1, 1, 10], 'kernel': ['linear', 'rbf']} grid_search = GridSearchCV(SVC(), param_grid, cv=5) grid_search.fit(X_train, y_train) print(f"Best parameters: {grid_search.best_params_}") print(f"Best score: {grid_search.best_score_:.2f}")
上記の例では、SVMのハイパーパラメータであるC
とkernel
について、グリッドサーチを行っています。cv
でクロスバリデーションの分割数を指定することで、汎化性能を評価しながら最適なハイパーパラメータを探索します。
scikit-learnを使えば、このようにデータの準備からモデルの評価まで、一連の機械学習の流れを簡単に実装することができます。次節以降では、回帰、分類、クラスタリングなど、代表的なタスクについてより詳しく見ていきましょう。
scikit-learnを使った回帰分析の実践
回帰分析は、説明変数から目的変数の値を予測するための手法です。ここでは、scikit-learnを使って回帰分析を実践的に行う方法を見ていきましょう。
線形回帰と非線形回帰
回帰分析には、大きく分けて線形回帰と非線形回帰の2種類があります。線形回帰は、説明変数と目的変数の関係が直線的であると仮定したモデルです。一方、非線形回帰は、説明変数と目的変数の関係が非線形であるとしてモデル化します。多項式回帰や決定木、サポートベクターマシン(SVR)などが代表的な非線形回帰モデルです。
scikit-learnでは、以下のように線形回帰と非線形回帰を実装することができます。
from sklearn.linear_model import LinearRegression from sklearn.tree import DecisionTreeRegressor # 線形回帰 linear_model = LinearRegression() linear_model.fit(X_train, y_train) # 決定木による非線形回帰 tree_model = DecisionTreeRegressor(max_depth=3) tree_model.fit(X_train, y_train)
正則化手法の使い方
過学習を防ぐために、正則化手法がよく用いられます。代表的な正則化手法として、L1正則化(Lasso)とL2正則化(Ridge)があります。L1正則化は一部の係数を0にすることで変数選択を行い、L2正則化は係数の大きさを抑えることで過学習を防ぎます。また、ElasticNetはL1正則化とL2正則化を組み合わせた手法です。
scikit-learnでは、以下のように正則化手法を適用できます。
from sklearn.linear_model import Lasso, Ridge, ElasticNet # L1正則化(Lasso) lasso_model = Lasso(alpha=0.1) lasso_model.fit(X_train, y_train) # L2正則化(Ridge) ridge_model = Ridge(alpha=0.1) ridge_model.fit(X_train, y_train) # ElasticNet elastic_model = ElasticNet(alpha=0.1, l1_ratio=0.5) elastic_model.fit(X_train, y_train)
モデルの解釈方法
回帰モデルを解釈するには、係数の大きさと符号に着目します。係数の大きさは、その説明変数の影響度を表し、符号は正の影響か負の影響かを示します。ただし、説明変数間に相関がある場合、単純な係数の解釈では不十分です。
この場合、偏回帰係数を使って、他の変数の影響を調整した影響度を計算することができます。scikit-learnでは、以下のように偏回帰係数を計算し、可視化することができます。
from sklearn.linear_model import LinearRegression import statsmodels.api as sm model = LinearRegression() model.fit(X_train, y_train) X_train_sm = sm.add_constant(X_train) model_sm = sm.OLS(y_train, X_train_sm).fit() print(model_sm.summary()) sm.graphics.plot_partregress_grid(model_sm)
また、部分依存性プロットを使うことで、説明変数と目的変数の関係を視覚的に理解することもできます。
時系列データへの回帰分析の適用
時系列データに回帰分析を適用する場合、過去の時系列データをシフトして説明変数として利用します。これをラグ付き変数と呼びます。例えば、以下のようにラグ付き変数を作成し、モデルを構築することができます。
from sklearn.linear_model import LinearRegression X_lag = pd.concat([X.shift(1), X.shift(2), X.shift(3)], axis=1) X_lag = X_lag.dropna() y_lag = y[3:] model = LinearRegression() model.fit(X_lag, y_lag)
さらに、自己回帰モデル(AR)や自己回帰和分移動平均モデル(ARIMA)など、時系列データに特化したモデルを使うこともできます。
以上のように、scikit-learnを使うことで、回帰分析を実践的に行うことができます。線形回帰と非線形回帰の選択、正則化手法の適用、モデルの解釈、時系列データへの適用など、様々な場面で活用できる手法を押さえておきましょう。
scikit-learnを使った分類タスクの実践
分類は、与えられたデータをあらかじめ定義されたクラスに割り当てるタスクです。ここでは、scikit-learnを使って分類タスクを実践的に行う方法を見ていきましょう。
2クラス分類と多クラス分類
分類タスクは、目的変数のクラス数によって2クラス分類と多クラス分類に分けられます。2クラス分類は、目的変数が2つのクラスを持つ場合で、例えばメールのスパム判定などが該当します。一方、多クラス分類は、目的変数が3つ以上のクラスを持つ場合で、手書き文字の識別などが代表的な例です。
scikit-learnでは、以下のように2クラス分類と多クラス分類を実装することができます。
from sklearn.linear_model import LogisticRegression from sklearn.ensemble import RandomForestClassifier # 2クラス分類(ロジスティック回帰) lr_model = LogisticRegression() lr_model.fit(X_train, y_train) # 多クラス分類(ランダムフォレスト) rf_model = RandomForestClassifier() rf_model.fit(X_train, y_train)
SVMとロジスティック回帰
サポートベクターマシン(SVM)とロジスティック回帰は、どちらも分類タスクでよく使われるアルゴリズムです。SVMは、カーネルトリックを使って非線形の決定境界を学習することができます。一方、ロジスティック回帰は、シグモイド関数を使って事後確率を計算し、閾値を設定することでクラス分類を行います。
scikit-learnでは、以下のようにSVMとロジスティック回帰を実装できます。
from sklearn.svm import SVC from sklearn.linear_model import LogisticRegression # SVM svm_model = SVC(kernel='rbf', C=1.0) svm_model.fit(X_train, y_train) # ロジスティック回帰 lr_model = LogisticRegression(C=1.0) lr_model.fit(X_train, y_train)
決定木とランダムフォレスト
決定木は、説明変数の値に基づいて分岐を繰り返し、最終的に各葉ノードでクラス分類を行うアルゴリズムです。ランダムフォレストは、複数の決定木を組み合わせた集団学習モデルであり、過学習を抑えつつ高い精度を実現します。
scikit-learnでは、以下のように決定木とランダムフォレストを実装できます。
from sklearn.tree import DecisionTreeClassifier from sklearn.ensemble import RandomForestClassifier # 決定木 dt_model = DecisionTreeClassifier(max_depth=3) dt_model.fit(X_train, y_train) # ランダムフォレスト rf_model = RandomForestClassifier(n_estimators=100, max_depth=3) rf_model.fit(X_train, y_train)
異常検知への分類の適用
分類アルゴリズムは、異常検知にも応用することができます。One-Class SVMは、正常データのみを学習し、外れ値を異常として検知します。Isolation Forestは、異常データほど少ない分割で孤立するという性質を利用して異常を検知します。また、Local Outlier Factor (LOF)は、密度の低い領域にある外れ値を異常として検知します。
scikit-learnでは、以下のように異常検知アルゴリズムを実装できます。
from sklearn.svm import OneClassSVM from sklearn.ensemble import IsolationForest from sklearn.neighbors import LocalOutlierFactor # One-Class SVM ocsvm_model = OneClassSVM(kernel='rbf', nu=0.1) ocsvm_model.fit(X_train) # Isolation Forest if_model = IsolationForest(n_estimators=100, contamination=0.1) if_model.fit(X_train) # Local Outlier Factor lof_model = LocalOutlierFactor(n_neighbors=20, contamination=0.1) lof_model.fit(X_train)
分類タスクを実践する上では、データの特性に応じて適切なアルゴリズムを選択することが重要です。また、評価指標や不均衡データへの対処法についても理解を深めておく必要があります。異常検知への応用も含めて、scikit-learnを活用することで、様々な分類タスクに取り組むことができるでしょう。
scikit-learnを使ったクラスタリングの実践
クラスタリングは、教師なし学習の代表的な手法であり、データの構造を探索的に理解するために用いられます。ここでは、scikit-learnを使ってクラスタリングを実践的に行う方法を見ていきましょう。
K-meansとHierarchical Clustering
K-meansは、データ点とクラスタ中心との距離の総和が最小になるようにクラスタを形成するアルゴリズムです。一方、階層的クラスタリング(Hierarchical Clustering)は、データ点間の距離に基づいて、クラスタを階層的に形成します。
scikit-learnでは、以下のようにK-meansと階層的クラスタリングを実装できます。
from sklearn.cluster import KMeans from sklearn.cluster import AgglomerativeClustering # K-means kmeans_model = KMeans(n_clusters=3, random_state=42) kmeans_model.fit(X) # 階層的クラスタリング hc_model = AgglomerativeClustering(n_clusters=3, linkage='ward') hc_model.fit(X)
DBSCANとGaussian Mixture
DBSCANは、データ点の密度に基づいてクラスタを形成し、外れ値を検出するアルゴリズムです。Gaussian Mixture Model(GMM)は、データが複数のガウス分布の混合モデルから生成されると仮定してクラスタリングを行います。
scikit-learnでは、以下のようにDBSCANとGMMを実装できます。
from sklearn.cluster import DBSCAN from sklearn.mixture import GaussianMixture # DBSCAN dbscan_model = DBSCAN(eps=0.5, min_samples=5) dbscan_model.fit(X) # Gaussian Mixture Model gmm_model = GaussianMixture(n_components=3, random_state=42) gmm_model.fit(X)
特徴量の標準化とスケーリング
クラスタリングを行う前に、特徴量の前処理を行うことが重要です。標準化は、データの平均を0、分散を1に変換する操作であり、スケーリングは、データの値を一定の範囲(例: 0〜1)に変換する操作です。
scikit-learnでは、以下のように標準化とスケーリングを実装できます。
from sklearn.preprocessing import StandardScaler, MinMaxScaler # 標準化 scaler = StandardScaler() X_scaled = scaler.fit_transform(X) # スケーリング scaler = MinMaxScaler() X_scaled = scaler.fit_transform(X)
次元削減とクラスタリングの組み合わせ
高次元のデータに対してクラスタリングを適用する場合、次元削減と組み合わせることで、より効果的な分析が可能になります。PCAやt-SNEを使って次元削減を行った後、クラスタリングを適用する方法と、クラスタリングの結果をもとに次元削減して可視化する方法があります。
scikit-learnでは、以下のようにPCAとt-SNEを実装できます。
from sklearn.decomposition import PCA from sklearn.manifold import TSNE # PCA pca = PCA(n_components=2) X_pca = pca.fit_transform(X) # t-SNE tsne = TSNE(n_components=2, random_state=42) X_tsne = tsne.fit_transform(X)
クラスタリングは、データの構造を理解するための強力なツールです。scikit-learnを使うことで、様々なクラスタリングアルゴリズムを簡単に実装することができます。特徴量の前処理や次元削減との組み合わせについても理解を深め、実践的なデータ分析スキルを身につけましょう。
scikit-learnとデータ前処理・モデル評価
機械学習モデルを構築する上で、データの前処理とモデルの評価は欠かせない要素です。ここでは、scikit-learnを使ったデータ前処理とモデル評価の実践的な方法を見ていきましょう。
欠損値の扱い方
欠損値を含むデータを扱う際には、まず欠損値の存在を特定する必要があります。その後、欠損値を削除する方法(リストワイズ削除、ペアワイズ削除)と、欠損値を補完する方法(平均値、中央値、最頻値、KNN法など)があります。
scikit-learnでは、以下のように欠損値を補完することができます。
from sklearn.impute import SimpleImputer # 欠損値を平均値で補完 imputer = SimpleImputer(strategy='mean') X_imputed = imputer.fit_transform(X)
カテゴリ変数のエンコーディング
カテゴリ変数を数値化する際には、One-Hot Encoding、Label Encoding、Ordinal Encodingなどの手法があります。One-Hot Encodingはカテゴリ変数をバイナリ変数に変換し、Label Encodingは整数に変換します。Ordinal Encodingは順序関係を考慮して整数に変換します。
scikit-learnでは、以下のようにカテゴリ変数をエンコーディングできます。
from sklearn.preprocessing import OneHotEncoder, LabelEncoder, OrdinalEncoder # One-Hot Encoding onehot_encoder = OneHotEncoder() X_onehot = onehot_encoder.fit_transform(X) # Label Encoding label_encoder = LabelEncoder() X_label = label_encoder.fit_transform(X) # Ordinal Encoding ordinal_encoder = OrdinalEncoder() X_ordinal = ordinal_encoder.fit_transform(X)
交差検証とグリッドサーチ
モデルの汎化性能を評価するために、交差検証が用いられます。K-分割交差検証は、データをK個のサブセットに分割し、順番に検証を行う手法です。層化K-分割交差検証は、クラス比率を保持しながらK-分割交差検証を行います。
グリッドサーチは、ハイパーパラメータの候補値を指定し、交差検証を用いて各組み合わせを評価することで、最適なハイパーパラメータを探索する手法です。
scikit-learnでは、以下のように交差検証とグリッドサーチを実装できます。
from sklearn.model_selection import KFold, StratifiedKFold, GridSearchCV # K-分割交差検証 kf = KFold(n_splits=5, shuffle=True, random_state=42) # 層化K-分割交差検証 skf = StratifiedKFold(n_splits=5, shuffle=True, random_state=42) # グリッドサーチ param_grid = {'C': [0.1, 1, 10], 'kernel': ['linear', 'rbf']} grid_search = GridSearchCV(SVC(), param_grid, cv=5) grid_search.fit(X_train, y_train)
適切な評価指標の選び方
モデルの評価には、問題の種類に応じて適切な評価指標を選ぶ必要があります。回帰問題では、MAE、MSE、RMSE、R^2などの指標が用いられます。分類問題では、正解率、適合率、再現率、F1スコア、AUCなどが使われます。クラスタリングでは、シルエット係数、Davies-Bouldin Index、Calinski-Harabasz Indexなどが用いられます。
scikit-learnでは、以下のように評価指標を計算できます。
from sklearn.metrics import mean_absolute_error, mean_squared_error, r2_score from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score, roc_auc_score from sklearn.metrics import silhouette_score, davies_bouldin_score, calinski_harabasz_score # 回帰問題の評価指標 mae = mean_absolute_error(y_test, y_pred) mse = mean_squared_error(y_test, y_pred) rmse = np.sqrt(mse) r2 = r2_score(y_test, y_pred) # 分類問題の評価指標 accuracy = accuracy_score(y_test, y_pred) precision = precision_score(y_test, y_pred) recall = recall_score(y_test, y_pred) f1 = f1_score(y_test, y_pred) auc = roc_auc_score(y_test, y_pred_proba) # クラスタリングの評価指標 silhouette = silhouette_score(X, labels) db_index = davies_bouldin_score(X, labels) ch_index = calinski_harabasz_score(X, labels)
データ前処理とモデル評価は、機械学習プロジェクトの重要な要素です。scikit-learnを活用することで、欠損値の処理やカテゴリ変数のエンコーディング、交差検証、グリッドサーチ、適切な評価指標の選択など、一連の作業を効率的に行うことができます。これらの手法を適切に組み合わせ、モデルの性能を最大限に引き出しましょう。
scikit-learnの発展的な使い方
scikit-learnを使いこなすことで、より効率的で高度な機械学習を実践することができます。ここでは、scikit-learnの発展的な使い方について、具体的な例を交えて解説します。
パイプラインによる処理の自動化
パイプラインを使うことで、データ前処理からモデル構築までの一連の流れを自動化することができます。これにより、コードの可読性が向上し、再利用性が高まります。また、カスタムトランスフォーマーを作成することで、独自の前処理手順をパイプラインに組み込むこともできます。
scikit-learnでは、以下のようにパイプラインを構築できます。
from sklearn.pipeline import Pipeline from sklearn.preprocessing import StandardScaler from sklearn.linear_model import LogisticRegression pipeline = Pipeline([ ('scaler', StandardScaler()), ('classifier', LogisticRegression()) ]) pipeline.fit(X_train, y_train)
アンサンブル学習の実装方法
アンサンブル学習は、複数のモデルを組み合わせることで、単一のモデルよりも高い性能を達成する手法です。代表的なアンサンブル学習として、バギング(ランダムフォレスト)、ブースティング(AdaBoost, Gradient Boosting)、スタッキングなどがあります。
scikit-learnでは、以下のようにアンサンブル学習を実装できます。
from sklearn.ensemble import RandomForestClassifier, AdaBoostClassifier, GradientBoostingClassifier from sklearn.ensemble import StackingClassifier from sklearn.linear_model import LogisticRegression from sklearn.tree import DecisionTreeClassifier # ランダムフォレスト rf_model = RandomForestClassifier(n_estimators=100, random_state=42) # AdaBoost ada_model = AdaBoostClassifier(n_estimators=100, random_state=42) # Gradient Boosting gb_model = GradientBoostingClassifier(n_estimators=100, random_state=42) # スタッキング estimators = [ ('rf', RandomForestClassifier(n_estimators=100, random_state=42)), ('ada', AdaBoostClassifier(n_estimators=100, random_state=42)), ('gb', GradientBoostingClassifier(n_estimators=100, random_state=42)) ] stack_model = StackingClassifier(estimators=estimators, final_estimator=LogisticRegression())
OpenCVなど他ライブラリとの連携
scikit-learnは、OpenCVやXGBoost、LightGBMなどの外部ライブラリと連携することで、より高度な機械学習タスクに対応できます。OpenCVを用いることで、画像処理と機械学習を組み合わせたタスクに取り組むことができます。XGBoostやLightGBMは、勾配ブースティングの実装に特化したライブラリであり、大規模データへの対応に優れています。
以下は、OpenCVを用いた画像処理と機械学習の連携例です。
import cv2 from sklearn.svm import SVC # 画像の読み込みと前処理 img = cv2.imread('image.jpg') gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) features = gray.reshape(-1) # SVMを用いた画像分類 svm_model = SVC() svm_model.fit(X_train, y_train) prediction = svm_model.predict([features])
大規模データへの対応方法
大規模データを扱う際には、メモリ制約やパフォーマンスの問題が生じる可能性があります。これに対応するために、データのチャンク単位での読み込みや、特徴量の漸進的な選択(Incremental Feature Selection)、オンライン学習(Online Learning)などの手法が用いられます。
scikit-learnでは、以下のようにオンライン学習を実装できます。
from sklearn.linear_model import SGDClassifier sgd_model = SGDClassifier() for X_batch, y_batch in zip(X_batches, y_batches): sgd_model.partial_fit(X_batch, y_batch, classes=np.unique(y))
このように、scikit-learnを発展的に使いこなすことで、より実践的で高度な機械学習を行うことができます。パイプラインやアンサンブル学習、外部ライブラリとの連携、大規模データへの対応など、様々な場面で応用力を発揮しましょう。scikit-learnの可能性を最大限に引き出すことで、機械学習のエキスパートを目指すことができるでしょう。
scikit-learnの実践的な適用例
ここまでscikit-learnの基本的な使い方から発展的なテクニックまで学んできました。最後に、scikit-learnを実際の業務で活用する際の具体的な適用例をいくつか紹介します。
不動産価格の予測モデル
不動産価格の予測は、scikit-learnを用いた回帰分析の代表的な適用例です。目的変数は不動産価格、説明変数は面積、立地、築年数、間取りなどが考えられます。線形回帰やランダムフォレスト、XGBoostなどの手法を用いることで、不動産価格の予測モデルを構築することができます。
モデルの評価には、MAE(平均絶対誤差)、RMSE(平均二乗誤差の平方根)、R^2(決定係数)などの回帰問題の評価指標を用います。これらの指標を用いて、モデルの予測精度を評価し、改善していきます。
SNSの投稿の感情分析
SNSの投稿から、ユーザーのポジティブ/ネガティブな感情を判定する感情分析も、scikit-learnを活用できる分野です。まず、投稿のテキストデータに対して、クリーニングや、BoW(Bag of Words)、TF-IDF(Term Frequency-Inverse Document Frequency)などの特徴量抽出を行います。
その後、ロジスティック回帰やSVM(サポートベクターマシン)、ナイーブベイズなどの分類アルゴリズムを用いて、感情を判定するモデルを構築します。適合率、再現率、F1スコアなどの分類問題の評価指標を用いて、モデルの性能を評価します。
ECサイトの購買予測
ECサイトにおける購買予測は、ユーザーの購買行動を予測し、パーソナライズされたレコメンデーションを提供するために重要です。説明変数として、過去の購買履歴、閲覧履歴、属性情報などを用いることができます。
協調フィルタリングやコンテンツベース推薦、ランダムフォレストなどの手法を用いて、購買予測モデルを構築します。正解率、適合率、再現率、AUC(ROC曲線の下面積)などの評価指標を用いて、モデルの性能を評価します。
株価の変動予測モデル
株価の変動を予測することは、金融分野におけるscikit-learnの重要な適用例の一つです。目的変数は将来の株価の上昇/下落、説明変数は過去の株価、出来高、ニュース記事の感情極性などが考えられます。
ロジスティック回帰やSVM、LSTM(Long Short-Term Memory)などの手法を用いて、株価の変動予測モデルを構築します。正解率、適合率、再現率、AUCなどの評価指標を用いて、モデルの性能を評価します。
以上、scikit-learnの実践的な適用例を4つ紹介しました。それぞれの分野で、scikit-learnを活用することで、データから価値ある知見を引き出すことができます。適用例で得られた知見をビジネスに活かすことで、企業の意思決定の質を高めることができるでしょう。
scikit-learnは、様々な分野で活用できる強力なツールです。本記事で紹介した内容を参考に、scikit-learnを活用した機械学習の実践に取り組んでみてください。実務での課題解決に役立てることができれば幸いです。