人工智能和機器學習之分類算法:LightGBM:LightGBM在工業(yè)界的應用案例_第1頁
人工智能和機器學習之分類算法:LightGBM:LightGBM在工業(yè)界的應用案例_第2頁
人工智能和機器學習之分類算法:LightGBM:LightGBM在工業(yè)界的應用案例_第3頁
人工智能和機器學習之分類算法:LightGBM:LightGBM在工業(yè)界的應用案例_第4頁
人工智能和機器學習之分類算法:LightGBM:LightGBM在工業(yè)界的應用案例_第5頁
已閱讀5頁,還剩13頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領

文檔簡介

人工智能和機器學習之分類算法:LightGBM:LightGBM在工業(yè)界的應用案例1人工智能和機器學習之分類算法:LightGBM算法概述與傳統(tǒng)GBDT的比較1.1簡介在機器學習領域,尤其是處理大規(guī)模數(shù)據(jù)集時,LightGBM因其高效性和準確性而備受青睞。本教程將深入探討LightGBM算法的核心原理,以及它與傳統(tǒng)GBDT(GradientBoostingDecisionTree)的比較,旨在為工業(yè)界的應用提供理論基礎和實踐指導。1.1.1LightGBM算法概述1.1.1.1原理LightGBM是Microsoft開發(fā)的一種梯度提升框架,它使用樹基學習算法。與傳統(tǒng)的GBDT相比,LightGBM在算法設計上進行了多項優(yōu)化,以提高訓練速度和模型性能。其核心優(yōu)化點包括:GoSS(Gradient-basedOne-SideSampling):這是一種基于梯度的采樣方法,用于減少數(shù)據(jù)量,同時保持模型的準確性。它通過丟棄梯度小的數(shù)據(jù)點和保留梯度大的數(shù)據(jù)點來實現(xiàn)。EFB(ExclusiveFeatureBundling):這是一種特征組合技術(shù),用于減少特征數(shù)量,從而提高訓練速度。它通過將互斥的特征組合在一起,減少樹的分裂點,從而減少計算量。直方圖優(yōu)化:LightGBM使用直方圖算法來加速特征的分裂點查找。它通過預排序和直方圖的并行計算,大大提高了訓練速度。1.1.1.2內(nèi)容LightGBM的高效性主要體現(xiàn)在以下幾個方面:內(nèi)存使用:通過使用更小的數(shù)據(jù)結(jié)構(gòu)和算法優(yōu)化,LightGBM能夠更有效地利用內(nèi)存,處理更大的數(shù)據(jù)集。并行計算:LightGBM支持并行訓練,可以利用多核CPU加速訓練過程。精確度:盡管進行了多項優(yōu)化,LightGBM在保持模型精度方面并不妥協(xié),甚至在某些情況下,其性能優(yōu)于傳統(tǒng)GBDT。1.1.2LightGBM與傳統(tǒng)GBDT的比較1.1.2.1訓練速度LightGBM通過GoSS和EFB等技術(shù),顯著減少了訓練所需的時間。在處理大規(guī)模數(shù)據(jù)集時,這種速度優(yōu)勢尤為明顯。1.1.2.2內(nèi)存使用LightGBM優(yōu)化了內(nèi)存使用,能夠處理更大的數(shù)據(jù)集,而不會導致內(nèi)存溢出。這對于工業(yè)界處理海量數(shù)據(jù)的應用場景至關(guān)重要。1.1.2.3模型性能在模型性能方面,LightGBM通過更精細的特征選擇和分裂點查找,往往能夠達到甚至超過傳統(tǒng)GBDT的性能。1.1.2.4示例代碼下面是一個使用LightGBM進行分類任務的Python代碼示例:importlightgbmaslgb

importnumpyasnp

fromsklearn.datasetsimportload_iris

fromsklearn.model_selectionimporttrain_test_split

#加載數(shù)據(jù)

data=load_iris()

X=data.data

y=data.target

#劃分訓練集和測試集

X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2,random_state=42)

#創(chuàng)建數(shù)據(jù)集

lgb_train=lgb.Dataset(X_train,y_train)

lgb_eval=lgb.Dataset(X_test,y_test,reference=lgb_train)

#設置參數(shù)

params={

'boosting_type':'gbdt',

'objective':'multiclass',

'metric':'multi_logloss',

'num_class':3,

'num_leaves':31,

'learning_rate':0.05,

'feature_fraction':0.9,

'bagging_fraction':0.8,

'bagging_freq':5,

'verbose':0

}

#訓練模型

gbm=lgb.train(params,

lgb_train,

num_boost_round=20,

valid_sets=lgb_eval,

early_stopping_rounds=5)

#預測

y_pred=gbm.predict(X_test,num_iteration=gbm.best_iteration)1.1.2.5數(shù)據(jù)樣例在上述代碼中,我們使用了sklearn.datasets中的load_iris數(shù)據(jù)集。這是一個經(jīng)典的多分類數(shù)據(jù)集,包含150個樣本,每個樣本有4個特征,目標變量有3個類別。1.1.2.6代碼講解數(shù)據(jù)加載:我們首先使用load_iris函數(shù)加載數(shù)據(jù),然后將數(shù)據(jù)和目標變量分別存儲在X和y中。數(shù)據(jù)劃分:使用train_test_split函數(shù)將數(shù)據(jù)劃分為訓練集和測試集。創(chuàng)建數(shù)據(jù)集:LightGBM需要特定格式的數(shù)據(jù)集,我們使用lgb.Dataset創(chuàng)建訓練集和驗證集。設置參數(shù):定義模型訓練的參數(shù),包括目標函數(shù)、評估指標、樹的葉子節(jié)點數(shù)等。訓練模型:使用lgb.train函數(shù)訓練模型,通過early_stopping_rounds參數(shù)來防止過擬合。預測:最后,使用訓練好的模型對測試集進行預測。通過上述代碼,我們可以看到LightGBM在處理分類任務時的靈活性和高效性。在工業(yè)界,這種算法被廣泛應用于推薦系統(tǒng)、廣告點擊預測、金融風控等場景,以提高模型的預測能力和處理大規(guī)模數(shù)據(jù)的能力。1.2結(jié)論LightGBM通過其獨特的算法優(yōu)化,不僅提高了訓練速度和模型性能,還降低了內(nèi)存使用,使其成為工業(yè)界處理大規(guī)模數(shù)據(jù)集的理想選擇。通過本教程的學習,你將能夠更好地理解和應用LightGBM算法,以解決實際問題。2LightGBM原理2.1特征并行化(subdir2.1)在特征并行化中,LightGBM將數(shù)據(jù)集按照特征進行分割,每個線程處理一部分特征。這種并行策略可以顯著提高模型訓練速度,尤其是在高維數(shù)據(jù)集上。下面通過一個簡單的代碼示例來展示如何在LightGBM中使用特征并行化:importlightgbmaslgb

importnumpyasnp

fromsklearn.datasetsimportload_breast_cancer

fromsklearn.model_selectionimporttrain_test_split

#加載數(shù)據(jù)

data=load_breast_cancer()

X=data.data

y=data.target

#劃分訓練集和測試集

X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2,random_state=42)

#創(chuàng)建LightGBM數(shù)據(jù)集

lgb_train=lgb.Dataset(X_train,y_train)

lgb_eval=lgb.Dataset(X_test,y_test,reference=lgb_train)

#設置參數(shù)

params={

'boosting_type':'gbdt',

'objective':'binary',

'metric':'binary_logloss',

'num_leaves':31,

'learning_rate':0.05,

'feature_fraction':0.9,#特征并行化參數(shù),控制每個樹使用特征的比例

'bagging_fraction':0.8,#數(shù)據(jù)并行化參數(shù),控制每個樹使用數(shù)據(jù)的比例

'bagging_freq':5,

'verbose':0

}

#訓練模型

gbm=lgb.train(params,

lgb_train,

num_boost_round=20,

valid_sets=lgb_eval,

early_stopping_rounds=5)在這個例子中,我們使用了feature_fraction參數(shù)來控制每個樹使用特征的比例,從而實現(xiàn)特征并行化。2.2直方圖并行化(subdir2.2)直方圖并行化是LightGBM的另一個關(guān)鍵特性,它通過在每個線程中構(gòu)建局部直方圖,然后將這些局部直方圖合并為全局直方圖,從而加速決策樹的構(gòu)建過程。下面的代碼示例展示了如何在LightGBM中利用直方圖并行化:#設置參數(shù)

params={

'boosting_type':'gbdt',

'objective':'binary',

'metric':'binary_logloss',

'num_leaves':31,

'learning_rate':0.05,

'min_data_in_leaf':20,#控制最小葉子節(jié)點樣本數(shù),影響直方圖的精度

'num_threads':4,#設置線程數(shù),實現(xiàn)直方圖并行化

'verbose':0

}

#訓練模型

gbm=lgb.train(params,

lgb_train,

num_boost_round=20,

valid_sets=lgb_eval,

early_stopping_rounds=5)通過設置num_threads參數(shù),我們可以控制用于訓練模型的線程數(shù),從而實現(xiàn)直方圖并行化。2.3Leaf-wise的葉子生長策略(subdir2.3)LightGBM采用了Leaf-wise的葉子生長策略,與傳統(tǒng)的Level-wise策略相比,Leaf-wise策略可以更快地降低損失函數(shù),從而提高模型的準確性。下面的代碼示例展示了如何在LightGBM中使用Leaf-wise策略:#設置參數(shù)

params={

'boosting_type':'gbdt',

'objective':'binary',

'metric':'binary_logloss',

'num_leaves':31,

'learning_rate':0.05,

'min_data_in_leaf':20,

'tree_learner':'serial',#LightGBM默認的樹學習策略,可以是'serial'、'feature'、'data'或'voting'

'verbose':0

}

#訓練模型

gbm=lgb.train(params,

lgb_train,

num_boost_round=20,

valid_sets=lgb_eval,

early_stopping_rounds=5)雖然tree_learner參數(shù)可以設置為不同的值來實現(xiàn)不同的并行策略,但默認的’serial’策略就是基于Leaf-wise的葉子生長策略。2.4直方圖差分(subdir2.4)直方圖差分是LightGBM中用于減少內(nèi)存使用和提高訓練速度的一種技術(shù)。它通過計算直方圖的差分,而不是存儲完整的直方圖,從而減少了內(nèi)存需求。下面的代碼示例展示了如何在LightGBM中利用直方圖差分:#設置參數(shù)

params={

'boosting_type':'gbdt',

'objective':'binary',

'metric':'binary_logloss',

'num_leaves':31,

'learning_rate':0.05,

'min_data_in_leaf':20,

'histogram_pool_size':10000,#設置直方圖池的大小,用于直方圖差分

'verbose':0

}

#訓練模型

gbm=lgb.train(params,

lgb_train,

num_boost_round=20,

valid_sets=lgb_eval,

early_stopping_rounds=5)通過設置histogram_pool_size參數(shù),我們可以控制直方圖池的大小,從而影響直方圖差分的效率和精度。2.5帶深度限制的Leaf-wise策略(subdir2.5)雖然Leaf-wise策略可以提高模型的準確性,但它也可能導致模型過擬合。因此,LightGBM引入了深度限制,以控制樹的深度,從而避免過擬合。下面的代碼示例展示了如何在LightGBM中使用帶深度限制的Leaf-wise策略:#設置參數(shù)

params={

'boosting_type':'gbdt',

'objective':'binary',

'metric':'binary_logloss',

'num_leaves':31,

'learning_rate':0.05,

'min_data_in_leaf':20,

'max_depth':5,#設置樹的最大深度,實現(xiàn)深度限制

'verbose':0

}

#訓練模型

gbm=lgb.train(params,

lgb_train,

num_boost_round=20,

valid_sets=lgb_eval,

early_stopping_rounds=5)通過設置max_depth參數(shù),我們可以控制樹的最大深度,從而實現(xiàn)深度限制,避免模型過擬合。以上就是LightGBM原理的詳細介紹,包括特征并行化、直方圖并行化、Leaf-wise的葉子生長策略、直方圖差分以及帶深度限制的Leaf-wise策略。通過這些技術(shù),LightGBM能夠在保證模型準確性的同時,大幅提高訓練速度和減少內(nèi)存使用。3人工智能和機器學習之分類算法:LightGBM在工業(yè)界的應用案例3.1工業(yè)界應用案例3.1.11金融風控中的應用在金融風控領域,LightGBM因其高效和準確的特性被廣泛應用于信用評估、欺詐檢測等場景。下面通過一個信用評估的例子來展示LightGBM的應用。3.1.1.1數(shù)據(jù)樣例假設我們有以下數(shù)據(jù)樣例,用于評估客戶的信用等級:客戶ID年齡收入婚姻狀況信用等級0013050000已婚10022230000未婚00034580000已婚1……………3.1.1.2代碼示例importlightgbmaslgb

importpandasaspd

fromsklearn.model_selectionimporttrain_test_split

fromsklearn.metricsimportaccuracy_score

#加載數(shù)據(jù)

data=pd.read_csv('credit_data.csv')

X=data.drop('信用等級',axis=1)

y=data['信用等級']

#劃分數(shù)據(jù)集

X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2,random_state=42)

#創(chuàng)建LightGBM數(shù)據(jù)集

lgb_train=lgb.Dataset(X_train,y_train)

lgb_eval=lgb.Dataset(X_test,y_test,reference=lgb_train)

#設置參數(shù)

params={

'boosting_type':'gbdt',

'objective':'binary',

'metric':'binary_logloss',

'num_leaves':31,

'learning_rate':0.05,

'feature_fraction':0.9,

'bagging_fraction':0.8,

'bagging_freq':5,

'verbose':0

}

#訓練模型

gbm=lgb.train(params,

lgb_train,

num_boost_round=20,

valid_sets=lgb_eval,

early_stopping_rounds=5)

#預測

y_pred=gbm.predict(X_test,num_iteration=gbm.best_iteration)

y_pred=[1ifpred>0.5else0forprediny_pred]

#評估

accuracy=accuracy_score(y_test,y_pred)

print(f'Accuracy:{accuracy}')3.1.22推薦系統(tǒng)優(yōu)化LightGBM在推薦系統(tǒng)中用于優(yōu)化用戶推薦,提高推薦的準確性和效率。以下是一個基于用戶行為數(shù)據(jù)的推薦系統(tǒng)優(yōu)化示例。3.1.2.1數(shù)據(jù)樣例用戶ID商品ID購買次數(shù)瀏覽次數(shù)收藏次數(shù)是否購買001101251100210203000031031201………………3.1.2.2代碼示例importlightgbmaslgb

importpandasaspd

fromsklearn.model_selectionimporttrain_test_split

fromsklearn.metricsimportroc_auc_score

#加載數(shù)據(jù)

data=pd.read_csv('recommendation_data.csv')

X=data.drop('是否購買',axis=1)

y=data['是否購買']

#劃分數(shù)據(jù)集

X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2,random_state=42)

#創(chuàng)建LightGBM數(shù)據(jù)集

lgb_train=lgb.Dataset(X_train,y_train)

lgb_eval=lgb.Dataset(X_test,y_test,reference=lgb_train)

#設置參數(shù)

params={

'boosting_type':'gbdt',

'objective':'binary',

'metric':'auc',

'num_leaves':31,

'learning_rate':0.05,

'feature_fraction':0.9,

'bagging_fraction':0.8,

'bagging_freq':5,

'verbose':0

}

#訓練模型

gbm=lgb.train(params,

lgb_train,

num_boost_round=20,

valid_sets=lgb_eval,

early_stopping_rounds=5)

#預測

y_pred=gbm.predict(X_test,num_iteration=gbm.best_iteration)

#評估

auc=roc_auc_score(y_test,y_pred)

print(f'AUC:{auc}')3.1.33廣告點擊率預測廣告點擊率預測是在線廣告系統(tǒng)中的關(guān)鍵環(huán)節(jié),LightGBM能夠處理大規(guī)模數(shù)據(jù),提高預測精度。3.1.3.1數(shù)據(jù)樣例用戶ID廣告ID廣告類型用戶年齡用戶性別點擊001201體育30男1002202美食22女0003203旅游45男1………………3.1.3.2代碼示例importlightgbmaslgb

importpandasaspd

fromsklearn.model_selectionimporttrain_test_split

fromsklearn.metricsimportlog_loss

#加載數(shù)據(jù)

data=pd.read_csv('ad_click_data.csv')

X=data.drop('點擊',axis=1)

y=data['點擊']

#劃分數(shù)據(jù)集

X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2,random_state=42)

#創(chuàng)建LightGBM數(shù)據(jù)集

lgb_train=lgb.Dataset(X_train,y_train)

lgb_eval=lgb.Dataset(X_test,y_test,reference=lgb_train)

#設置參數(shù)

params={

'boosting_type':'gbdt',

'objective':'binary',

'metric':'binary_logloss',

'num_leaves':31,

'learning_rate':0.05,

'feature_fraction':0.9,

'bagging_fraction':0.8,

'bagging_freq':5,

'verbose':0

}

#訓練模型

gbm=lgb.train(params,

lgb_train,

num_boost_round=20,

valid_sets=lgb_eval,

early_stopping_rounds=5)

#預測

y_pred=gbm.predict(X_test,num_iteration=gbm.best_iteration)

#評估

loss=log_loss(y_test,y_pred)

print(f'LogLoss:{loss}')3.1.44生物信息學中的基因表達分析在生物信息學領域,LightGBM被用于分析基因表達數(shù)據(jù),幫助識別疾病相關(guān)的基因表達模式。3.1.4.1數(shù)據(jù)樣例樣本ID基因1表達量基因2表達量…疾病狀態(tài)0010.50.8…10020.30.2…00030.70.6…1……………3.1.4.2代碼示例importlightgbmaslgb

importpandasaspd

fromsklearn.model_selectionimporttrain_test_split

fromsklearn.metricsimportaccuracy_score

#加載數(shù)據(jù)

data=pd.read_csv('gene_expression_data.csv')

X=data.drop('疾病狀態(tài)',axis=1)

y=data['疾病狀態(tài)']

#劃分數(shù)據(jù)集

X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2,random_state=42)

#創(chuàng)建LightGBM數(shù)據(jù)集

lgb_train=lgb.Dataset(X_train,y_train)

lgb_eval=lgb.Dataset(X_test,y_test,reference=lgb_train)

#設置參數(shù)

params={

'boosting_type':'gbdt',

'objective':'binary',

'metric':'binary_logloss',

'num_leaves':31,

'learning_rate':0.05,

'feature_fraction':0.9,

'bagging_fraction':0.8,

'bagging_freq':5,

'verbose':0

}

#訓練模型

gbm=lgb.train(params,

lgb_train,

num_boost_round=20,

valid_sets=lgb_eval,

early_stopping_rounds=5)

#預測

y_pred=gbm.predict(X_test,num_iteration=gbm.best_iteration)

y_pred=[1ifpred>0.5else0forprediny_pred]

#評估

accuracy=accuracy_score(y_test,y_pred)

print(f'Accuracy:{accuracy}')以上四個示例展示了LightGBM在不同工業(yè)領域的應用,通過調(diào)整參數(shù)和優(yōu)化模型,可以有效提高預測的準確性和效率。4LightGBM實戰(zhàn)指南4.1subdir4.1數(shù)據(jù)預處理數(shù)據(jù)預處理是機器學習項目中至關(guān)重要的第一步。在使用LightGBM進行分類任務之前,確保數(shù)據(jù)的清潔和格式正確是必要的。以下是一個數(shù)據(jù)預處理的示例,使用Python的pandas庫和scikit-learn庫。importpandasaspd

fromsklearn.model_selectionimporttrain_test_split

fromsklearn.preprocessingimportLabelEncoder

#讀取數(shù)據(jù)

data=pd.read_csv('data.csv')

#處理缺失值

data.fillna(data.mean(),inplace=True)#使用平均值填充數(shù)值型特征的缺失值

data.fillna(data.mode().iloc[0],inplace=True)#使用眾數(shù)填充類別型特征的缺失值

#轉(zhuǎn)換類別特征

le=LabelEncoder()

data['category_feature']=le.fit_transform(data['category_feature'])

#分割數(shù)據(jù)集

X=data.drop('target',axis=1)

y=data['target']

X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2,random_state=42)4.1.1描述讀取數(shù)據(jù):使用pd.read_csv函數(shù)從CSV文件中讀取數(shù)據(jù)。處理缺失值:數(shù)值型特征用平均值填充,類別型特征用眾數(shù)填充。轉(zhuǎn)換類別特征:使用LabelEncoder將類別特征轉(zhuǎn)換為數(shù)值,以便LightGBM可以處理。分割數(shù)據(jù)集:使用train_test_split將數(shù)據(jù)集分為訓練集和測試集,比例為8:2。4.2subdir4.2模型訓練與調(diào)參在數(shù)據(jù)預處理完成后,接下來是訓練LightGBM模型。調(diào)參是優(yōu)化模型性能的關(guān)鍵步驟。以下是一個使用LightGBM進行模型訓練和調(diào)參的示例。importlightgbmaslgb

#定義模型參數(shù)

params={

'boosting_type':'gbdt',

'objective':'binary',

'metric':'auc',

'num_leaves':31,

'learning_rate':0.05,

'feature_fraction':0.9,

'bagging_fraction':0.8,

'bagging_freq':5,

'verbose':-1

}

#創(chuàng)建數(shù)據(jù)集

lgb_train=lgb.Dataset(X_train,y_train)

lgb_eval=lgb.Dataset(X_test,y_test,reference=lgb_train)

#訓練模型

gbm=lgb.train(params,

lgb_train,

num_boost_round=200,

valid_sets=lgb_eval,

early_stopping_rounds=5)4.2.1描述定義模型參數(shù):設置模型的訓練參數(shù),如boosting_type、objective、metric等。創(chuàng)建數(shù)據(jù)集:使用lgb.Dataset創(chuàng)建訓練和驗證數(shù)據(jù)集。訓練模型:使用lgb.train函數(shù)訓練模型,設置num_boost_round和early_stopping_rounds以防止過擬合。4.3subdir4.3特征選擇與重要性分析特征選擇和重要性分析可以幫助我們理解哪些特征對模型的預測最有貢獻。以下是如何使用LightGBM進行特征重要性分析的示例。#特征重要性

feature_importance=gbm.feature_importance(importance_type='gain')

#將特征重要性轉(zhuǎn)換為DataFrame

feature_importance_df=pd.DataFrame({'feature':X_train.columns,'importance':feature_importance})

#按重要性排序

feature_importance_df=feature_importance_df.sort_values(by='importance',ascending=False)

#選擇重要特征

selected_features=feature_importance_df['feature'][:10]4.3.1描述特征重要性:使用gbm.feature_importance獲取特征的重要性,這里使用gain作為重要性類型。轉(zhuǎn)換為DataFrame:將特征和其重要性值轉(zhuǎn)換為DataFrame,便于分析和排序。選擇重要特征:根據(jù)重要性排序,選擇前10個特征。4.4subdir4.4模型評估與驗證模型的評估和驗證是確保模型性能的關(guān)鍵步驟。以下是一個使用LightGBM進行模型評估的示例。fromsklearn.metricsimportaccuracy_score,roc_auc_score

#預測

y_pred=gbm.predict(X_test,num_iteration=gbm.best_iteration)

#轉(zhuǎn)換預測結(jié)果為類別

y_pred_class=[1ifpred>0.5else0forprediny_pred]

#計算準確率和AUC

accuracy=accuracy_score(y_test,y_pred_class)

auc=roc_auc_score(y_test,y_pred)

print(f'Accuracy:{accuracy}')

print(f'AUC:{auc}')4.4.1描述預測:使用gbm.predict函數(shù)預測測試集的結(jié)果,使用gbm.best_iteration確保使用最佳迭代次數(shù)。轉(zhuǎn)換預測結(jié)果:將預測的連續(xù)值轉(zhuǎn)換為類別。計算準確率和AUC:使用accuracy_score和roc_auc_score計算模型的準確率和AUC值。通過以上步驟,我們可以有效地使用LightGBM進行分類任務,從數(shù)據(jù)預處理到模型訓練、特征選擇,再到模型評估,每一步都至關(guān)重要。5LightGBM的優(yōu)勢與局限性5.1優(yōu)勢5.1.1高效的特征并行LightGBM通過特征并行技術(shù),允許在多核處理器上并行處理數(shù)據(jù),從而顯著加快訓練速度。不同

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論