小編給大家分享一下Python sklearn中算法的使用方法,希望大家閱讀完這篇文章后大所收獲,下面讓我們一起去探討吧!
1、高斯樸素貝葉斯 (GaussianNB)
介紹如何使用sklearn來實現GaussianNB
from sklearn import datasets iris = datasets.load_iris() from sklearn.naive_bayes import GaussianNB gnb = GaussianNB() y_pred = gnb.fit(iris.data, iris.target).predict(iris.data) print("Number of mislabeled points out of a total %d points : %d" % (iris.data.shape[0],(iris.target != y_pred).sum()))
2、多項式樸素貝葉斯 (MultinomialNB/MNB)
隨機生成一組數據,然后使用MultinomialNB算法來學習。
import numpy as np X = np.random.randint(50, size=(1000, 100)) y = np.random.randint(6, size=(1000)) from sklearn.naive_bayes import MultinomialNB clf = MultinomialNB() clf.fit(X, y) print(clf.predict(X[2:3]))
3. 伯努利樸素貝葉斯 (BernoulliNB)
BernoulliNB實現了基于多元伯努利分布的數據的樸素貝葉斯訓練和分類算法
案例:
import numpy as np X = np.random.randint(50, size=(1000, 100)) y = np.random.randint(6, size=(1000)) from sklearn.naive_bayes import BernoulliNB clf = BernoulliNB() clf.fit(X, Y) print(clf.predict(X[2:3]))
4. 決策樹
決策樹作為十大經典算法之一,能夠很好的處理多分類問題。
決策樹的sklearn接口:
class sklearn.tree.DecisionTreeClassifier(criterion=’gini’, splitter=’best’, max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=None, random_state=None, max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, class_weight=None, presort=False)
看完了這篇文章,相信你對Python sklearn中算法的使用方法有了一定的了解,想了解更多相關知識,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。