共計(jì) 821 個(gè)字符,預(yù)計(jì)需要花費(fèi) 3 分鐘才能閱讀完成。
在 Python 中,可以使用 sklearn
庫(kù)中的 KNeighborsClassifier
類來(lái)實(shí)現(xiàn) k - 最近鄰算法(K-Nearest Neighbors,KNN)。下面是一個(gè)簡(jiǎn)單的示例:
from sklearn.neighbors import KNeighborsClassifier
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
# 加載鳶尾花數(shù)據(jù)集
iris = load_iris()
# 劃分訓(xùn)練集和測(cè)試集
X_train, X_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.2, random_state=42)
# 創(chuàng)建 KNN 分類器,設(shè)置 k 值為 3
knn = KNeighborsClassifier(n_neighbors=3)
# 使用訓(xùn)練集訓(xùn)練 KNN 分類器
knn.fit(X_train, y_train)
# 使用訓(xùn)練好的 KNN 分類器進(jìn)行預(yù)測(cè)
y_pred = knn.predict(X_test)
# 計(jì)算準(zhǔn)確率
accuracy = accuracy_score(y_test, y_pred)
print(" 準(zhǔn)確率:", accuracy)
在上述示例中,首先加載了鳶尾花數(shù)據(jù)集,然后使用 train_test_split
函數(shù)將數(shù)據(jù)集劃分為訓(xùn)練集和測(cè)試集。接著,創(chuàng)建一個(gè) KNeighborsClassifier
對(duì)象并設(shè)置 k 值為 3,在訓(xùn)練集上訓(xùn)練 KNN 分類器。最后,使用訓(xùn)練好的分類器進(jìn)行預(yù)測(cè),并計(jì)算準(zhǔn)確率。
這只是一個(gè)簡(jiǎn)單的示例,實(shí)際應(yīng)用中可能還需要對(duì)數(shù)據(jù)進(jìn)行預(yù)處理、調(diào)參等操作。另外,也可以根據(jù)具體需求使用不同的距離度量方式、權(quán)重方式等來(lái)調(diào)整 KNN 算法的表現(xiàn)。
丸趣 TV 網(wǎng) – 提供最優(yōu)質(zhì)的資源集合!
正文完