从iris数据集入门scikit-learn

iris数据集是由三种鸢尾花,各50组数据构成的数据集。每个样本包含4个特征,分别为萼片(sepals)的长和宽、花瓣(petals)的长和宽。

In [1]:
#from IPython.diasplay import Image
#Image(filename="Image/iris_petal_sepal.jpg", width=400, height=432)

1. 载入iris数据

你还可以通过python的csv模块,或者NumPy的loadtxt函数,或者Pandas的read_csv()函数读取从UCI Iris dataset下载的csv文件。

In [2]:
from sklearn.datasets import load_iris
iris = load_iris()
type(iris)
Out[2]:
sklearn.datasets.base.Bunch
In [3]:
print iris.feature_names
print iris.target_names
['sepal length (cm)', 'sepal width (cm)', 'petal length (cm)', 'petal width (cm)']
['setosa' 'versicolor' 'virginica']

在scikit-learn中对数据有如下要求:

  • 特征和标签要用分开的对象存储
  • 特征和标签要是数字
  • 特征和标签都要使用numpy的array来存储
In [4]:
print type(iris.data)
print type(iris.target)
<type 'numpy.ndarray'>
<type 'numpy.ndarray'>
In [5]:
print iris.data.shape
print iris.target.shape
(150, 4)
(150,)
In [6]:
# store features matrix in "X"
X = iris.data

# store response vector in "y"
y = iris.target

回顾iris数据集

In [7]:
from IPython.display import HTML
HTML('<iframe src=http://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data width=300 height=200></iframe>')
Out[7]:

绘制iris的2d图

In [8]:
%matplotlib inline
import matplotlib.pyplot as plt
X_sepal = X[:, :2]
plt.scatter(X_sepal[:, 0], X_sepal[:, 1], c=y, cmap=plt.cm.gnuplot)
plt.xlabel('Sepal length')
plt.ylabel('Sepal width')
Out[8]:
<matplotlib.text.Text at 0x554f850>
In [9]:
X_petal = X[:, 2:4]
plt.scatter(X_petal[:, 0], X_petal[:, 1], c=y, cmap=plt.cm.gnuplot)
plt.xlabel('Petal length')
plt.ylabel('Petal width')
Out[9]:
<matplotlib.text.Text at 0x5705e90>

2. 使用K近邻进行分类

KNN分类的基本步骤:

  1. 选择K的值
  2. 在训练数据集中搜索K个距离最近的观测值
  3. 使用最多的那个标签作为未知数据的预测

下面给出KNN的演示图例, 分别是训练数据、K=1时的KNN分类图、K=5时的KNN分类图 Example training data KNN classification map(K=1) KNN classification map(K=5)

scikit-learn进行模型匹配的4个一般步骤

第一步:载入你要使用的模型类

In [10]:
from sklearn.neighbors import KNeighborsClassifier

第二步:实例化分类器

In [11]:
# looking for the one nearest neighbor
knn = KNeighborsClassifier(n_neighbors=1)
In [12]:
print knn
KNeighborsClassifier(algorithm='auto', leaf_size=30, metric='minkowski',
           metric_params=None, n_neighbors=1, p=2, weights='uniform')

第三步:用数据来拟合模型(进行模型的训练)

In [13]:
knn.fit(X, y)
Out[13]:
KNeighborsClassifier(algorithm='auto', leaf_size=30, metric='minkowski',
           metric_params=None, n_neighbors=1, p=2, weights='uniform')

第四步:对新的观测值进行预测

In [14]:
knn.predict([3, 5, 4, 2])
Out[14]:
array([2])
In [15]:
X_new = [[3, 5, 4, 2], [5, 4, 3, 2]]
knn.predict(X_new)
Out[15]:
array([2, 1])

使用不同的K值

In [16]:
knn5 = KNeighborsClassifier(n_neighbors=5)

knn5.fit(X, y)

knn5.predict(X_new)
Out[16]:
array([1, 1])

依照同样的流程,使用不同的分类模型

In [17]:
# import the class
from sklearn.linear_model import LogisticRegression

# instantiate the model (using the default parameters)
logreg = LogisticRegression()

# fit the model with data
logreg.fit(X, y)

# predict the response for new observations
logreg.predict(X_new)
Out[17]:
array([2, 0])