Iris Verisi ile Sınıflandırma Alıştırması (Python Scikit-Learn)

Meşhur iris verisinden daha önce bir yazımızda bahsetmiştik. Bu yazımızda iris veri seti ile Python scikit-learn kütüphanesini kullanarak basit bir sınıflandırma çalışması yapacağız. Bu alıştırmada iris çiçeğinin alt ve üst yaprak genişlik ve uzunluklarını kullanarak çiçeğin üç türünden hangisine ait olduğunu bulmaya (sınıflandırmaya) çalışacağız.

Gerekli Kütüphaneleri ve Veriyi İndirme

from sklearn.datasets import load_iris
from sklearn.neighbors import KNeighborsClassifier
iris = load_iris()

Veri seti aslında ön işlemeye tabi tutulmuş. Dikkat ederseniz veri zaten kütüphanenin bir fonksiyonu olarak indiriliyor. Birazdan keşfedici veri analizi safhasında göreceğimiz gibi hedef değişken kategorikten nümeriğe çevrilmiş, bağımlı ve bağımsız değişkenler ayrılmış durumda.

Keşfedici Veri Analizi

Veriyi daha iyi anlamak adına verimize bir göz atalım bakalım ne var ne yok, adı ne, özellikleri ne, vs? Önce niteliklerimizin (bağımsız değişkenler) isimlerini öğrenelim:

iris.feature_names
['sepal length (cm)',
 'sepal width (cm)',
 'petal length (cm)',
 'petal width (cm)']

Gördüğümüz gibi dört niteliğimizin isimleri listelendi.
Bağımlı değişkenimizi öğrenelim:

iris.target_names
array(['setosa', 'versicolor', 'virginica'], dtype='<U10')

Üç farklı sınıfımız (iris çiçek türü) listelendi. Şimdi hedef değişkenimizi görelim.

iris.target
array([0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
       0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
       0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,
       1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,
       1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2,
       2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2,
       2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2])

Pekala hani setosa, versicolor ve virginica olmak üzere üç tür vardı nereden çıktı bu rakamlar? Başta da söylediğimiz gibi veri setinin ön işlemesi yapılmış ve yukarıdaki üç türü temsilen bir rakam atanmış. Setosa 0, versicolor 1 ve virginica 2 gibi.

Niteliklerimize bir bakalım:

iris.data
array([[ 5.1,  3.5,  1.4,  0.2],
       [ 4.9,  3. ,  1.4,  0.2],
       [ 4.7,  3.2,  1.3,  0.2],
       [ 4.6,  3.1,  1.5,  0.2],
       [ 5. ,  3.6,  1.4,  0.2],
       [ 5.4,  3.9,  1.7,  0.4],
       [ 4.6,  3.4,  1.4,  0.3],
       [ 5. ,  3.4,  1.5,  0.2],
       [ 4.4,  2.9,  1.4,  0.2],
       [ 4.9,  3.1,  1.5,  0.1],
       [ 5.4,  3.7,  1.5,  0.2],
       [ 4.8,  3.4,  1.6,  0.2],
       [ 4.8,  3. ,  1.4,  0.1],
       [ 4.3,  3. ,  1.1,  0.1],
       [ 5.8,  4. ,  1.2,  0.2],
        .......
       [ 6.7,  3.3,  5.7,  2.5],
       [ 6.7,  3. ,  5.2,  2.3],
       [ 6.3,  2.5,  5. ,  1.9],
       [ 6.5,  3. ,  5.2,  2. ],
       [ 6.2,  3.4,  5.4,  2.3],
       [ 5.9,  3. ,  5.1,  1.8]])

Her bir nitelik bir değerden oluşmuş.

Bağımlı ve Bağımsız Değişkenleri Oluşturma

Bağımsız nitelikleri X, bağımlı niteliği y değişkenine atayalım:

X = iris.data
y = iris.target

Eğitim ve Test Setlerini Ayırma

from sklearn.cross_validation import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.25, random_state = 0)

Verinin % 75’i eğitim için, % 25’i ise test için ayrıldı.

Model Kurma

Model için k en yakın komşu algoritmasını ve bununla ilgili scikit-learn sınıfını kullanalım.

enyakin_komsu = KNeighborsClassifier()

Sınıfımızın bir çok parametresi var. Bunlara kısaca değinelim:
n_neighbors : kaç tane komşu kullanacağımıza dair k değeridir. Varsayılan 5
metric : Komşuya uzaklık hesaplanırken kullanılacak mesafe metriği. Varsayılan minkowski
p : metric için minkowski kullanıldığında kullanılan power parametre. Varsayılan 2
yukarıdaki örnekte hiçbir parametre girmediğimiz için varsayılanlar geçerli oldu. Görelim:

enyakin_komsu = KNeighborsClassifier(algorithm='auto', leaf_size=30, metric='minkowski',
metric_params=None, n_jobs=1, n_neighbors=1, p=2, weights='uniform')

Modeli Eğitme

enyakin_komsu.fit(X_train,y_train)

Test Seti ile Hedef sınıfları tahmin etme

y_pred = enyakin_komsu.predict(X_test)

Tahmin Sonuçlarını Test Sonuçları ile Karşılaştırma

Hata matrisi (confusion matrix) kullanarak modelin başarısını ölçelim:

from sklearn.metrics import confusion_matrix
hata_matrisi = confusion_matrix(y_test, y_pred)
print(hata_matrisi)
array([[13,  0,  0],
       [ 0, 15,  1],
       [ 0,  0,  9]])

Hata Matrisini Yorumlama

Şimdi yukarıdaki rakamlar da neyin nesi? Hatırlarsanız veri setimiz 150 kayıtlı idi. Biz bunun %75’ini (112) eğitim, %25’i (38) test eğitim seti olarak ayırmıştık. Modelimizi 112 kayıt ile eğittik. Ayırdığımız 38 kayıta ait nitelikleri (X_test) eğittiğimiz bu modeli kullanarak tahminde bulunduk (y_pred). Sonra elimizde zaten 38 test kaydına ait gerçek sonuçlar (y_test) vardı. Bunları tahmin sonuçları ile karşılaştırdık ve yukarıdaki matrisi elde ettik. Matristeki rakamları toplar isek 38 olduğunu göreceğiz. Aşağıdaki şekil ile biraz daha işi anlaşılır kılalım:

38 tane test kaydında Setosa sınıfına ait 13 tane kayıt varmış ve hepsi doğru tahmin edilmiş. 16 tane versicolor varmış bunlardan 15 tanesi doğru 1 tanesi yanlış (virginica) tahmin edilmiş. 9 tane virginica varmış ve hepsi de başarıyla virginica olarak tahmin edilmiş.

Yazar Hakkında
Toplam 174 yazı
Erkan ŞİRİN
Erkan ŞİRİN
10 yılı aşkın süredir yurtiçi ve yurtdışında sektörde büyük veri mühendisliği, platform yönetimi ve makine öğrenmesi ile ilgili çalışmalar yürütmekte ve aynı zamanda birçok kurum ve şirkete danışmanlık ve eğitimler vermektedir. Çalışma alanları: Data ve MLOps platformları, gerçek zamanlı veri işleme, değişen veriyi yakalama (CDC) ve Lakehouse.
Yorumlar (1 Yorum)
Helin
Helin Yanıtla
- 20:32

Hocam merhaba bişey sormak istiyorum ;

iris veri setini , karar ağaçları, diskriminant analizi, küme analizi, yapay sinir ağları ile incelersek hangi yöntem sınıflandırma için daha uygun ve başarılıdır ? Bu konuda fikirlerinizi öğrenmek istiyorum ?

    Erkan ŞİRİN
    Erkan ŞİRİN Yanıtla
    - 05:08

    Merhaba. Şu algoritma daha iyidir ve başarılıdır şeklinde bir genelleme yapmak doğru olmaz. Deneyip öyle karar vermenizi tavsiye ederim.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

×

Bir Şeyler Ara