Links
🎨

Softmax Regression

Lojistik regresyona benzeterek anlayabiliriz: 😋
Lojistik regresyonun 0 ile 1,0 arasında bir ondalıklı sayı ürettiğini hatırla, Örneğin, bir e-posta sınıflandırıcısından 0,8'lik bir lojistik regresyon çıktısı, bir e-postanın% 80'i spam olma olasılığını ve% 20'sinin spam olmadığını gösterir. Yani, bir e-postanın spam olma ve spam olmama ihtimalinin toplamı 1.0'dir.
Softmax bu fikri ÇOKLU-SINIF dünyasına genişletiyor. Yani, Softmax, her sınıfa çok sınıflı bir problemde ondalık olasılıklar verir. Bu olasılıkların toplamı 1.0'e eşittir.
  • Onun diğer ismi Maximum Entropy (MaxEnt) Classifier
Softmax regresyonunun lojistik regresyonun genelleştirdiğini söyleyebiliriz.
Lojistik regresyon, C = 2 olan softmax'ın özel bir durumudur 🤔

📚 Notasyon

C = sınıf sayısı = çıkış katmanının birim sayısı
Yani,
y^j\hat{y}_j
(C, 1) boyutunda bir vektördür.

🎨 Softmax Katmanı

Softmax, çıktı katmanından hemen önce bir sinir ağı katmanı vasıtasıyla uygulanır. Softmax katmanı, çıkış katmanı ile aynı sayıda düğüme sahip olmalıdır.

💥 Softmax Aktivasyon Fonksiyonu

Softmax(xi)exp(xi)jexp(xj)Softmax(x_i)\frac{exp(x_i)}{\sum_{j}exp(x_j)}

🔨 Hard Max Fonksiyonu

Softmax katmanının çıktısını alır ve 1 vs 0 vector (adlandırdığıma göre 🤭) vektörüne dönüştürür, o da bizim 'iz olacak
Örenğin:
t = 0.13 ==> ̂y = 0
0.75 1
0.01 0
0.11 0
Ve bunun gibi 🐾

🔎 Kayıp Fonksiyonu

L(y^,y)=j=1cyjlog(y^j)L(\hat{y},y)=-\sum_{j=1}^{c}y_jlog(\hat{y}_j)
Y ve ŷ (C,m) boyutunda matrislerdir 👩‍🔧

🌞 Yazının Aslı

🧐 Daha Fazla Oku