💥Yapay Sinir Ağlarında Aktivasyon Fonksiyonları
Last updated
Last updated
Aktivasyon Fonksiyonlarının temel amacı, bir A-NN'deki bir düğümün giriş sinyalini bir dönüşüm uygulayarak bir çıkış sinyaline dönüştürmektir. Bu çıkış sinyali şimdi yığındaki bir sonraki katmana girdi olarak kullanılır.
Formül:
Grafik:
Regresyon problemlerindeki çıktı katmanında kullanılabilir.
Formül:
Grafik:
Neredeyse her zaman sigmoid fonksiyonundan üstündür
Formül:
Sigmoid fonksiyonunun kaydırılmış versiyonu 🤔
Grafik:
Aktivasyon fonksiyonları farklı katmanlar için farklı olabilir, örneğin, gizli katman için tanh fonksiyonunu, çıkış katmanı için sigmoid fonksiyonunu kullanabiliriz
Eğer z çok büyükse veya çok küçükse, bu fonksiyonun türevi (veya eğimi) çok küçük olur (0'a yakın olur) ve bu, gradient descent'i yavaşlatabilir. 🐢
Başka ve çok popüler bir seçenek
Formül:
Grafik:
Yani türev, z pozitif olduğunda 1 ve z negatif olduğunda 0'dır.
Dezavantaj: z negatif iken türev=0'dır 😐
Formül:
Grafik:
Veya: 😛
Z uzayının çoğu, aktivasyon fonksiyonunun türevi, 0'dan çok farklıdır.
NN tanh veya sigmoid kullanmaya göre çok daha hızlı öğrenecektir.
Peki, eğer lineer işlevi kullanırsak, NN sadece girişin lineer bir fonksiyonunu çıkarır, yani NN'nin kaç katmanı olursa olsun 🙄, yaptığı tek şey sadece lineer bir fonksiyonu hesaplamaktır 😕
❗ İki doğrusal fonksiyonun kompozisyonunun kendisinin doğrusal bir fonksiyon olduğunu unutma
Eğer çıkış 0 veya 1 ise (ikili sınıflandırma) ➡ sigmoid çıkış katmanı için uygundur
Diğer bütün birimler için ➡ Relu ✨
Aktivasyon fonksiyonu için Relu'nun varsayılan seçenek olduğunu söyleyebiliriz
Not:
Bu fonksiyonlardan hangisinin en iyi sonucu verdiğinden emin değil isen 😵, hepsini dene 🤕 ve farklı doğrulama setleri üzerinden değerlendir ve hangisinin daha iyi çalıştığını gör ve kullan 🤓😇
Fonksiyon
Açıklama
Lineer Aktivasyon Fonksiyonu
Verimsiz, regresyonda kullanılır
Sigmoid Fonksiyonu
İkili sınıflandırma problemlerinde çıktı katmanı için iyi
Tanh Fonksiyonu
Sigmoid fonksiyonundan daha iyidir
Relu Fonksiyonu ✨
Gizli katmanlar için varsayılan seçim
Leaky Relu Fonksiyonu
Relu'dan birazcık daha iyi, Relu daha popüler