💫
Derin Öğrenme
  • 💫Derin Öğrenme Notları
  • 🚀English Version
  • 🦋Projeye Katkıda Bulunma
  • 💼Kullanışlı Araçlar
  • 💎Yapay Sinir Ağları Kavramları
    • 🌱Giriş
    • 🔎Esas Problem
    • 👷‍♀️ Yapay Sinir Ağlarının Uygulanması Üzerine Notlar
    • 📚Yapay Sinir Ağlarının Kavramları
    • 💥Yapay Sinir Ağlarında Aktivasyon Fonksiyonları
    • 🎈NN Uygulama İp Uçları
    • 👩‍🔧 NN Düzenlileştirme (Regularization)
    • ✨Optimizasyon Algoritmaları
    • 🎨Softmax Regression
    • 🏃‍♀️ Tensorflow'a Hızlı Giriş
    • 👩‍💻 Yapay Sinir Ağlarıyla ilgili Pyhton Kod Parçaları
  • 🙋‍♀️ Yapay Sinir Ağları ile Derin Öğrenme'nin Hello World'u
    • 🌱Giriş
    • 🌐Tarayıcıda CNNler
  • 🚪Bilgisayar Görüşüne Giriş
    • 🌱Giriş
  • 🚩Evrişimli Sinir Ağları Kavramları
    • 🌱Giriş
    • 📌Evrişimli Sinir Ağları ile İlgili Genel Kavramlar
    • 🌟Evrişimli Sinir Ağları Gelişmiş Kavramları
    • 👀Evrişimli Sinir Ağlarının Görselleştirilmesi
    • 👵Klasik Evrişimli Sinir Ağları
    • ✨CNN'leri Kurmak İçin Diğer Yaklaşımlar
    • 🕸️CNN'lerin Popüler Uygulamaları
  • 👩‍💻 CNN'ler Üzerinde Kodlar ve Notlar
    • 🌱Giriş
  • 💄Derin Öğrenmenin Popüler Stratejileri
    • 🌱Giriş
    • 🚙Öğrenme Aktarması (Transfer Learning)
    • 📚Derin Öğrenmede Diğer Stratejiler
  • 🤡Resim Artırma (Image Augmentation)
    • 🌱Giriş
  • 🤸‍♀️ Uygulamalı Makine Öğrenmesi Üzerine Notlar
    • 🌱Giriş
    • 👩‍🔧 Makine Öğrenimi Projelerinin Yapılandırılması Üzerine Notlar
    • 👩‍🏫 Uygulama Talimatları
  • 🕵️‍♀️ Obje Algılama Temelleri
    • 🌱Giriş
    • ⭕Bölge Tabanlı (Region-Based) CNN'ler
    • 🤳SSD ve YOLO
    • 🤖TensorFlow Object Detection API
  • ➰Derin Öğrenmede Dizi Modelleri
    • 🌱Giriş
    • 📚Dizi Modellerinin Genel Kavramları
    • 🔄Tekrarlayan Sinir Ağları (RNN)
    • 🌌RNN'deki Vanishing Gradients
    • 🌚Kelime Gösterimi
    • 💬NLP Hakkında Karışık Bilgiler
  • 📕Proje Sözlüğü
  • 📚Faydalı PDF'ler
  • 👀Hızlı Görsel Bilgiler
Powered by GitBook
On this page
  • 📚 Notasyon
  • 🎨 Softmax Katmanı
  • 💥 Softmax Aktivasyon Fonksiyonu
  • 🔨 Hard Max Fonksiyonu
  • 🔎 Kayıp Fonksiyonu
  • 🌞 Yazının Aslı
  • 🧐 Daha Fazla Oku

Was this helpful?

Export as PDF
  1. Yapay Sinir Ağları Kavramları

Softmax Regression

PreviousOptimizasyon AlgoritmalarıNext🏃‍♀️ Tensorflow'a Hızlı Giriş

Last updated 4 years ago

Was this helpful?

Lojistik regresyona benzeterek anlayabiliriz: 😋

Lojistik regresyonun 0 ile 1,0 arasında bir ondalıklı sayı ürettiğini hatırla, Örneğin, bir e-posta sınıflandırıcısından 0,8'lik bir lojistik regresyon çıktısı, bir e-postanın% 80'i spam olma olasılığını ve% 20'sinin spam olmadığını gösterir. Yani, bir e-postanın spam olma ve spam olmama ihtimalinin toplamı 1.0'dir.

Softmax bu fikri ÇOKLU-SINIF dünyasına genişletiyor. Yani, Softmax, her sınıfa çok sınıflı bir problemde ondalık olasılıklar verir. Bu olasılıkların toplamı 1.0'e eşittir.

  • Onun diğer ismi Maximum Entropy (MaxEnt) Classifier

Softmax regresyonunun lojistik regresyonun genelleştirdiğini söyleyebiliriz.

Lojistik regresyon, C = 2 olan softmax'ın özel bir durumudur 🤔

📚 Notasyon

C = sınıf sayısı = çıkış katmanının birim sayısı

Yani, y^j\hat{y}_jy^​j​ (C, 1) boyutunda bir vektördür.

🎨 Softmax Katmanı

Softmax, çıktı katmanından hemen önce bir sinir ağı katmanı vasıtasıyla uygulanır. Softmax katmanı, çıkış katmanı ile aynı sayıda düğüme sahip olmalıdır.

💥 Softmax Aktivasyon Fonksiyonu

Softmax(xi)exp(xi)∑jexp(xj)Softmax(x_i)\frac{exp(x_i)}{\sum_{j}exp(x_j)}Softmax(xi​)∑j​exp(xj​)exp(xi​)​

🔨 Hard Max Fonksiyonu

Softmax katmanının çıktısını alır ve 1 vs 0 vector (adlandırdığıma göre 🤭) vektörüne dönüştürür, o da bizim ŷ'iz olacak

Örenğin:

t = 0.13  ==> ̂y = 0
    0.75          1
    0.01          0
    0.11          0

Ve bunun gibi 🐾

🔎 Kayıp Fonksiyonu

L(y^,y)=−∑j=1cyjlog(y^j)L(\hat{y},y)=-\sum_{j=1}^{c}y_jlog(\hat{y}_j)L(y^​,y)=−∑j=1c​yj​log(y^​j​)

Y ve ŷ (C,m) boyutunda matrislerdir 👩‍🔧

🌞 Yazının Aslı

🧐 Daha Fazla Oku

💎
🎨
Burada 🐾
Long story short from Google documentation