💫
Derin Öğrenme
  • 💫Derin Öğrenme Notları
  • 🚀English Version
  • 🦋Projeye Katkıda Bulunma
  • 💼Kullanışlı Araçlar
  • 💎Yapay Sinir Ağları Kavramları
    • 🌱Giriş
    • 🔎Esas Problem
    • 👷‍♀️ Yapay Sinir Ağlarının Uygulanması Üzerine Notlar
    • 📚Yapay Sinir Ağlarının Kavramları
    • 💥Yapay Sinir Ağlarında Aktivasyon Fonksiyonları
    • 🎈NN Uygulama İp Uçları
    • 👩‍🔧 NN Düzenlileştirme (Regularization)
    • ✨Optimizasyon Algoritmaları
    • 🎨Softmax Regression
    • 🏃‍♀️ Tensorflow'a Hızlı Giriş
    • 👩‍💻 Yapay Sinir Ağlarıyla ilgili Pyhton Kod Parçaları
  • 🙋‍♀️ Yapay Sinir Ağları ile Derin Öğrenme'nin Hello World'u
    • 🌱Giriş
    • 🌐Tarayıcıda CNNler
  • 🚪Bilgisayar Görüşüne Giriş
    • 🌱Giriş
  • 🚩Evrişimli Sinir Ağları Kavramları
    • 🌱Giriş
    • 📌Evrişimli Sinir Ağları ile İlgili Genel Kavramlar
    • 🌟Evrişimli Sinir Ağları Gelişmiş Kavramları
    • 👀Evrişimli Sinir Ağlarının Görselleştirilmesi
    • 👵Klasik Evrişimli Sinir Ağları
    • ✨CNN'leri Kurmak İçin Diğer Yaklaşımlar
    • 🕸️CNN'lerin Popüler Uygulamaları
  • 👩‍💻 CNN'ler Üzerinde Kodlar ve Notlar
    • 🌱Giriş
  • 💄Derin Öğrenmenin Popüler Stratejileri
    • 🌱Giriş
    • 🚙Öğrenme Aktarması (Transfer Learning)
    • 📚Derin Öğrenmede Diğer Stratejiler
  • 🤡Resim Artırma (Image Augmentation)
    • 🌱Giriş
  • 🤸‍♀️ Uygulamalı Makine Öğrenmesi Üzerine Notlar
    • 🌱Giriş
    • 👩‍🔧 Makine Öğrenimi Projelerinin Yapılandırılması Üzerine Notlar
    • 👩‍🏫 Uygulama Talimatları
  • 🕵️‍♀️ Obje Algılama Temelleri
    • 🌱Giriş
    • ⭕Bölge Tabanlı (Region-Based) CNN'ler
    • 🤳SSD ve YOLO
    • 🤖TensorFlow Object Detection API
  • ➰Derin Öğrenmede Dizi Modelleri
    • 🌱Giriş
    • 📚Dizi Modellerinin Genel Kavramları
    • 🔄Tekrarlayan Sinir Ağları (RNN)
    • 🌌RNN'deki Vanishing Gradients
    • 🌚Kelime Gösterimi
    • 💬NLP Hakkında Karışık Bilgiler
  • 📕Proje Sözlüğü
  • 📚Faydalı PDF'ler
  • 👀Hızlı Görsel Bilgiler
Powered by GitBook
On this page
  • 🍭 Temel Sinir Ağı
  • 📚 Terimler
  • 🧠 Yapay bir nöron ne yapar?
  • 👩‍🔧 Parametre Boyut Kontrolü
  • 🎈 İleri Yayılım Sürecinin Özeti
  • 👩‍🔧 Vektörize Edilmiş Denklemler:
  • 🎈 Geri Yayılım Sürecinin Özeti
  • ➰➰ İleri ve Geri Yayılımı Bir Arada
  • ✨ Parametreler ve Hiper-parametreler
  • 👩‍🏫 Parametreler
  • 👩‍🔧 Hiper-parametreler
  • 🌞 Yazının Aslı

Was this helpful?

Export as PDF
  1. Yapay Sinir Ağları Kavramları

Yapay Sinir Ağlarının Kavramları

Previous👷‍♀️ Yapay Sinir Ağlarının Uygulanması Üzerine NotlarNextYapay Sinir Ağlarında Aktivasyon Fonksiyonları

Last updated 3 years ago

Was this helpful?

Yapay Sinir Ağlarının temel kavramları

🍭 Temel Sinir Ağı

Convention: Giriş katmanı sayılmadığından görüntüdeki NN 2 kat NN olarak adlandırılır 📢❗

📚 Terimler

Terim

Açıklama

🌚 Giriş Katmanı

NN'nin girişlerini içeren katmandır

🌜 Gizli Katman

Hesaplamalı işlemlerin yapıldığı katman

🌝 Çıkış Katmanı

NN'nin son katmanı ve tahmin edilen değer ŷ'nin üretilmesinden sorumludur

🧠 Nöron

Bir matematik fonksiyonu için bir yer tutucu, girdilere bir fonksiyon uygular ve çıktı sağlar

💥 Aktivasyon Fonksiyonu

Dönüşümler uygulayarak bir düğümün giriş sinyalini bir çıkış sinyaline dönüştüren bir fonksiyon

👶 Shallow NN

Az sayıda gizli katmana sahip NN (bir veya iki)

💪 Deep NN

Çok sayıda gizli katmanı olan NN

l katmanındaki nöron sayısı

🧠 Yapay bir nöron ne yapar?

Girişinin ağırlıklı toplamını hesaplar, bias ekler ve ardından bir aktivasyon fonksiyonu nedeniyle nöronun tetiklenip tetiklenmeyeceğine karar verir.

👩‍🔧 Parametre Boyut Kontrolü

Parametre

Boyut

Bu boyutların doğru olduğundan emin olmak, daha iyi ve hatasız 🐛 kodlar yazmamıza yardımcı olur.

🎈 İleri Yayılım Sürecinin Özeti

Giriş:

Çıkış:

👩‍🔧 Vektörize Edilmiş Denklemler:

Z[l]=W[l]A[l−1]+b[l]Z^{[l]} =W^{[l]}A^{[l-1]}+b^{[l]}Z[l]=W[l]A[l−1]+b[l] A[l]=g[l](Z[l])A^{[l]} = g^{[l]}(Z^{[l]})A[l]=g[l](Z[l])

🎈 Geri Yayılım Sürecinin Özeti

Giriş:

Çıkış :

Vektörize Edilmiş Denklemler:

dZ[l]=dA[l]∗g[l]′(Z[l])dZ^{[l]}=dA^{[l]} * {g^{[l]}}'(Z^{[l]})dZ[l]=dA[l]∗g[l]′(Z[l])

dW[l]=1mdZ[l]A[l−1]TdW^{[l]}=\frac{1}{m}dZ^{[l]}A^{[l-1]T}dW[l]=m1​dZ[l]A[l−1]T

db[l]=1mnp.sum(dZ[l],axis=1,keepdims=True)db^{[l]}=\frac{1}{m}np.sum(dZ^{[l]}, axis=1, keepdims=True)db[l]=m1​np.sum(dZ[l],axis=1,keepdims=True)

dA[l−1]=W[l]TdZ[l]dA^{[l-1]}=W^{[l]T}dZ^{[l]}dA[l−1]=W[l]TdZ[l]

➰➰ İleri ve Geri Yayılımı Bir Arada

😵🤕

✨ Parametreler ve Hiper-parametreler

👩‍🏫 Parametreler

  • W[1],W[2],W[3]W^{[1]}, W^{[2]}, W^{[3]}W[1],W[2],W[3]

  • b[1],b[2]b^{[1]}, b^{[2]}b[1],b[2]

  • ......

👩‍🔧 Hiper-parametreler

  • Öğrenme hızı

  • İterasyon sayısı

  • Gizli katmanların sayısı

  • Gizli birimlerin sayısı

  • Aktivasyon Fonksiyonunun Seçimi

  • ......

Hiper-parametrelerin parametreleri kontrol ettiğini söyleyebiliriz 🤔

🌞 Yazının Aslı

Aktivasyon fonksiyonları ile ilgili ayrıntılı notlarım: 👩‍🏫

💎
📚
n[l]n^{[l]}n[l]
w[l]w^{[l]}w[l]
(n[l],n[l−1])(n^{[l]},n^{[l-1]})(n[l],n[l−1])
b[l]b^{[l]}b[l]
(n[l],1)(n^{[l]},1)(n[l],1)
dw[l]dw^{[l]}dw[l]
(n[l],n[l−1])(n^{[l]},n^{[l-1]})(n[l],n[l−1])
db[l]db^{[l]}db[l]
(n[l],1)(n^{[l]},1)(n[l],1)
a[l−1]a^{[l-1]}a[l−1]
a[l],chache(z[l])a^{[l]}, chache (z^{[l]})a[l],chache(z[l])
da[l]da^{[l]}da[l]
da[l−1],dW[l],db[l]da^{[l-1]}, dW^{[l]}, db^{[l]}da[l−1],dW[l],db[l]
burada
Burada 🐾