👩‍💻 Yapay Sinir Ağlarıyla ilgili Pyhton Kod Parçaları

📚 ML'de Genel Kod Parçaları

💥 Sigmoid Fonksiyonu

🚀 Sigmoid Gradient

backpropagation kullanarak loss fonksiyonlarını optimize etmek için gradient'leri hesaplayan fonksiyon

👩‍🔧 Dizileri (Veya resimleri) Yeniden Şekillendirme

    def arr2vec(arr, target):
     """
    Argümanlar:
    image -- (length, height, depth) boyutunda bir Numpy dizisi

    Dönüş değeri:
    v -- (length*height*depth, 1) boyutunda bir vektör
    """

    v = image.reshape(image.shape[0] * image.shape[1] * image.shape[2], 1)

    return v

💥 Satırları Normalize Etme

X'in her satır vektörünü normuna göre bölme.

🎨 Softmax Fonksiyonu

Algoritmanın iki veya daha fazla sınıfı sınıflandırması gerektiğinde kullanılan normalleştirme fonksiyonu

🤸‍♀️ L1 Loss Fonksiyonu

Kayıp, modelin performansını değerlendirmek için kullanılır. Kayıp ne kadar büyükse, tahminlerin (ŷ) gerçek değerlerden (y) o kadar farklı olmasıdır. Derin öğrenmede, modeli eğitmek ve maliyeti en aza indirmek için Gradient Descent gibi optimizasyon algoritmaları kullanıyoruz.

🤸‍♂️ L2 Loss Fonksiyonu

Kayıp, modelin performansını değerlendirmek için kullanılır. Kayıp ne kadar büyükse, tahminlerin (ŷ) gerçek değerlerden (y) o kadar farklı olmasıdır. Derin öğrenmede, modeli eğitmek ve maliyeti en aza indirmek için Gradient Descent gibi optimizasyon algoritmaları kullanıyoruz.

🏃‍♀️ Yayılma Fonksiyonnu Propagation Function

Parametreleri öğrenmek için "ileri" ve "geri" yayılma adımlarını yapmak.

💫 Gradyan İnişi Gradient Descent (Optimizasyon)

Amaç, maliyet fonksiyonunu J'yi en aza indirerek ω ve b'yi öğrenmektir.

🕸 Basit Bir NN Temel Kod Parçları

2 katmanlı ağın fonksiyonları

Giriş katmanı, 1 gizli katman ve çıkış katmanı

🚀 Parametreleri Başlatma Initialization

W'leri ve b'leri başlatma konusunda, W'ler Simetriği kırma adına rastgele değerlerle başlatmalıyız, b'yi ise sıfır olarak başlatabiliriz.

⏩ İleri Yayılma

Her katman giriş verilerini alır, aktivasyon fonksiyonuna göre işler ve sonraki katmana geçirir

🚩 Maliyet Fonksiyonu Cost

Çıkış katmanı nedeniyle ayarlanan tüm eğitimin loss fonksiyonlarının ortalaması

⏪ Geri Yayılma

Ağırlıkların uygun şekilde ayarlanması daha düşük hata oranlarını garanti eder ve modellemeyi genellemesini artırarak güvenilir kılar.

🔃 Parametreleri Güncelleme

Gradient descent'i tamamlamak için öğrenme hızına bağlı olarak parametrelerin güncellenmesi

🌞 Yazının Aslı

Last updated