🌚
Kelime Gösterimi
Bu dosya yanlış bilgi içerebilir 🙄‼ Lütfen bir hata bulduğunuzda düzeltmem için Pull Request açın 🌟
- One Hot Encoding
- Featurized Representation (Word Embedding)
- Word2Vec
- Skip Gram Model
- GloVe (Global Vectors for Word Representation)
Kelimeleri temsil etmenin bir yolu, böylece onları kolayca kullanabilriz
Diyelim ki 10 kelimeden oluşan (🤭) bir sözlüğümüz var ve sözlüğkteki kelimeler:
- Car, Pen, Girl, Berry, Apple, Likes, The, And, Boy, Book.
Ve Bizim
: The Girl Likes Apple And Berry
Böylece bu diziyi aşağıdaki gibi temsil edebiliriz 👀
Car -0) ⌈ 0 ⌉ ⌈ 0 ⌉ ⌈ 0 ⌉ ⌈ 0 ⌉ ⌈ 0 ⌉ ⌈ 0 ⌉
Pen -1) | 0 | | 0 | | 0 | | 0 | | 0 | | 0 |
Girl -2) | 0 | | 1 | | 0 | | 0 | | 0 | | 0 |
Berry -3) | 0 | | 0 | | 0 | | 0 | | 0 | | 1 |
Apple -4) | 0 | | 0 | | 0 | | 1 | | 0 | | 0 |
Likes -5) | 0 | | 0 | | 1 | | 0 | | 0 | | 0 |
The -6) | 1 | | 0 | | 0 | | 0 | | 0 | | 0 |
And -7) | 0 | | 0 | | 0 | | 0 | | 1 | | 0 |
Boy -8) | 0 | | 0 | | 0 | | 0 | | 0 | | 0 |
Book -9) ⌊ 0 ⌋ ⌊ 0 ⌋ ⌊ 0 ⌋ ⌊ 0 ⌋ ⌊ 0 ⌋ ⌊ 0 ⌋
Dizileri bu şekilde temsil ederek verileri sinir ağlarına aktarabiliriz ✨
- Eğer sözlüğümüz 10.000 kelimeden oluşuyorsa, her vektör 10.000 boyutlu olacaktır 🤕
- Bu gösterim anlamsal özellikleri yakalayamaz 💔
- Kelimeleri cinsiyet, yaş, kraliyet, yemek, maliyet, büyüklük vb. gibi özelliklerle ilişkilendirerek temsil etmek
- Her özellik [-1, 1] arasında bir aralık olarak temsil edilir
- Böylece her kelime bu özelliklerin bir vektörü olarak gösterilebilir
- Her vektörün boyutu, seçtiğimiz özelliklerin sayısına bağlıdır
For a given word w, the embedding matrix E is a matrix that maps its 1-hot representation
to its embedding
as follows:
Çeviremedim 😢
- Benzer anlama sahip olan kelimelerin benzer bir gösterimi vardır.
- Bu model anlamsal (semantic) özellikleri yakalayabilir ✨
- Vektörler one-hot gösterimindeki vektörlerden daha küçüktür.
TODO: Subtracting vectors of oppsite words
- Word2vec, Verilen bir kelimenin diğer kelimelerle çevrili olma olasılığını tahmin ederek kelime embedding'lerini öğrenme stratejisidir.
- Bu, daha sonra aldığımız pencere boyutuna bağlı olan bağlam (context) ve hedef (target) kelime çiftleri yaparak yapılır.
- Pencere boyutu: Bağlam sözcüğünün soluna ve sağına bakan bir parametredir

pencere boyutu = 2 ile bağlam-hedef çiftleri oluşturma 🙌
Skip-gram word2vec modeli verilen herhangi bir t hedef kelimesinin c gibi bir bağlam kelimesi ile gerçekleşme olasılığını değerlendirerek kelime embedding'lerini öğrenen denetimli bir öğrenme görevidir. P(t|c) olasılığı da aşağıdaki şekilde hesaplanır:
Not: Softmax bölümünün paydasındaki tüm kelime sözlüğünü toplamak, bu modeli hesaplama açısından maliyetli kılar
Kelime gösterimi için Global vektörler tanımının kısaltılmış hali olan GloVe, eşzamanlı bir X matrisi kullanan ki burada her bir
, bir hedefin bir j bağlamında gerçekleştiği sayısını belirten bir kelime gömme tekniğidir. Maliyet fonksiyonu J aşağıdaki gibidir:
f,
⟹
= 0 olacak şekilde bir ağırlıklandırma fonksiyonudur.
Bu modelde e ve θ'nın oynadığı simetri göz önüne alındığında,
'nin kelime embedding'i şöyle ifade edilir:
- Eğer bu ilk denemen ise, yapılmış ve gerçekten en iyi şekilde çalışan önceden eğitilmiş bir modeli indirmeyi denemelisin.
- Yeterli veriye sahipsen, mevcut algoritmalardan birini uygulamaya çalışabilirsin.
- Kelime embedding'lerinin eğitilmesi çok maliyetli bir işlem olduğu için, çoğu ML'ciler önceden eğitilmiş embedding'ler kullanırlar.
Last modified 3yr ago