Genişletilmiş evrişimli sinir ağları kullanarak gerçek zamanlı yüz tanıma
Abstract
Bu çalışmanın konusu, gerçek zamanlı görüntülerde derin öğrenme temelli yüz tanıma
sistemleri üzerinedir. Araştırma, yüz tanıma sistemleri içerisinde öznitelik elde etmek
için kullanılan evrişimli sinir ağları kapsamında gerçekleştirilmiştir. Gerçek zamanlı
görüntüler, “yüz bulma”, “öznitelik çıkarma”, “vektörel dönüşüm”, “sınıflandırma ve
başarım ölçme” olmak üzere dört aşamada incelenmiştir. Yüz tanıma sistemlerinde,
ışık yönü, yansıma, yüz ifadesindeki duygusal ve fiziksel değişimler tanımayı
zorlaştıran başlıca unsurlar olarak bilinmektedir. Akan görüntü çerçevelerinde
karşılaştırılan her görüntüde meydana gelebilen bu unsurlar hatalı tanımlamalara yol
açmaktadır. Araştırmada, arka plan veya sahne değişimleri tespit yöntemi önerilerek,
evrişimli sinir ağlarından elde edilen özniteliklerin karşılaştırması birlikte
kullanılmıştır. Bu model, sahnenin değişmediği blokları tespit eder ve sınıflandırıcı
aşamasında kullanılan karşılaştırma eşik değerini yeni bir değerle daha kesin olarak
belirlemeye çalışır. Değişmeyen sahne blokları arasında hassasiyet oranının
arttırılması, veri tabanındaki örnekler arasında daha az karşılaştırma yapılmasına
olanak tanır. Deneysel çalışmada önerilen model, orijinal derin metrik öğrenme
modeline kıyasla %99,25 doğruluk ve %99,28 F-1 değerlerine ulaşmıştır. Deneysel
sonuçlar, değişmeyen sahnelerde aynı kişinin yüz görüntülerinde farklılıklar olsa bile,
karşılaştırılan örneklem alanı daraltıldığı için yanlış tanımanın çok daha aza
indirilebileceğini göstermektedir. This study's subject is face recognition systems based on deep learning in real-time
images. The research was carried out within the scope of convolutional neural
networks used to obtain features in face recognition systems. Real-time images were
analyzed in four stages: "face detection," "feature extraction," "vector transformation,"
and "classification and performance measurement." In face recognition systems, light
direction, reflection, and emotional and physical changes in facial expression are
known as the main factors that make recognition difficult. These elements, which can
occur in every image compared to flowing image frames, lead to erroneous definitions.
The background or scene changes detection method was proposed in the research, and
the comparison of the features obtained from the convolutional neural networks was
used together. This model detects blocks where the scene has not changed and tries to
more precisely determine the comparison threshold value used in the classifier stage
with a new value. Increasing the precision ratio between unchanging scene blocks
allows for fewer comparisons between instances in the database. The model proposed
in the experimental study reached 99,25% accuracy and 99,28% F-1 values compared
to the original deep metric learning model. Experimental results show that even if
there are differences in facial images of the same person in unchanging scenes, false
recognition can be minimized as the compared sample area is narrowed.