Transfer learning based facial emotion recognition and action unit detection
Transfer öğrenme tabanlı yüz ifadesinden duygu tanıma ve eylem birimi tespiti
- Tez No: 682118
- Danışmanlar: PROF. DR. HATİCE KÖSE
- Tez Türü: Yüksek Lisans
- Konular: Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol, Computer Engineering and Computer Science and Control
- Anahtar Kelimeler: Belirtilmemiş.
- Yıl: 2021
- Dil: İngilizce
- Üniversite: İstanbul Teknik Üniversitesi
- Enstitü: Lisansüstü Eğitim Enstitüsü
- Ana Bilim Dalı: Bilgisayar Mühendisliği Ana Bilim Dalı
- Bilim Dalı: Bilgisayar Mühendisliği Bilim Dalı
- Sayfa Sayısı: 91
Özet
İnsan davranışının yorumlanması duygulara önemli ölçüde bağlıdır. Duyguları tanıma yeteneği, psikoloji, eğitim, insan-robot etkileşimi, sağlık, eğlence ve insan davranışıyla ilgili diğer alanlarda önemli bir yer tutmaktadır. Yüz ifadeleri, duygusal çıkarımların temel ipuçlarından biridir ve yüz ifadesinden duygu tanıma (FER), duygu tanıma alanında en çok kullanılan yöntemlerden biridir. Bu çalışmada çocuklarda yüz ifadesinden duygu tanımak için çeşitli derin öğrenme modelleri geliştirilmiştir. Çalışma, işitme engelli çocukların odyometri testleri sırasında hastanelerde kullanılmak amacıyla geliştirilen bilişsel olarak duyarlı bir insansı robotta kullanılacak duygu tanıma modellerinin geliştirilmesini kapsamaktadır. RoboRehab projesinin bir parçası olan bu çalışmanın temel amacı, sosyal ve yardımcı bir insansı robot ile etkileşim halinde olan çocukların duygularını tanıyacak bir sistem geliştirmektir. Diğer yandan, çalışmanın çocuklarda duygu tanıma konusunda literatüre katkı sağlaması beklenmektedir. Çocuklarda duygu tanıma yetişkinlere göre daha zordur, yüz hatları tam olarak gelişmediğinden duygularını ifade ederken yetişkinlere göre farklı yüz ifadeleri kullanabilirler. Bununla birlikte, özellikle işitme engelli çocuklar duygularını göstermekte zorluk yaşayabildiğinden bu probleme yönelik çözümler bu bireylerin etkileşime girebilmesine destek sağlayabilir. Literatürde duygu tanıma konusunda yapılan çalışmalarda, yüz verisi hem bir bütün olarak ele alınmakta, hem de yüz hareketlerini kodlayan eylem birimlerinin tanınması yolu ile duygu tespiti yapılmaktadır. Eylem Birimi Kodlama Sistemi, yüz kaslarının hareketlerini eylem birimlerine kategorize ederek duyguları yüz ifadelerinden ayırmak için geliştirilmiştir. Eylem birimleri, bir veya daha fazla yüz kasının kasılma ve gevşemelerinden oluşur. Yüz ifadesinin tek bir eylem birimi veya bir grup eylem birimi tarafından yorumlanmasını sağlayabilirler. Bu çalışmada hem duygu tanıma hem de eylem birimi tespit etme deneyleri yürütülmüştür. Yüzden duygu tanıma süreci, veri toplama, veri işleme, veri etiketleme, model eğitimi ve model testlerini içerir. Derin öğrenme tabanlı modellerin eğitimi için gereken veri miktarı nedeniyle veri işleme ve etiketleme zorlayıcı bir süreç haline gelmektedir. Bu nedenle büyük miktarda veriyi düzenlemek ve etiketlemek için sürecin otomatize hale getirilmesi önemlidir. Çalışmanın ilk kısmında, duygu tanıma modellerini eğitmek için toplanan büyük miktarda veriyi çeşitli görüntü işleme operasyonlarından geçirmek ve etiketlemek için bir yüz ifadesi işleme aracı olan LabelFace geliştirilmiştir. LabelFace, açık kaynaklı araçların tam olarak sağlamadığı servislerle topluluğa katkıda bulunmayı amaçlamaktadır: 1) Manuel veya otomatik veri etiketleme; 2) Manuel veya otomatik görüntü ve video işleme. LabelFace kullanıcıya etiketleme sürecinde yardımcı olmak için çocuklarda duyguları tanıyabilen ve eylem birimlerini tespit edebilen asistan modeller sunar. Araç, bu modellerle video veya resim verisini otomatik olarak etiketler ve kullanıcıların etiketlerdeki değişiklikleri uygulamaları için düzenleme seçenekleri sunar. Öte yandan, duygu tanıma modelleri herhangi başka bir araştırma amacı için kullanılabilir. Bir görüntü işleme aracı olarak LabelFace, kullanıcıların veri setlerine uygulayabilecekleri çeşitli görüntü işleme yöntemleri sunar. Amaç verisetleri arasındaki farklılıkları (ışık, gürültü, arka plan vb.) ortadan kaldırmaktır. Bu işleme işlemleri, yüz algılama, yüz hizalama, yüz işaret noktası algılama, veri çoğaltma, histogram eşitleme, yüz kırpma ve yüz maskelemeyi içerir. Kullanıcının tüm bu işleme fonksiyonlarını bir veri kümesine ayrı ayrı uygulayabilmesinin yanında, işlemleri doğrudan bir veri kümesine uygulamak ve eğitime hazır veri setleri oluşturmak mümkündür. Çalışmalarda çocuklardan toplanan verilerin yanı sıra, açık kaynak yetişkin veri seti CK+, ve açık kaynak çocuk verisetleri CAFE, DDCF, ve LIRIS veri setlerinden faydalanıldı. Bu çalışmanın katkılarından biri olarak, modellerin duyguları tanıma ve eylem birimlerini tespit etme yeteneğini geliştirmek için yetişkin veri kümeleri kullanılmıştır. CAFE veri seti etnik kökenleri nedeniyle çeşitli görünümlere sahip 2-8 yaş arası çocuk pozlarından, DDCF veri seti ise, 6-16 yaşları arasındaki 40 erkek ve 40 kız çocuk pozlarından oluşmaktadır. LIRIS veri seti, farklı etnik kökenlere sahip 6 ila 12 yaşları arasındaki 12 çocuğun spontane kısa videolarından oluşmaktadır. Kullanılan açık-kaynak veri setlerinden CK+, CAFE ve DDCF poz verilerek oluşturulmuş verilerden, DISFA ise poz verilmeden oluşturulmuş verilerden oluşmaktadır. Açık-kaynak veri setleri dışında, 5-9 yaş arası 16 kız ve 19 erkek işitme engelli çocuktan yüz verisi toplanmıştır. Veri toplama sırasında 18 çocuktan farklı duyguları tetiklemek için animasyon filmlerden farklı video içerikleri izlemeleri istendi. Çocukların geri kalanı, bir insansı robot ile etkileşim halindeyken bir tablet üzerinde test yapmalarının istendiği bir çalışmaya dahil edildi. Her iki senaryoda da çocukların yüz ifadeleri deney boyunca videoya kaydedildi. Modellerimizin test aşamasında kullanılmak üzere, çalışmanın video kayıtlarından yüksek duygusal yoğunluk seviyelerine sahip kareler çıkarıldı ve etiketlendi. Açık-kaynak veri setleri de dahil olmak üzere toplanan ve etiketlenen veriler son olarak LabelFace aracılığıyla veri ön işleme süreçlerinden geçirildi. Data toplama ve hazırlama sürecinin ardından (Transfer Learning) Transfer Öğrenme tabanlı model eğitimlerine başlanıldı. Derin öğrenme modelleri fazla miktarda veriye ihtiyaç duymaktadır, ve bu etken literatürde çocuklarda toplanan veri miktarının azlığı nedeniyle derin öğrenme modellerinin eğitimini zorlaştırmaktadır. Transfer öğrenme ile benzer bir görev için önceden eğitilmiş bir model ana model olarak kullanılabilir, ve az miktarda veriyle yeniden eğitilerek yeni bir göreve adapte olması sağlanabilir. Ayrıca bu modeller yeniden eğitilmeden sadece özellik çıkartıcı modeller olarak olarak kullanılabilir. Yüz verisi ile ilgili görevler konusunda ise literatürde yüksek miktarda yüz verisiyle önceden eğitilmiş, yüz verisinden genel özellik çıkarımında uzman olan bazı modeller sunulmuştur. Deneylerde bu modellerden faydalanılmış, bu modeller az miktarda çocuk verisiyle ince ayarlanarak ya da özellik çıkartıcı olarak kullanılarak çocuklarda duygu ve eylem birimi tanıma görevlerine adapte edilmişlerdir. Model eğitimlerinin yapıldığı deneyler gözetimli (Supervised) model ile transfer öğrenme ve gözetimsiz (Self-supervised) model ile transfer öğrenme altında iki gruba ayrılmıştır. Gözetimli model ile yapılan deneylerde önceden gözetimli öğrenme ile eğitilmiş ana model olarak VGG-Face modeli kullanılmıştır. Gözetimsiz model ile yapılan deneylerde ise gözetimsiz öğrenme ile eğitilmiş TCAE modeli kullanılmıştır. Kullanılan datasetlerindeki veri dağılımları genel olarak dengesiz olduğundan, değerlendirme yöntemi olarak (accuracy) doğruluk yerine, (precision), (recall), ve F1 puanı metrikleri dikkate alınmıştır. VGG-Face, eğitim verilerinden özellikler çıkaran bir kodlayıcı ağı olarak kullanıldı. Bu çalışmanın katkılarından biri olarak, transfer öğrenme için, VGG-Face'in (fully connected) tam bağlantılı katmanları, (convolutional) evrişimli katmanlarla değiştirildi ve eylem birimi tanıma için tam bağlantılı katmanlara sahip yeni bir üst model yerleştirildi. Çıkarılan özellikler, özel üst katmanlar tarafından eğitim için kullanıldı. TCAE modeli ile yapılan deneylerde ise model yapısı değiştirilmemiş, model doğrudan öznitelik çıkarıcı olarak kullanılmıştır. Deneyler Python programlama dili ve açık kaynak kodlu derin öğrenme kütüphaneleri olan Pytorch ve Tensorflow ile gerçekleştirildi. Gözetimli öğrenme deneylerinde, kayıp fonksiyonu olarak Cross Entropy fonksiyonu, iyileştirici olarak ise Stochastic Gradient Descent ve Adam fonksiyonları kullanıldı. Bunların dışındaki eğitim parametreleri genel kullanıma benzer şekilde (RELU aktivasyonu, 16 (batch size) parti büyüklüğü, 1x1 (stride) adım, ortalama kare hatası (MSE), öğrenme oranı (0.0001), momentum (0.9)) uygulandı. Karşılaştırma için, literatürde en çok kullanılan açık kaynak yüz ifadesi işleme aracı olan OpenFace 2.0'ın eylem birimi tespit performansı incelendi. Her iki aracın eylem birimi algılama performansları, çocukların pozlanmış ya da pozlanmamış veri kümeleri ele alınarak karşılaştırıldı. Karşılaştırma için LabelFace ve OpenFace araçlarının ortak olarak etiketleyebildiği 9 eylem birimi (AU0, AU1, AU4, AU5, AU9, AU10, AU12, AU15, AU17) kullanıldı. İlk deneyler, çocukların ve yetişkinlerin olumlu, olumsuz ve nötr duygularını etiketlemeyi amaçladı. VGG-Face'in üstüne yerleştirilen tamamen bağlı katman parametreleri, ilk iki deneyde rastgele ilklendirilmiş, ardından CAFE ve CK+ veri kümeleriyle ayrı ayrı eğitilmiş ve test edilmiştir. Son deneylerde, daha önce eğitilmiş CK+ modeli, yeni modelin hem CK+ hem de CAFE veri kümelerindeki performansını incelemek için CAFE veri kümesiyle ince ayarlanmıştır. Deneklere-bağlı değerlendirme yöntemi kullanıldığında, sadece CAFE ile eğitilmiş model \%94,81 doğruluk elde ederken, önce CK+ ile eğitilip sonra CAFE ile ince ayarlanmış model \%95,28 doğruluk elde etmiştir. Yetişkin veri seti ile eğitilen modele çocuk veri seti ince ayar yapılması, modelin çocukların duygularını tanıma başarısını arttırdığı gözlemlenmiştir. Çocukların VGG-Face ile eylem birimi tanıma modeli eğitimi için birincil veri seti olarak CAFE seçilmiştir. DDCF veri seti ve toplanan çocuk veri seti ile yapılan değerlendirmeler, CAFE modelinin genelleme ve güvenilirlik açısından başarılı olduğunu göstermiştir. Model, DDCF veri seti ile yapılan testlerde \%68.1 F1 puanı elde ederek daha fazla başarı göstermiştir; bu, CAFE'nin pozlanmış bir veri kümesi olması nedeniyle şaşırtıcı değildir. Model, gerçek dünyadaki pozlanmamış verilerde ise \%47.1 F1 puanına ulaşmaktadır. OpenFace ile yapılan deneylerde ise ilk adım olarak OpenFace eylem birimi tanıma modelleri DDCF veri seti ile test edilmiştir. OpenFace, 175 DDCF veri örneğinin değerlendirilmesinde \%24.2 F1 puanı elde etmiştir. Bir sonraki adımda, aracın genelleme performansını görmek için OpenFace pozlanmamış çocuk veri seti ile test edildi. OpenFace, 198 pozlanmamış karenin değerlendirilmesinde \%36.2 F1 puanı elde etmiştir. Bir sonraki adım, CAFE veri seti ile eğitilmiş modelin genelleme performansını artırmak için modelin başka bir veri kümesiyle ince ayarının yapılmasıdır. Böylece, son deneyde, önceden eğitilmiş CAFE modeli, DDCF veri kümesiyle ince ayarlanmış ve pozlanmamış çocuk veri seti ile test edilmiştir. İnce ayarlı model, \%50.7 F1 puanı alarak orijinal modeli geride bırakmıştır. Bahsedilen deneylerin dışında, eğitim setlerinde karşılaşılan AU'lar arasında yer alan AU3, AU24 ve AU27'nin deneylere eklenmesi ile modellerin eylem birimi tespit kabiliyeti genişletilmiştir. Gözetimsiz öğrenme çalışmaları altında yapılan deneylerde TCAE modeli farklı deney mekanizmalarıyla kullanılmıştır. Orijinal TCAE modeli, çok yüksek miktarda veriye sahip VoxCeleb veri kümeleriyle eğitilmiştir. Bu nedenle, yeterli veriye sahip olmak için farklı çocuk veri kümeleri birleştirilmiş ve TCAE modeli bu veri kümeleri karışımı ile öncelikle sıfırdan denetimsiz bir şekilde eğitilmiştir. Daha sonra hem orijinal TCAE modeli hem de sıfırdan eğitilmiş model çocuk verisinde özellik çıkartıcı olarak kullanılmıştır. Eğitim parametreleri olarak 128 parti büyüklüğü, Adam optimizer, 0.001 öğrenme oranı, 0.9 momentum tercih edilmiştir. Sigmoid ile ikili çapraz entropi kaybı (binary-cross entropy loss), kayıp fonksiyonu olarak kullanılır. CAFE veriseti ile bir lineer sınıflandırıcı eğitiminde kullanılan Orijinal TCAE modeli DDCF veriseti ile yapılan testlerde \%76.0 F1 puanı alırken sıfırdan çocuk verisi ile eğitilmiş TCAE modeli \%51.0 F1 puanı almıştır. TCAE modeli son olarak potansiyel bir performans gelişimini gözlemlemek için çocuk veri setlerinin karışımı ile ince ayarlanmıştır, ancak herhangi bir performans gelişimi gözlemlenmemiştir. Duygu tanıma deneylerinden sonra, eylem birimi tespiti için ayrı bir deney gerçekleştirilmiştir. Deneyde, önceki deneylerle benzer şekilde CAFE veriseti ile bir lineer sınıflandırıcı eğitiminde kullanılan TCAE modeli ile, DDCF veri setinde 9 eylem birimi (AU1, AU4, AU5, AU6, AU9, AU10, AU12, AU15, AU17) tespiti gerçekleştirilmiştir. Orijinal TCAE modelinin herhangi bir ince ayar yapılmadan öznitelik çıkarıcı olarak kullanıldığı testlerde \%63.6 F1 puanına ulaşılmıştır. AU tespit performansı açısından VGG-Face ve TCAE modelleri incelendiğinde VGG-Face modelinin genelleme başarısının daha yüksek olduğu görülmektedir. Bununla birlikte, transfer öğrenme ile yetişkin verisetlerinin kullanımının çocuklarda duygu ve eylem birimi tanıma performansını arttırdığı gözlemlenmiştir.
Özet (Çeviri)
Facial expressions are one of the primary clues of emotional inference, and facial emotion recognition (FER) is a popular method in the field of emotion recognition. In this study, various deep learning models have been developed to recognize emotions from facial expressions in children. The study covers the development of emotion recognition models to be used in an affectively aware humanoid robot designed for use in hospitals during audiometry tests of hearing-impaired children. The primary purpose of this study, which is part of the RoboRehab project, is to develop a system that will recognize the emotions of children interacting with an assistive humanoid robot. On the other hand, the study is expected to contribute to the literature on emotion recognition and action unit (AU) detection in children. Emotion recognition in children is more complicated than in adults since children's facial muscles are not fully developed and their faces are relatively small; therefore, children's facial expressions are open to different interpretations. Besides, since hearing-impaired children can have difficulty expressing their feelings, solutions to this problem may support these individuals to get into interactions. In the one part of studies on emotion recognition in the literature, face data is considered whole and emotions are recognized directly by processing the whole face. In the other part of the studies, emotion recognition is realized by detecting the action units that encode facial muscles. The Facial Action Coding System (FACS) was developed to separate emotions from facial expressions by categorizing facial muscle movements into action units. Action units are contractions and relaxations of one or more facial muscles. Facial expressions can be interpreted by a single action unit or by a group of action units. The experiments in this thesis cover both emotion recognition and action unit detection. The facial emotion recognition process includes data collection, data processing, data labeling, model training, and model testing. Data processing and labeling become challenging due to the amount of data required to train deep learning-based models. Therefore, automating the process of processing and labeling large amounts of data can ease the data preparation phase. LabelFace, a facial expression processing tool, was developed to preprocess datasets for the following the studies. LabelFace aims to provide automatic data labeling and automatic image and video processing. LabelFace offers deep learning models that can recognize emotions and identify action units in children to assist the user in the labeling process. On the other hand, these models can be used for any other research purpose. LabelFace offers a variety of data manipulation methods that users can apply to datasets. Data processing aims to eliminate the differences (light, noise, background, etc.) between data instances. These processing operations include face detection, face alignment, facial landmark detection, data augmentation, and face masking. In addition to the data collected from children, the open-source adult dataset CK+ and the open-source children datasets CAFE, DDCF and LIRIS datasets are used in the studies. As one of the contributions of this study, adult face datasets are used to enhance models capability to recognize emotions and detect action units in children. The CAFE dataset consists of poses of children aged 2-8 years with various appearances due to their ethnic origins, while the DDCF dataset consists of poses of 40 boys and 40 girls between the ages of 6-16. The LIRIS dataset consists of spontaneous short videos of 12 children aged 6 to 12 with different ethnic origins. Apart from open-source datasets, facial data are collected from 35 hearing-impaired children between 5-9 years. In the data collection sessions, children watched some video content or interacted with a humanoid robot while taking a test. Children's facial expressions are videotaped throughout the experiments. Frames with high levels of emotional intensity were extracted from the video recordings of the study and labeled for use in the testing phase of our emotion models. Data collected and labeled, including open-source datasets, is finally preprocessed using LabelFace. After the data collection and preparation process, transfer learning-based model training experiments are carried out. Deep learning models require large amounts of data, which makes it difficult to train deep learning models due to the small amount of data collected on children in the literature. A previously trained model for a similar task can be used as a baseline model in transfer learning, and it can be retrained with new data to adapt it to a new task. Besides, these models can only be used as feature extractor models without retraining. As for tasks related to face data, some pre-trained models trained with a large amount of face data are presented in the literature. These models were fine-tuned with a small amount of children data or adapted to emotion recognition and action unit detection tasks in children as feature extractors. Experiments are divided as transfer learning with a supervised model and transfer learning with a self-supervised model. In the first part of the experiments, a supervised learning model, VGG-Face is used as a baseline model for knowledge transfer. As another contribution of this work, for transfer learning, the fully connected layers of VGG-Face are replaced with convolutional layers, and custom fully connected layers are placed on top of these layers. The extracted features from convolutional layers are then used for training for the fully connected layers. In the unsupervised learning experiments, the self-supervised learning model, Twin Cycle Auto Encoder (TCAE) is used as a baseline model. In these experiments, the TCAE model structure is not modified, the model is directly used as a feature extractor. Experiments were carried out with Python programming language and open-source deep learning libraries Pytorch and Tensorflow. Since the data distributions in the collected datasets are generally imbalanced, precision, recall, and F1 score are taken into account instead of accuracy as evaluation metrics. For comparison, the action unit detection performance of OpenFace 2.0, the most widely used open-source facial expression processing tool in the literature, was examined. The action unit detection performances of LabelFace and OpenFace are compared by considering both posed and non-posed children expressions. Nine common AUs (AU0, AU1, AU4, AU5, AU9, AU10, AU12, AU15, AU17) were included in the comparison. First experiments aimed to label positive, negative, and neutral emotions of children and adults. The fully connected layers on the top of VGG-Face are randomly initialized in the first two experiments, then trained and tested with the CAFE and CK+ datasets separately. In the last experiments, the previously trained CK+ model is fine-tuned with the CAFE dataset to examine the new model's performance in both CK+ and CAFE datasets. Using subject-dependent evaluation, while the pure CAFE model achieved 94.81\% accuracy on the CAFE dataset, the fine-tuned model achieved 95.28\% accuracy. Fine-tuning the CK+ model with the CAFE dataset improved the recognition accuracy of children's emotions. For training with VGG-Face for children's AU detection model, CAFE is chosen as the primary training set. The model is tested with DDCF and non-posed children dataset with cross-database evaluation and it is observed that the trained model is successful in terms of generalization and reliability. The model performs better on the posed DDCF dataset with an F1 score of \%68.1 and an F1 score of \%47.1 on the non-posed children dataset. In the comparison tests, as a first step, OpenFace is tested with the DDCF dataset. OpenFace achieved an F1 score of \%24.2 in the evaluation of DDCF frames. OpenFace is also tested with a non-posed children dataset to see the tool's generalization performance in the next step. OpenFace achieved an F1 score of \%36.2. The next step was to fine-tune the children's AU detection model with another dataset to observe whether the fine-tuned model generalizes well to the datasets and performs better. Thus, in the final experiment, the CAFE model was fine-tuned with the DDCF dataset to examine the new model's performance on the non-posed children dataset. The fine-tuned model scored an F1 score of \%50.7, outpacing the original model. In addition to mentioned experiments, the action unit detection capability of the children's AU detection models was expanded by adding AU3, AU24 and AU27, which are among the AUs encountered in the training sets. In experiments conducted under unsupervised learning studies, the TCAE model is used with different experimental mechanisms. The original TCAE model was trained on VoxCeleb datasets with vast amounts of data. Therefore, the collected children dataset is combined with the LIRIS dataset to have sufficient data, and the TCAE model was first trained from scratch with this mixture of datasets in an unsupervised manner. Then, both the original TCAE model and the trained TCAE model are used as feature extractors. When the original TCAE model is used to train a linear classifier with the CAFE dataset, an F1 score of 76.0\% achieved in the recognition of 5 emotions on the DDCF dataset. The TCAE model trained with mixed children dataset achieved an F1 score of 51.0\% with the same setup. The original TCAE model is also fine-tuned with a mix of children's datasets to observe a potential performance improvement, but no performance improvement was observed. After the emotion recognition experiments, a separate experiment was performed for action unit detection. In the experiment, nine action units (AU1, AU4, AU5, AU6, AU9, AU10, AU12, AU15, AU17) are detected in the DDCF dataset by a linear classifier trained with the CAFE dataset. The original TCAE model is used as a feature extractor without any fine-tuning, and an F1 score of 63.6\% is achieved. When the VGG-Face and TCAE models are analyzed in terms of AU detection performance, it is observed that the generalization success of the VGG-Face model was higher. However, the use of transfer learning and adult datasets has been observed to improve emotion recognition and action unit detection performance in children.
Benzer Tezler
- DA4HI: A deep learning framework for facial emotion recognition in affective systems for children with hearing impairments.
DA4HI: İşitme engelli çocuklar için duyuşsal sistemlerde yüzdeki duyguların tanınması maksadıyla geliştirilen derin öğrenme modeli.
CEMAL GÜRPINAR
Doktora
İngilizce
2023
Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrolİstanbul Teknik ÜniversitesiBilgisayar Mühendisliği Ana Bilim Dalı
PROF. DR. HATİCE KÖSE
PROF. DR. NAFİZ ARICA
- Lightweight facial expression recognition systems for social robots
Sosyal robotlar için hafif ağırlıklı yüz ifadesi tanıma sistemleri
ERHAN BİÇER
Yüksek Lisans
İngilizce
2024
Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrolİstanbul Teknik ÜniversitesiBilgisayar Mühendisliği Ana Bilim Dalı
PROF. DR. HATİCE KÖSE
- Derin öğrenme ile insan edimlerinin tanınması
Human action recognition using deep learning
TAYYİP ÖZCAN
Doktora
Türkçe
2020
Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve KontrolErciyes ÜniversitesiBilgisayar Mühendisliği Ana Bilim Dalı
DOÇ. DR. ALPER BAŞTÜRK
- Application of a voting-based ensemble method for recognizing seven basic emotions in real-time webcam video images
Gerçek zamanlı web kamerası video görüntülerinde yedi temel duygunun tanınmasına yönelik oylamaya dayalı topluluk yönteminin uygulanması
AHMET TUNAHAN ŞANLI
Yüksek Lisans
İngilizce
2023
Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve KontrolÇankaya ÜniversitesiBilgisayar Mühendisliği Ana Bilim Dalı
DR. ÖĞR. ÜYESİ MURAT SARAN
- Aktarım derin öğrenme metotları ile yüz ifadelerinden duygu tespiti
Emotion detection from facial expressions with transfer deep learning methods
SADİ TAŞ
Yüksek Lisans
Türkçe
2024
Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve KontrolBatman ÜniversitesiBilgi Teknolojileri Ana Bilim Dalı
DOÇ. DR. YILMAZ KAYA