Please use this identifier to cite or link to this item: https://repositori.uma.ac.id/handle/123456789/26183
Title: Klasifikasi Emosi Berdasarkan Citra Ekspresi Menggunakan Metode Capsule Network (Capsnet)
Other Titles: Classification of Emotions Based on Expression Images Using Capsule Network (Capsnet) Method
Authors: Syafitri, Bella
metadata.dc.contributor.advisor: Muliono, Rizki
Keywords: Klasifikasi;Emosi;Ekpresi Wajah;Capsule Network
Issue Date: Jun-2024
Publisher: Universitas Medan Area
Series/Report no.: NPM;198160009
Abstract: Wajah merupakan salah satu anggota tubuh yang berfungsi sebagai alat verbal tanda pengenal seseorang, pada wajah terdapat 6 ekpresi wajah yang ditetapkan oleh psikolog Paul Eckman yaitu emosi senang, sedih, marah, takut, terkejut, dan cemas. Munculnya teknologi pengenalan wajah membawa perhatian besar, CNN telah berhasil mengklasifikasi emosi pada wajah dengan baik, namun CNN memiliki beberapa kekurangan, terutama dalam menghadapi kendala ketika wajah mengalami variasi dalam pose atau ekspresi yang tidak sesuai atau fitur yang kompleks dan berubah-ubah dalam citra wajah. Capsule Network menjadi alternatif dari masalah kekurangan CNN. Penerapan metode Capsule Network pada klasifikasi Emosi berdasarkan citra ekspresi menghasilkan performa baik dengan jumlah dataset sebanyak 9460 gambar. Pada pengujian model menggunakan jumlah batch size 8, 16, 32, dan 128 dan jumlah epoch 100,200,300,400, dan 500 serta evaluasi model yang digunakan.adalah confusion matrix yang mendapatkan hasil akurasi sebesar 70 %, presisi 69 %, recall 70 % dan F1-score 69%.
Description: 41 Halaman
URI: https://repositori.uma.ac.id/handle/123456789/26183
Appears in Collections:SP - Informatic Engineering

Files in This Item:
File Description SizeFormat 
198160009 - Bella Syafitri Fulltext.pdfCover, Abstract, Chapter I, II, III, V, Bibliography1.93 MBAdobe PDFView/Open
198160009 - Bella Syafitri Chapter IV.pdf
  Restricted Access
Chapter IV456.3 kBAdobe PDFView/Open Request a copy


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.