<?xml version="1.0" encoding="UTF-8" ?>
<modsCollection xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns="http://www.loc.gov/mods/v3" xmlns:slims="http://slims.web.id" xsi:schemaLocation="http://www.loc.gov/mods/v3 http://www.loc.gov/standards/mods/v3/mods-3-3.xsd">
<mods version="3.3" id="13930">
 <titleInfo>
  <title>Mengembangkan Penerjemah Bahasa Isyarat Menggunakan OpenCV</title>
 </titleInfo>
 <name type="Personal Name" authority="">
  <namePart>Zulfan Honggala Putra</namePart>
  <role>
   <roleTerm type="text">Primary Author</roleTerm>
  </role>
 </name>
 <name type="Personal Name" authority="">
  <namePart>1755301016</namePart>
  <role>
   <roleTerm type="text">Additional Author</roleTerm>
  </role>
 </name>
 <typeOfResource manuscript="no" collection="yes">mixed material</typeOfResource>
 <genre authority="marcgt">bibliography</genre>
 <originInfo>
  <place>
   <placeTerm type="text">Pekanbaru</placeTerm>
   <publisher>Pustaka Politeknik Caltex Riau</publisher>
   <dateIssued>2021</dateIssued>
  </place>
 </originInfo>
 <language>
  <languageTerm type="code">id</languageTerm>
  <languageTerm type="text">Indonesia</languageTerm>
 </language>
 <physicalDescription>
  <form authority="gmd">Text</form>
  <extent>xiii, 46 hlm.; 21 cm</extent>
 </physicalDescription>
 <note>Penelitian ini menggunakan Convolutional Neural Network (CNN) yang merupakan salah satu metode dalam Deep Learning untuk mendapatkan tingkat keberhasilan pengenalan tangan yang tinggi dari hasil pendeteksian. Untuk proses pendeteksian citra tangan digunakan Algoritma YOLOv3. Metode YOLO (You Only Look Once) adalah pendekatan terbaru dalam dunia pendeteksi objek, untuk memenuhi persyaratan deteksi dengan akurasi maupun kecepatan tinggi dan operasi secara langsung (real-time). Pendeteksian tangan dilakukan terhadap input berupa video hasil perekaman data dari kamera smartphone yang memuat bahasa isyarat tangan. Data dalam penelitian ini menggunakan citra 26 huruf. Parameter yang dianalisis pada penelitian ini di antaranya yaitu akurasi, presisi, recall, F1 score, IoU (Intersection over Union) dan mAP (mean Average Precision). IoU digunakan untuk mengukur akurasi deteksi objek pada dataset. mAP digunakan untuk mengevaluasi model deteksi objek seperti YOLO. Penulis menggunakan dataset sebanyak 300 gambar yaitu huruf A sampai Z. Hasil penelitian menunjukkan sistem deteksi objek YOLO dapat mengenali objek secara konsisten dengan akurasi yang didapatkan untuk huruf tangan adalah sebesar 50%-90% dengan menggunakan pre-trained weights yang telah dilatih menggunakan dataset ImageNet dan sudah dapat mengenali warna, tekstur dll. Pre-trained weights tersebut memiliki nilai mAP sebesar 82.90% dengan presisi 99% dan average IoU 85.39%. Penelitian ini menghasilkan performa yang cukup baik untuk mendeteksi isyarat tangan.</note>
 <note type="statement of responsibility"></note>
 <subject authority="">
  <topic>PA Teknik Informatika</topic>
 </subject>
 <classification>PA TI</classification>
 <identifier type="isbn"></identifier>
 <location>
  <physicalLocation>Politeknik Caltex Riau Politeknik Caltex Riau</physicalLocation>
  <shelfLocator>PA TI</shelfLocator>
  <holdingSimple>
   <copyInformation>
    <numerationAndChronology type="1">PA1755301016</numerationAndChronology>
    <sublocation>Perpustakaan PCR</sublocation>
    <shelfLocator></shelfLocator>
   </copyInformation>
  </holdingSimple>
 </location>
 <slims:digitals>
  <slims:digital_item id="13171" url="" path="KP_PA/POSTER/PA1755301016_poster_pa.png" mimetype="image/png">Poster - Mengembangkan Penerjemah Bahasa Isyarat Menggunakan OpenCV</slims:digital_item>
 </slims:digitals>
 <recordInfo>
  <recordIdentifier>13930</recordIdentifier>
  <recordCreationDate encoding="w3cdtf">2021-09-06 00:00:00</recordCreationDate>
  <recordChangeDate encoding="w3cdtf">2022-04-14 08:51:48</recordChangeDate>
  <recordOrigin>machine generated</recordOrigin>
 </recordInfo>
</mods>
</modsCollection>