DeepLearning
Dipublikasikan oleh Viskha Dwi Marcella Nanda pada 08 Mei 2025
Pendahuluan
Dalam era manufaktur modern, industri baja menghadapi tantangan besar untuk menjaga kualitas produk di tengah tuntutan produktivitas yang tinggi. Salah satu tantangan utama adalah menjaga mutu permukaan baja dari berbagai jenis cacat yang dapat mempengaruhi nilai jual hingga performa material tersebut. Untuk menjawab tantangan ini, teknologi deteksi berbasis visi (vision-based) telah menjadi alternatif yang menjanjikan dibandingkan inspeksi manual tradisional.
Paper yang diulas kali ini berjudul "A Survey of Vision-Based Methods for Surface Defects’ Detection and Classification in Steel Products" (Ibrahim & Tapamo, 2024), merupakan tinjauan komprehensif atas perkembangan metode vision-based dalam mendeteksi dan mengklasifikasikan cacat permukaan pada produk baja. Penelitian ini menyoroti metode statistik, spektral, segmentasi tekstur, hingga machine learning dan deep learning yang digunakan dalam mendukung inspeksi otomatis.
Kontribusi Utama Penelitian
Penelitian ini memberikan empat kontribusi utama:
Ragam Cacat Permukaan Baja: Masalah yang Kompleks dan Variatif
Permukaan baja kerap mengalami berbagai jenis cacat selama proses produksi, mulai dari goresan (scratches), karat (scales), retakan (cracks), hingga lubang kecil (pits). Masing-masing cacat ini memiliki karakteristik unik yang membuat proses klasifikasi menjadi kompleks. Dalam produksi baja canai panas (hot-rolled) dan dingin (cold-rolled), cacat permukaan seperti crazing, scarring, dan inclusions menjadi permasalahan utama yang harus segera dideteksi agar tidak merugikan proses produksi berikutnya.
Penelitian menunjukkan bahwa tidak ada standar universal untuk mendefinisikan cacat-cacat ini secara sistematis. Variasi produk dan proses menyebabkan metode klasifikasi cacat menjadi semakin kompleks dan menantang.
Metodologi Deteksi dan Klasifikasi: Dari Teknik Tradisional hingga Deep Learning
1. Metode Statistik
Metode ini meliputi autocorrelation, thresholding, co-occurrence matrix (GLCM), dan local binary patterns (LBP). GLCM terbukti efektif dalam menganalisis tekstur, tetapi boros waktu komputasi dan memerlukan ruang penyimpanan besar. Sementara LBP populer karena sederhana, namun sensitif terhadap noise dan skala perubahan gambar.
2. Metode Spektral
Termasuk Fourier Transform dan Wavelet Transform. Wavelet memberikan resolusi multiskala dan akurasi tinggi (83-97%), namun sulit memilih basis yang tepat. Gabor filter unggul dalam mendeteksi pola tekstur namun butuh parameter filter yang akurat.
Studi Kasus:
3. Segmentasi Tekstur
Model seperti Markov Random Field (MRF), Autoregressive (AR), Weibull, hingga Active Contour. Model MRF memberikan akurasi tinggi (91,36%), namun kurang cocok untuk tekstur global.
4. Machine Learning dan Deep Learning
Teknik supervised seperti Artificial Neural Networks (ANN) dan Support Vector Machine (SVM) menjadi tulang punggung sistem klasifikasi modern. Deep learning melalui Convolutional Neural Networks (CNN), YOLO, dan GAN mendominasi penelitian terbaru, menawarkan akurasi tinggi hingga 99% pada dataset NEU dan Xsteel.
Studi Kasus:
Evaluasi Metode dan Tantangan yang Dihadapi
Metode yang digunakan dievaluasi menggunakan metrik seperti akurasi, presisi, recall, dan F1-score. Sebagai contoh, model CNN yang digunakan oleh Gao et al. (2021) mencapai akurasi 95,63% dengan tantangan utama pada kebutuhan dataset yang sangat besar.
Namun, tantangan tetap ada:
Kritik dan Analisis Tambahan
Kelebihan Penelitian
Penelitian Ibrahim dan Tapamo (2024) unggul dalam memberikan cakupan menyeluruh terhadap metode deteksi vision-based, dari teknik dasar hingga algoritma deep learning. Penulis mengkategorikan metode secara sistematis dan menyoroti tren evolusi pendekatan dari waktu ke waktu.
Kelemahan
Namun, pembahasan terkait integrasi sistem ke dalam lini produksi nyata masih terbatas. Bagaimana sistem ini diimplementasikan secara praktis, baik dari segi hardware (kamera, pencahayaan) maupun software, tidak dibahas secara mendalam.
Perbandingan dengan Studi Sebelumnya
Penelitian ini menguatkan temuan dari Luo et al. (2021) tentang pentingnya model deep learning berbasis CNN dalam meningkatkan akurasi klasifikasi cacat. Namun, Ibrahim dan Tapamo melangkah lebih jauh dengan menelaah sistem semi-supervised dan unsupervised yang masih jarang digunakan di industri baja.
Arah Penelitian Masa Depan dan Implikasi Praktis
1. Hybrid Approach
Menggabungkan deep learning dengan rule-based system dapat meningkatkan akurasi tanpa ketergantungan pada data label yang besar.
2. Edge Computing
Implementasi sistem deteksi cacat secara real-time di lini produksi memerlukan optimasi komputasi, yang bisa dijawab melalui edge computing.
3. Explainable AI (XAI)
Industri baja membutuhkan sistem yang tidak hanya akurat, tetapi juga transparan. Pengembangan model XAI akan membantu insinyur memahami keputusan sistem dan meningkatkan kepercayaan industri.
Kesimpulan
Penelitian "A Survey of Vision-Based Methods for Surface Defects’ Detection and Classification in Steel Products" oleh Ibrahim dan Tapamo (2024) merupakan referensi penting dalam bidang quality control industri baja. Dengan mengulas lebih dari 200 penelitian dan menawarkan analisis mendalam atas metode terkini, studi ini memberikan fondasi kuat bagi penelitian dan pengembangan sistem inspeksi otomatis berbasis vision.
Namun, untuk adopsi industri secara masif, tantangan seperti kebutuhan data besar, waktu komputasi, dan integrasi sistem tetap harus diatasi. Penelitian lanjutan sebaiknya berfokus pada pengembangan metode hybrid, penggunaan edge computing, dan pendekatan XAI yang dapat memberikan kejelasan dan efisiensi dalam pengambilan keputusan.
Sumber Referensi
Ibrahim, Y., & Tapamo, J. (2024). A survey of vision-based methods for surface defects’ detection and classification in steel products. Informatics, 11(2), 25.
Keselamatan Kerja
Dipublikasikan oleh Izura Ramadhani Fauziyah pada 08 Mei 2025
Keselamatan dan Kesehatan Kerja (K3) merupakan faktor fundamental dalam menciptakan lingkungan kerja yang aman dan produktif. Penelitian ini menggunakan pendekatan kualitatif-deskriptif dengan metode hermeneutik untuk memahami hubungan antara K3 dan QWL. Data dikumpulkan melalui analisis literatur dari berbagai sumber akademik dan kajian terhadap teori yang berkaitan dengan kesejahteraan kerja.
Penulis membagi penelitian ini menjadi tiga tahap utama:
1. Evolusi Konsep QWL
2. Hubungan antara K3 dan QWL
3. Dampak K3 terhadap Kualitas Hidup Kerja
Studi Kasus
1. Implementasi Kebijakan K3 di Sektor Manufaktur
Studi di sektor manufaktur menunjukkan bahwa penerapan standar K3 yang lebih baik dapat mengurangi kecelakaan kerja hingga 40% dalam 5 tahun. Sebagai contoh, perusahaan yang menerapkan sistem ISO 45001 mengalami penurunan signifikan dalam kecelakaan kerja dan peningkatan kepuasan pekerja.
2. Peran K3 dalam Industri Konstruksi
Di sektor konstruksi, pengenalan prosedur keselamatan berbasis teknologi seperti penggunaan sensor dan AI untuk mendeteksi bahaya membantu mengurangi insiden kecelakaan hingga 35%. Studi juga menemukan bahwa pekerja konstruksi dengan akses terhadap pelatihan keselamatan memiliki tingkat stres kerja yang lebih rendah.
3. Dampak K3 terhadap Pekerja di Lingkungan Kantor
Penelitian menunjukkan bahwa pekerja kantoran yang memiliki akses terhadap pencahayaan alami, ventilasi yang baik, dan ergonomi kursi kerja mengalami penurunan keluhan nyeri punggung hingga 50% serta peningkatan produktivitas sebesar 20%.
Keunggulan:
Kelemahan:
Paper ini menunjukkan bahwa keselamatan kerja bukan hanya tentang mengurangi kecelakaan, tetapi juga berkontribusi pada kesejahteraan dan kepuasan pekerja. Dengan kebijakan yang tepat, perusahaan dapat menciptakan lingkungan kerja yang lebih aman, meningkatkan produktivitas, dan mengurangi absensi kerja.
Sumber: Valero Pacheco, I. C., & Riaño-Casallas, M. I. Contributions of Occupational Health and Safety to the Quality of Working Life: An Analytical Reflection. Cienc Tecnol Salud Vis Ocul, Vol. 15 No. 2, 2017, Hal. 85-94.
Kualitas
Dipublikasikan oleh Viskha Dwi Marcella Nanda pada 08 Mei 2025
Pendahuluan: Mengapa Kontrol Kualitas Masih Menjadi Fokus Utama Industri?
Di tengah persaingan industri global yang semakin ketat, kualitas bukan lagi sekadar atribut tambahan, melainkan syarat mutlak bagi kelangsungan bisnis. Kualitas yang buruk tidak hanya merugikan dari sisi keuangan, tetapi juga bisa merusak reputasi perusahaan. Namun, di era manufaktur modern yang kompleks, bagaimana cara paling efisien untuk mengontrol kualitas, khususnya saat data pengukuran tidak presisi atau sulit diperoleh? Disertasi Stefan Hans Steiner memberikan jawaban menarik melalui pendekatan Quality Control and Improvement Based on Grouped Data (QCIGD).
Apa Itu Grouped Data dalam Konteks Kontrol Kualitas?
Definisi Sederhana Grouped Data
Grouped data atau data terkelompok adalah data yang telah diklasifikasi ke dalam kategori tertentu, bukan dicatat secara individual dengan nilai numerik yang akurat. Contoh sederhana: alih-alih mengukur panjang baut secara presisi dalam milimeter, operator cukup mengkategorikan baut sebagai "pendek", "sedang", atau "panjang".
Mengapa Industri Menggunakannya?
Pengukuran presisi tinggi membutuhkan alat canggih dan tenaga kerja terampil yang mahal. Sebaliknya, sistem klasifikasi atau grouping data jauh lebih praktis, murah, dan cepat, apalagi di lingkungan pabrik yang serba dinamis.
Tujuan dan Kontribusi Penelitian Steiner
Steiner ingin menjawab masalah klasik dalam pengendalian kualitas: bagaimana caranya memanfaatkan data yang "kurang sempurna" secara statistik untuk menjaga mutu produk? Fokus utamanya adalah mengembangkan metode Statistical Process Control (SPC) berbasis grouped data, yang sebelumnya kurang mendapat perhatian serius.
Dua Area Aplikasi Utama:
Metodologi dan Kerangka Kerja Steiner: Pendekatan yang Inovatif
Statistical Process Control (SPC) Berbasis Grouped Data
Steiner membangun berbagai metode desain kontrol mutu berbasis distribusi Normal dan Weibull. Distribusi Weibull dipilih karena lebih fleksibel untuk data yang asimetris, seperti dalam pengujian ketahanan material.
Dua Filosofi Desain:
Analisis Penerapan Acceptance Sampling dan Control Charts
Acceptance Sampling Plans
Biasanya digunakan untuk memutuskan apakah suatu batch produk diterima atau ditolak. Steiner mengadaptasi metode ini untuk data terkelompok, memungkinkan perusahaan melakukan inspeksi lebih efisien tanpa mengorbankan akurasi keputusan.
Shewhart Control Charts Berbasis Data Terkelompok
Control chart tradisional hanya bekerja optimal dengan data numerik presisi tinggi. Steiner mengembangkan versi baru yang bisa membaca "sinyal" dari data kategori seperti "baik", "cukup", atau "buruk", dengan tingkat akurasi yang mendekati metode variabel konvensional.
Estimasi Korelasi pada Destructive Testing: Studi Kasus Industri
Di bidang konstruksi, seperti industri kayu dan baja, pengujian kekuatan material sering kali merusak produk (destructive testing). Steiner menawarkan metode estimasi korelasi antar variabel kekuatan berdasarkan grouped data dari pengujian tersebut.
📊 Contoh Nyata:
Industri kayu menggunakan proof-loading, yaitu menguji kekuatan dengan memberikan beban hingga titik tertentu. Data diklasifikasikan menjadi lulus atau gagal. Steiner menunjukkan bahwa meskipun data ini kasar, kita tetap bisa memperkirakan korelasi antar kekuatan lentur dan tarik secara efektif.
Kelebihan dari Metode Steiner: Praktis dan Adaptif
Kritik dan Keterbatasan Penelitian Steiner
Kelebihan
Kekurangan
Perbandingan dengan Penelitian Lain
Penelitian Steiner memperkaya literatur SPC setelah karya awal seperti Walter A. Shewhart yang mengembangkan grafik kontrol konvensional. Steiner juga melampaui pendekatan Taguchi yang fokus pada loss function, dengan mengedepankan aspek praktis penggunaan grouped data.
Aplikasi Praktis di Era Industri 4.0
Potensi Integrasi dengan IoT dan AI
Grouped data yang sederhana sangat cocok untuk diintegrasikan dalam sistem Industrial Internet of Things (IIoT). Misalnya, sensor low-cost di jalur produksi yang hanya mengklasifikasikan komponen sebagai "sesuai standar" atau "perlu dicek ulang" bisa langsung terhubung ke sistem SPC berbasis AI.
Tren Industri
Kesimpulan: Inovasi yang Relevan dan Siap Diadopsi
Disertasi Stefan Hans Steiner mengisi celah penting dalam pengendalian kualitas berbasis data terkelompok. Pendekatan ini tidak hanya relevan di industri besar, tetapi juga sangat cocok untuk UKM manufaktur di Indonesia yang membutuhkan solusi efisien tanpa investasi besar.
Rekomendasi Implementasi untuk Industri Indonesia
📚 Sumber Asli:
Steiner, S.H. (1994). Quality Control and Improvement Based on Grouped Data. PhD Thesis, McMaster University.
Kualitas Air
Dipublikasikan oleh Viskha Dwi Marcella Nanda pada 08 Mei 2025
Air bersih adalah kebutuhan dasar manusia, namun kualitas sumber daya air global terus menghadapi ancaman serius akibat aktivitas industri, pertanian, dan urbanisasi yang tidak terkendali. Di India, permasalahan kualitas air mencapai titik kritis, terutama di sungai besar seperti Gangga, Yamuna, dan Godavari. Paper berjudul “Water Quality Prediction Using Machine Learning Models” yang dipublikasikan oleh Astha Sharma dkk. dari Jaypee University of Information Technology, membahas upaya revolusioner dalam memanfaatkan algoritma machine learning untuk mengatasi tantangan ini. Penelitian ini dapat diakses di E3S Web of Conferences.
Mengapa Kualitas Air Perlu Diprediksi dengan Teknologi?
Sebelum membahas lebih jauh tentang teknologi yang digunakan, mari kita telaah latar belakangnya. Menurut Central Pollution Control Board India, tingkat Biochemical Oxygen Demand (BOD)—indikator utama pencemaran organik—di banyak sungai telah melampaui ambang batas aman. Secara tradisional, metode pengujian kualitas air berbasis laboratorium memakan waktu lama, memerlukan biaya besar, dan tidak mampu memberikan informasi secara real-time.
Di sinilah machine learning (ML) masuk sebagai solusi. Algoritma ML dapat memproses data secara otomatis dan cepat untuk mendeteksi potensi pencemaran bahkan sebelum krisis terjadi.
Ringkasan Penelitian dan Tujuan
Penelitian ini bertujuan membangun model prediksi kualitas air yang akurat dengan menggunakan tiga algoritma populer:
Dataset yang digunakan mencakup parameter penting seperti pH, turbidity (kekeruhan), dissolved oxygen (oksigen terlarut), chloramines, trihalomethanes, dan lainnya. Model dievaluasi berdasarkan kemampuannya dalam memprediksi apakah air layak diminum (potable) atau tidak.
Analisis Metodologi: Menggali Lebih Dalam
Dataset dan Pra-pemrosesan Data
Data bersumber dari Kaggle, mencakup 3.276 sampel dengan 9 fitur utama dan satu target output (potability). Salah satu tantangan terbesar adalah banyaknya nilai yang hilang pada variabel-variabel seperti pH (491 nilai hilang) dan sulfate (781 nilai hilang).
Strategi yang diterapkan:
Pemisahan Dataset
Dataset dibagi dengan rasio 90:10 untuk training dan testing. Strategi ini dinilai efektif dalam meningkatkan kemampuan model untuk belajar pola kompleks dari data.
Evaluasi Algoritma: Mana yang Paling Unggul?
1. Decision Tree (DT)
Analisis Tambahan: DT sangat tergantung pada keakuratan data training. Dalam skenario kualitas air yang dinamis seperti di India, DT kurang efektif tanpa teknik ensemble atau pruning ketat.
2. K-Nearest Neighbor (KNN)
Kritik Konstruktif: KNN bisa jadi tidak praktis untuk implementasi real-time pada sistem monitoring berbasis sensor yang menghasilkan data dalam jumlah besar.
3. Random Forest (RF)
Studi Kasus: RF digunakan dalam sistem monitoring kualitas air di Sungai Yangtze, Tiongkok, yang berhasil mendeteksi pencemaran industri secara real-time dengan akurasi lebih dari 80%. Hal ini menunjukkan potensi RF sebagai tulang punggung sistem monitoring kualitas air modern.
Studi Kasus Global: Implementasi di Dunia Nyata
1. River Water Quality Index di Sungai Mekong, Vietnam
Peneliti menggunakan model Random Forest yang dioptimalkan dan berhasil mengidentifikasi area dengan pencemaran tinggi, mendorong pemerintah setempat membangun lebih banyak instalasi pengolahan limbah.
2. Deep Learning untuk Prediksi Kualitas Air Laut di Jepang
Dengan pendekatan Convolutional Neural Network (CNN), sistem dapat memprediksi penurunan kualitas air akibat tumpahan minyak lebih cepat daripada metode konvensional.
Pembelajaran: Random Forest adalah pilihan yang solid untuk tahap awal, namun integrasi dengan Deep Learning (seperti CNN dan RNN) membuka peluang prediksi spasial-temporal yang lebih akurat.
Tantangan dan Keterbatasan Penelitian Ini
Opini dan Saran Pengembangan ke Depan
1. Kolaborasi Lintas Disiplin
Sinergi antara insinyur sipil, ilmuwan data, dan pembuat kebijakan diperlukan agar teknologi ML benar-benar bermanfaat dalam pengelolaan kualitas air.
2. Integrasi IoT dan Sensor Cerdas
Penggabungan ML dengan Internet of Things (IoT) dapat mempercepat deteksi pencemaran. Misalnya, sensor otomatis di titik-titik rawan polusi yang mengirimkan data real-time ke model prediksi berbasis cloud.
3. Peningkatan Akurasi dengan Gradient Boosting
Peneliti sebaiknya menjajaki model lain seperti Gradient Boosting Machines (GBM) atau XGBoost, yang telah terbukti meningkatkan akurasi prediksi hingga 85% dalam studi kualitas air di Eropa.
Relevansi dengan Industri dan Kebijakan Lingkungan di Indonesia
Indonesia menghadapi tantangan serupa, seperti pencemaran Sungai Citarum dan Bengawan Solo. Implementasi model Random Forest untuk prediksi kualitas air dapat membantu pemerintah daerah dalam membuat keputusan berbasis data secara cepat, mencegah krisis kesehatan akibat air tercemar.
Contoh Potensial Implementasi:
Kesimpulan: Machine Learning Sebagai Kunci Masa Depan Pengelolaan Air
Paper ini menunjukkan bahwa teknologi machine learning, khususnya Random Forest, memberikan solusi efektif dalam prediksi kualitas air dengan akurasi yang layak untuk pengambilan keputusan nyata. Namun, tantangan tetap ada, mulai dari kebutuhan data yang kaya hingga tuntutan interpretabilitas hasil prediksi.
Highlight Kesimpulan:
Sumber Referensi
Efficient Water Quality Prediction Using Supervised Machine Learning (Water, 2019)
Machine Learning Based Marine Water Quality Prediction (Journal of Environmental Management, 2021)
Keselamatan Kerja
Dipublikasikan oleh Izura Ramadhani Fauziyah pada 08 Mei 2025
Keselamatan kerja merupakan aspek yang sangat penting dalam operasional industri modern. Penelitian ini bertujuan untuk mengidentifikasi, mengklasifikasi, dan menganalisis berbagai metode serta alat yang digunakan dalam penilaian risiko di tempat kerja, dengan fokus pada literatur yang diterbitkan antara tahun 2008 hingga 2020.
Penelitian ini menggunakan pendekatan Systematic Literature Mapping (SLM) untuk mengidentifikasi pola penelitian yang ada dalam manajemen risiko keselamatan kerja. Tiga tahap utama yang dilakukan dalam studi ini adalah:
1. Identifikasi Metode Manajemen Risiko
Penelitian ini mengidentifikasi 37 alat dan teknik yang digunakan dalam analisis dan manajemen risiko keselamatan kerja, termasuk:
Studi ini menunjukkan bahwa metode yang paling sering digunakan adalah FMEA dan HAZOP, yang digunakan dalam berbagai sektor industri untuk menilai dan memitigasi risiko kerja.
2. Korelasi antara Jenis Bisnis dan Metode yang Digunakan
Dalam penelitian ini, berbagai metode dianalisis berdasarkan sektor industri yang menerapkannya:
3. Perkembangan Tren Penelitian
Penelitian ini juga menunjukkan tren pertumbuhan studi manajemen risiko keselamatan kerja:
4. Tantangan dalam Manajemen Risiko Keselamatan Kerja
Paper ini mengidentifikasi beberapa hambatan utama dalam implementasi sistem manajemen risiko keselamatan kerja, antara lain:
Dalam penelitian ini, terdapat beberapa contoh implementasi sistem manajemen risiko:
Keunggulan Studi Ini:
Kekurangan dan Tantangan:
Studi ini memberikan wawasan mendalam mengenai manajemen risiko dalam keselamatan kerja serta tren penelitian yang berkembang dalam bidang ini. Dengan meningkatnya jumlah penelitian dalam topik ini, diharapkan organisasi dapat lebih sadar akan pentingnya pendekatan proaktif dalam manajemen risiko.
Sumber: Francisco da Rosa, A. C., Lapasini Leal, G. C., Cardoza Galdamez, E. V., & Thom de Souza, R. C. Risk Management in Occupational Safety: A Systematic Mapping. Work 70 (2021): 147-166.
Kualitas Produksi
Dipublikasikan oleh Viskha Dwi Marcella Nanda pada 08 Mei 2025
Pendahuluan
Di era Industry 4.0, dunia manufaktur mengalami transformasi besar melalui digitalisasi. Salah satu inovasi yang mencuri perhatian adalah pemanfaatan machine learning (ML) dan deep learning (DL) untuk predictive quality, yaitu pendekatan prediktif terhadap kualitas produk berbasis data manufaktur. Paper ini mereview secara sistematis perkembangan riset di bidang tersebut selama satu dekade terakhir, yakni 2012 hingga 2021.
Riset ini relevan karena kebutuhan industri untuk memprediksi kualitas secara akurat semakin tinggi. Hal ini didorong oleh peningkatan permintaan konsumen atas produk berkualitas tinggi dan minim cacat. Teknologi ML dan DL diharapkan mampu membantu industri melakukan kontrol kualitas secara real-time, mengurangi cacat produksi, hingga meningkatkan efisiensi operasional.
Ruang Lingkup dan Metodologi Studi
Tercan dan Meisen melakukan telaah atas 81 publikasi ilmiah yang membahas predictive quality dalam ranah manufaktur. Mereka mengklasifikasikan penelitian tersebut berdasarkan:
Mereka merumuskan tiga pertanyaan utama yang menjadi kerangka studi:
Pendekatan sistematis ini mengisi celah dalam literatur karena hingga saat ini belum banyak ulasan komprehensif yang mengupas prediksi kualitas berbasis ML/DL secara mendalam.
Temuan Utama dan Analisis
1. Ragam Proses Manufaktur yang Diteliti
Berbagai proses manufaktur telah dikaji, mulai dari cutting (pemotongan) hingga additive manufacturing. Dari total publikasi yang direview, mayoritas riset fokus pada proses cutting (32%), seperti turning, drilling, dan milling. Fokus utamanya adalah memprediksi surface roughness (kekasaran permukaan), misalnya dalam proses laser cutting dan turning. Misalnya, penelitian oleh Tercan et al. (2017) yang memanfaatkan ML untuk memprediksi kekasaran permukaan pada laser cutting.
Proses joining, khususnya pengelasan, juga populer. Contohnya, penggunaan CNN untuk mendeteksi cacat las pada proses spot welding (Wang et al., 2021).
Studi Kasus Industri:
Perusahaan otomotif seperti BMW menggunakan sistem berbasis CNN untuk mendeteksi cacat pada bodi mobil selama proses spot welding. Implementasi ini meningkatkan first-pass yield hingga 98%.
2. Karakteristik Data dan Sumbernya
Prediksi kualitas mengandalkan data dari dua sumber utama:
Sebagian kecil lainnya menggunakan simulasi dan dataset benchmark seperti GRIMA X-Ray (Ferguson et al., 2018). Tantangan utama adalah kuantitas dan kualitas data. Banyak dataset eksperimen hanya terdiri dari ratusan sampel, yang membatasi akurasi model.
Tren Industri:
Penggunaan digital twin untuk menghasilkan data simulasi dalam skala besar kian populer. Misalnya, Siemens mengembangkan digital twin untuk simulasi additive manufacturing, memungkinkan mereka mengurangi waktu trial and error hingga 30%.
3. Jenis Data Input
Data input untuk model ML/DL umumnya berupa:
Pada proses seperti metal rolling, kamera lini digunakan untuk mendeteksi cacat permukaan secara otomatis melalui CNN.
Analisis:
Dalam praktik industri, penggabungan data multi-modal—gabungan antara sensor dan citra visual—semakin banyak diadopsi. Hal ini mencerminkan kebutuhan akan sistem prediksi yang lebih akurat dan fleksibel.
Model Machine Learning dan Deep Learning yang Digunakan
Mayoritas publikasi (74%) menggunakan model Multilayer Perceptron (MLP) karena kemudahannya dalam menangani berbagai jenis data numerik. Sementara itu, Convolutional Neural Networks (CNN) digunakan untuk analisis data gambar, seperti dalam inspeksi otomatis pada additive manufacturing.
Perbandingan Model:
Kritik:
Meski CNN mendominasi riset terkini, pendekatan ini kerap membutuhkan data dalam jumlah besar serta komputasi tinggi, yang belum tentu feasible bagi industri skala kecil-menengah.
Tantangan dan Kesenjangan Penelitian
Rekomendasi dan Arah Riset Masa Depan
Dampak Praktis Bagi Industri
Efisiensi Produksi
Dengan prediksi kualitas berbasis ML/DL, perusahaan manufaktur dapat mengurangi scrap rate hingga 40% dan meningkatkan efisiensi first-time-right production.
Pengurangan Biaya Inspeksi Manual
Prediksi otomatis memungkinkan pengurangan kebutuhan inspeksi manual hingga 50%, seperti yang dialami pabrik otomotif yang menerapkan CNN untuk deteksi cacat bodi mobil.
Kesimpulan
Tercan dan Meisen memberikan tinjauan yang komprehensif mengenai penerapan machine learning dan deep learning dalam prediksi kualitas manufaktur. Meski perkembangan pesat terlihat dalam dekade terakhir, masih ada tantangan signifikan yang harus diatasi. Ke depan, integrasi teknologi seperti XAI dan transfer learning menjadi kunci untuk memperluas adopsi sistem prediktif ini di industri manufaktur secara global.
📖 Referensi Utama
Tercan, H., & Meisen, T. (2022). Machine learning and deep learning based predictive quality in manufacturing: a systematic review. Journal of Intelligent Manufacturing, 33, 1879–1905.