Teknik Industri

Pembelajaran Mendalam (Deep Learning): Tinjauan Komprehensif

Dipublikasikan oleh Muhammad Ilham Maulana pada 03 April 2024


Pembelajaran mendalam (Deep Learning) adalah bagian dari pembelajaran mesin yang memanfaatkan jaringan saraf tiruan (JST) atau Artificial Neural Networks (ANN) dengan banyak lapisan untuk mengekstrak fitur tingkat tinggi dari data masukan. Istilah "dalam" mengacu pada penggunaan beberapa lapisan ini, yang memungkinkan jaringan mempelajari representasi data masukan yang semakin abstrak dan komposit. Pembelajaran mendalam telah diterapkan di berbagai bidang, termasuk visi komputer, pengenalan suara, pemrosesan bahasa alami, dan bioinformatika, antara lain untuk mencapai hasil yang sebanding atau melampaui kinerja ahli manusia.

Arsitektur pembelajaran mendalam, seperti jaringan saraf dalam, jaringan kepercayaan mendalam, jaringan saraf berulang, jaringan saraf konvolusional, dan transformator, telah dikembangkan untuk menangani tugas dan tipe data tertentu. Model-model ini terinspirasi oleh pemrosesan informasi dan titik-titik komunikasi terdistribusi dalam sistem biologis, meskipun sifat statis dan simboliknya berbeda dibandingkan dengan otak biologis dinamis dan analog.

Algoritme pembelajaran mendalam menggunakan pendekatan hierarki untuk pembelajaran representasi, di mana setiap level mengubah data masukan menjadi representasi yang lebih abstrak. Misalnya, dalam pengenalan gambar, lapisan bawah dapat mengidentifikasi tepi, sedangkan lapisan atas dapat mengenali konsep seperti angka, huruf, atau wajah. Sistem pembelajaran mendalam dapat mempelajari fitur mana yang ditempatkan secara optimal pada level tertentu, meskipun penyetelan manual tetap diperlukan untuk mendapatkan performa optimal.

Kedalaman sistem pembelajaran mendalam mengacu pada jumlah lapisan yang digunakan untuk mengubah data. Sistem pembelajaran mendalam memiliki kedalaman jalur penugasan kredit (CAP) yang substansial, yang menggambarkan rantai transformasi dari input ke output dan dapat meniru fungsi apa pun. Kedalaman CAP adalah jumlah lapisan tersembunyi ditambah satu untuk jaringan saraf feedforward dan berpotensi tidak terbatas untuk jaringan saraf berulang. Tidak ada batasan yang disepakati secara universal yang memisahkan pembelajaran dangkal dan pembelajaran mendalam, namun sebagian besar peneliti setuju bahwa pembelajaran mendalam melibatkan kedalaman CAP yang lebih tinggi dari 2.

Model pembelajaran mendalam dapat dibangun menggunakan metode serakah lapis demi lapis dan membantu menguraikan abstraksi dan mengidentifikasi fitur mana yang meningkatkan kinerja. Metode pembelajaran mendalam memungkinkan penghapusan rekayasa fitur untuk tugas pembelajaran yang diawasi dengan menerjemahkan data ke dalam representasi perantara yang ringkas dan menghilangkan redundansi dalam representasi.

Algoritme pembelajaran mendalam juga dapat diterapkan pada tugas pembelajaran tanpa pengawasan, yang merupakan manfaat penting karena data yang tidak berlabel lebih banyak jumlahnya daripada data yang diberi label. Contoh struktur mendalam yang dapat dilatih tanpa pengawasan mencakup jaringan kepercayaan yang mendalam.

Pendekatan Universal dan Interpretasi Probabilistik

Jaringan saraf dalam berada di garis depan kecerdasan buatan modern, mendorong inovasi di berbagai bidang. Untuk memahami fungsinya, kita mempelajari dua konsep dasar: teorema pendekatan universal dan interpretasi probabilistik.

Teorema pendekatan universal, yang berakar pada karya perintis peneliti seperti George Cybenko dan Kurt Hornik, menegaskan kemampuan luar biasa dari jaringan saraf feedforward untuk memperkirakan fungsi berkelanjutan. Awalnya ditetapkan untuk jaringan dengan satu lapisan tersembunyi, teorema ini telah berkembang untuk mencakup arsitektur multi-lapisan, bahkan dengan fungsi aktivasi tidak terbatas seperti unit linier yang diperbaiki (ReLU). Penelitian terbaru telah memperluas teorema ini ke jaringan saraf dalam, mengungkapkan bahwa jaringan dengan lebar terbatas tetapi semakin dalam dapat mendekati fungsi apa pun yang dapat diintegrasikan Lebesgue, dalam kondisi tertentu.

Di sisi lain, interpretasi probabilistik jaringan saraf dalam berasal dari domain pembelajaran mesin. Di sini, konsep seperti inferensi, pelatihan, dan pengujian memainkan peran penting. Nonlinier aktivasi dalam jaringan saraf dianggap sebagai fungsi distribusi kumulatif, yang memfasilitasi kerangka probabilistik untuk memahami perilakunya. Interpretasi ini mengarah pada pengembangan teknik regularisasi seperti dropout, meningkatkan kemampuan generalisasi jaringan saraf.

Sebuah Perjalanan Melalui Evolusi Pembelajaran Mendalam (Deep Learning)

Saat kita memulai perjalanan melalui sejarah kecerdasan buatan, kita akan menemukan evolusi pembelajaran mendalam yang menarik, sebuah landasan teknologi modern. Di dalam sejarahnya, terdapat momen-momen penting dan inovasi terobosan yang telah membentuk lanskap AI seperti yang kita kenal sekarang.

Narasi ini terungkap dengan perbedaan antara feedforward neural networks (FNN) dan recurrent neural networks (RNN). Sementara FNN tidak memiliki siklus dalam struktur konektivitasnya, RNN memilikinya, sehingga membuka jalan bagi arsitektur adaptif. Pada tahun 1920-an, Wilhelm Lenz dan Ernst Ising meletakkan fondasi dengan model Ising, sebuah pendahulu dari RNN yang tidak dapat belajar. Maju cepat ke tahun 1972, Shun'ichi Amari merevolusi arsitektur ini, mendorongnya ke ranah pembelajaran, seperti yang dipopulerkan oleh John Hopfield pada tahun 1982. RNN dengan cepat menjadi sangat diperlukan untuk pengenalan suara dan pemrosesan bahasa.

Karya penting Frank Rosenblatt pada tahun 1960-an memperkenalkan multilayer perceptron (MLP), sebuah pendahulu dari sistem deep learning saat ini. Bersamaan dengan itu, istilah "deep learning" muncul pada tahun 1986, menandai dimulainya era baru. Algoritma terobosan Alexey Ivakhnenko dan Lapa pada tahun 1967 meletakkan dasar untuk MLP yang diawasi, dalam, dan maju ke depan, menyiapkan panggung untuk kemajuan selanjutnya.

Di bidang jaringan saraf konvolusi (CNN), Neocognitron Kunihiko Fukushima pada tahun 1980 mengantarkan era baru untuk visi komputer. Pengenalan fungsi aktivasi rectified linear unit (ReLU) semakin mendorong CNN menjadi sorotan, dan menjadi landasan arsitektur deep learning.

Munculnya backpropagation pada tahun 1970 oleh Seppo Linnainmaa merevolusi pelatihan jaringan saraf, memungkinkan pembelajaran yang efisien melalui perambatan kesalahan. Hal ini membuka jalan bagi kemajuan seperti LSTM (memori jangka pendek yang panjang) oleh Sepp Hochreiter pada tahun 1997, yang mengatasi masalah gradien yang menghilang dan memungkinkan tugas pembelajaran mendalam dengan jalur penugasan yang panjang.

Pergantian milenium menjadi saksi kemunculan jaringan saraf tiruan, memperkenalkan konsep keingintahuan buatan dan meletakkan dasar bagi jaringan saraf tiruan generatif (GAN). Inovasi ini merevolusi pembuatan gambar, membuka jalan bagi aplikasi seperti deepfake.

Di bidang perangkat keras, kemajuan dalam GPU memainkan peran penting, mempercepat pelatihan model pembelajaran mendalam dengan urutan yang sangat besar. "Ledakan besar" deep learning di akhir tahun 2000-an menandai titik balik, mendorong deep learning menjadi arus utama.

Mulai dari melampaui kinerja manusia dalam kontes pengenalan gambar hingga mentransformasi industri seperti perawatan kesehatan dan keuangan, deep learning telah meninggalkan jejak yang tak terhapuskan dalam tatanan masyarakat modern. Saat kami merefleksikan perjalanannya, kami merayakan para visioner dan inovator yang pengejaran pengetahuannya yang tiada henti telah mendorong revolusi deep learning, yang membentuk masa depan kecerdasan buatan.

Pembelajaran Mendalam (Deep Learning): Arti dari Jaringan saraf (Neural networks)

Jaringan Syaraf Tiruan (JST) atau Artificial Neural Networks (ANN) adalah jenis sistem komputasi yang meniru struktur dan fungsi jaringan syaraf biologis dalam otak manusia. Sistem ini dirancang untuk mempelajari dan meningkatkan kinerjanya pada tugas-tugas dengan menganalisis contoh, tanpa perlu pemrograman khusus. JST terdiri dari neuron buatan yang terhubung dengan sinapsis, yang dapat mengirimkan sinyal antar neuron. Neuron dan sinapsis memiliki bobot yang dapat disesuaikan selama pembelajaran untuk memperkuat atau memperlemah sinyal yang dikirimkan. ANN disusun dalam beberapa lapisan, dengan setiap lapisan melakukan jenis transformasi yang berbeda pada data input.

Tujuan awal ANN adalah untuk meniru cara otak manusia memproses informasi, tetapi seiring berjalannya waktu, fokusnya telah bergeser ke kemampuan mental tertentu, yang mengarah pada pengembangan teknik seperti backpropagation. ANN telah diterapkan pada berbagai tugas, termasuk visi komputer, pengenalan suara, penerjemahan mesin, penyaringan jaringan sosial, bermain game, dan diagnosis medis.

Deep Neural Networks (DNN) adalah jenis ANN dengan banyak lapisan antara lapisan input dan output. DNN dapat memodelkan hubungan non-linear yang kompleks dan sangat efektif dalam mengenali pola dalam data. Mereka sering digunakan dalam aplikasi seperti pengenalan gambar, pengenalan suara, dan pemrosesan bahasa alami.

Terlepas dari kesuksesan mereka, ANN dan DNN dapat menghadapi tantangan seperti overfitting, di mana jaringan menjadi terlalu terspesialisasi pada data pelatihan dan berkinerja buruk pada data baru, dan waktu komputasi, di mana jaringan membutuhkan waktu terlalu lama untuk melatih atau membuat prediksi. Untuk mengatasi masalah ini, teknik seperti regularisasi, dropout, dan augmentasi data digunakan untuk mencegah overfitting, serta batching dan pemrosesan paralel digunakan untuk mempercepat komputasi.

Kemajuan Perangkat Keras untuk Pembelajaran Mendalam (Deep Learning)

Dalam beberapa tahun terakhir, perpaduan algoritma pembelajaran mesin dengan perangkat keras komputer telah merevolusi bidang pembelajaran mendalam. Kolaborasi ini telah mengarah pada pengembangan metode yang lebih efisien untuk melatih jaringan saraf dalam, yang ditandai dengan banyaknya lapisan unit tersembunyi non-linier dan lapisan keluaran yang luas. Unit pemrosesan grafis (GPU), yang dilengkapi dengan penyempurnaan khusus AI, telah muncul sebagai perangkat keras pilihan untuk melatih proyek AI cloud komersial berskala besar, melampaui unit pemrosesan pusat (CPU) tradisional. Analisis OpenAI menunjukkan peningkatan eksponensial dalam komputasi perangkat keras, yang menggarisbawahi pesatnya pertumbuhan deep learning.

Untuk lebih mempercepat algoritma pembelajaran mendalam, sirkuit elektronik khusus yang disebut prosesor pembelajaran mendalam telah diperkenalkan. Ini termasuk unit pemrosesan saraf (NPU) yang terintegrasi ke dalam ponsel Huawei dan unit pemrosesan tensor (TPU) yang diterapkan di Google Cloud Platform. Selain itu, Cerebras Systems meluncurkan CS-2, sistem khusus yang memanfaatkan Wafer Scale Engine (WSE-2) generasi kedua untuk menangani model pembelajaran mendalam berukuran besar secara efisien.

Menjelajahi cara-cara inovatif, para peneliti telah mengeksplorasi semikonduktor yang sangat tipis sebagai kandidat potensial untuk perangkat keras pembelajaran mendalam yang hemat energi. Eksperimen yang dilakukan pada tahun 2020 menunjukkan kelayakan penggunaan material saluran aktif area besar untuk perangkat logika-dalam-memori berdasarkan transistor efek medan gerbang mengambang (FGFET), yang menjanjikan operasi logika simultan dan penyimpanan data.

Dalam perkembangan inovatif pada tahun 2021, J. Feldmann dkk. mengusulkan akselerator perangkat keras fotonik terintegrasi yang dirancang untuk pemrosesan konvolusional paralel. Memanfaatkan fotonik terintegrasi, sistem ini menawarkan dua keunggulan berbeda: transfer data paralel besar-besaran melalui multiplexing pembagian panjang gelombang dan sisir frekuensi, serta kecepatan modulasi data yang sangat tinggi. Dengan kapasitas untuk mengeksekusi triliunan operasi yang terakumulasi berkali-kali per detik, fotonik terintegrasi menghadirkan solusi menarik untuk aplikasi AI yang intensif data.

Evolusi perangkat keras dalam pembelajaran mendalam menggarisbawahi upaya tanpa henti untuk mencapai efisiensi dan kecepatan, mendorong inovasi dan terobosan dalam kecerdasan buatan. Ketika para peneliti terus mendorong batas-batas kemajuan teknologi, masa depan memiliki potensi besar untuk optimalisasi lebih lanjut dan peningkatan sistem pembelajaran mendalam melalui inovasi perangkat keras.

Pengaplikasian Pembelajaran Mendalam (Deep Learning) di Berbagai Bidang 

Dalam bidang penemuan ilmiah dan kemajuan teknologi, pembelajaran mendalam telah muncul sebagai kekuatan transformatif, merevolusi cara kita mendekati masalah kompleks di berbagai bidang. Dari penemuan obat-obatan hingga aplikasi militer, dari pencitraan medis hingga deteksi penipuan keuangan, algoritma pembelajaran mendalam telah diterapkan untuk mengatasi beberapa tantangan paling mendesak di zaman kita.

Penemuan obat dan toksikologi, misalnya, telah lama terganggu oleh tingginya tingkat kegagalan calon obat dalam proses persetujuan peraturan. Teknik pembelajaran mendalam menawarkan solusi yang menjanjikan dengan memprediksi target biomolekuler, efek di luar target, dan toksisitas obat-obatan potensial serta bahan kimia lingkungan. Alat seperti AtomNet telah berperan penting dalam perancangan obat yang rasional, mengidentifikasi kandidat biomolekul baru untuk penyakit seperti Ebola dan multiple sclerosis.

Dalam manajemen hubungan pelanggan, pembelajaran penguatan mendalam telah digunakan untuk menilai nilai tindakan pemasaran langsung, meningkatkan strategi untuk retensi dan keterlibatan pelanggan. Demikian pula, sistem rekomendasi memanfaatkan pembelajaran mendalam untuk mengekstrak fitur-fitur bermakna untuk rekomendasi konten yang dipersonalisasi, sehingga meningkatkan pengalaman pengguna di berbagai platform.

Di bidang bioinformatika, model pembelajaran mendalam telah digunakan untuk memprediksi anotasi ontologi gen, hubungan fungsi gen, dan bahkan hasil kesehatan berdasarkan data yang dapat dipakai dan catatan kesehatan elektronik. Aplikasi semacam itu tidak hanya memfasilitasi penelitian medis tetapi juga menjanjikan intervensi layanan kesehatan yang dipersonalisasi.

Selain layanan kesehatan, pembelajaran mendalam telah mencapai kemajuan signifikan di berbagai bidang seperti periklanan seluler, restorasi gambar, deteksi penipuan keuangan, dan ilmu material. Misalnya, dalam bidang ilmu material, sistem AI seperti GNoME telah merevolusi penemuan material baru, mempercepat inovasi, dan mengurangi ketergantungan pada eksperimen manual.

Selain itu, teknik pembelajaran mendalam telah dimanfaatkan untuk memecahkan masalah matematika yang kompleks, termasuk persamaan diferensial parsial dan rekonstruksi gambar. Aplikasi ini menunjukkan keserbagunaan dan efektivitas pembelajaran mendalam di berbagai disiplin ilmu.

Menghubungkan Perkembangan Otak dengan Model Komputasi 

Inti dari teori perkembangan dan sistem pembelajaran mendalam terletak pada konsep pengorganisasian diri. Sama seperti otak bayi yang mengatur dirinya sendiri di bawah pengaruh berbagai faktor, model pembelajaran mendalam menggunakan filter berlapis hierarki untuk memproses informasi dan beradaptasi dengan lingkungannya.

  • Menyelidiki Kemungkinan Neurobiologis:

Para peneliti telah mengeksplorasi kemungkinan neurobiologis model pembelajaran mendalam melalui berbagai pendekatan. Meskipun beberapa pihak berfokus pada penyempurnaan algoritme seperti propagasi mundur untuk meningkatkan realisme pemrosesan, pihak lain berpendapat bahwa metode pembelajaran tanpa pengawasan mungkin lebih mencerminkan proses biologis.

  • Analogi dengan Fungsi Otak Manusia:

Meskipun perbandingan sistematis antara jaringan dalam dan organisasi otak manusia sedang berlangsung, beberapa analogi yang mencolok telah dicatat. Komputasi yang dilakukan oleh unit pembelajaran mendalam memiliki kemiripan dengan neuron sebenarnya, dan representasi yang dikembangkan oleh model ini selaras dengan yang diamati dalam sistem visual primata.

Aplikasi Komersial Pembelajaran Mendalam

  • Lab AI Facebook:

Facebook menggunakan algoritme pembelajaran mendalam untuk secara otomatis menandai gambar yang diunggah dengan nama individu, menunjukkan penerapan praktis teknologi ini di platform media sosial.

  • Pikiran Dalam Google:

DeepMind Technologies, anak perusahaan Google, telah mengembangkan sistem canggih yang mampu mempelajari tugas-tugas kompleks, seperti bermain video game Atari dan menguasai permainan kuno Go, yang menunjukkan keserbagunaan pembelajaran mendalam dalam memecahkan beragam tantangan.

  • Kovarian.ai:

Covariant.ai berfokus pada pengintegrasian pembelajaran mendalam ke dalam operasi pabrik, menyoroti potensinya untuk meningkatkan efisiensi dan otomatisasi di lingkungan industri.

  • Inovasi dalam Robotika:

Kolaborasi penelitian seperti Deep TAMER, kolaborasi antara Laboratorium Penelitian Angkatan Darat A.S. dan Universitas Texas di Austin, memanfaatkan pembelajaran mendalam yang memungkinkan robot mempelajari tugas-tugas baru melalui observasi dan interaksi manusia.

Kritik dan Komentar tentang Pembelajaran Mendalam

  • Validasi Teori dan Empiris:

Kritikus berpendapat bahwa metode pembelajaran mendalam tidak memiliki landasan teori yang komprehensif, sehingga sangat bergantung pada validasi empiris daripada kerangka teori yang ketat.

  • Keterbatasan dan Mewujudkan AI yang Kuat:

Pembelajaran mendalam, meskipun bermanfaat, dipandang sebagai batu loncatan untuk mencapai AI yang kuat. Ia masih kekurangan kemampuan untuk merepresentasikan hubungan sebab akibat, melakukan inferensi logis, dan mengintegrasikan pengetahuan abstrak yang penting untuk kecerdasan umum buatan yang sebenarnya.

  • Tantangan dan Pertimbangan Etis:

Permasalahan seperti perilaku bermasalah dalam arsitektur pembelajaran mendalam, kerentanan terhadap ancaman dunia maya, dan kekhawatiran etika terkait pengumpulan data menggarisbawahi perlunya evaluasi kritis dan penerapan teknologi ini secara bertanggung jawab.


Disadur dari: en.wikipedia.org

 

Selengkapnya
Pembelajaran Mendalam (Deep Learning): Tinjauan Komprehensif

Teknik Industri

Kekuatan Pembelajaran Aturan Asosiasi (Association Rule Learning)

Dipublikasikan oleh Muhammad Ilham Maulana pada 03 April 2024


Pembelajaran aturan asosiasi, yang merupakan landasan pembelajaran mesin, menawarkan metode berharga untuk mengungkap hubungan bermakna antar variabel dalam database yang luas. Dengan memanfaatkan ukuran ketertarikan, pendekatan ini bertujuan untuk mengidentifikasi aturan kuat yang menjelaskan hubungan antar item dalam transaksi.

Berasal dari karya Rakesh Agrawal, Tomasz ImieliÅ„ski, dan Arun Swami, aturan asosiasi awalnya dirancang untuk mengungkap pola data transaksi skala besar yang dikumpulkan oleh sistem point-of-sale (POS) di supermarket. Misalnya, aturan seperti "bawang bombay, kentang ⇒ burger" yang diambil dari data penjualan supermarket menunjukkan bahwa pelanggan yang membeli bawang bombay dan kentang secara bersamaan kemungkinan besar juga akan membeli daging hamburger. Wawasan tersebut sangat berharga untuk memandu strategi pemasaran, memberikan informasi dalam pengambilan keputusan mengenai harga promosi, dan mengoptimalkan penempatan produk.

Selain analisis keranjang pasar, aturan asosiasi dapat diterapkan di berbagai bidang seperti penambangan penggunaan web, deteksi intrusi, produksi berkelanjutan, dan bioinformatika. Berbeda dengan sequence mining, pembelajaran aturan asosiasi tidak memprioritaskan urutan item di dalam atau di seluruh transaksi, melainkan berfokus pada mengidentifikasi asosiasi yang signifikan.

Meskipun pembelajaran aturan asosiasi menawarkan potensi besar untuk mengungkap wawasan, kompleksitas algoritme dan parameternya dapat menimbulkan tantangan bagi individu yang tidak memiliki keahlian dalam penambangan data. Memahami dan menafsirkan banyaknya aturan yang dihasilkan oleh algoritme ini dapat menjadi hal yang sulit tanpa pengetahuan khusus.

Definisi Pembelajaran Aturan Asosiasi

Penambangan aturan asosiasi, sebagaimana yang didefinisikan awal oleh Agrawal, Imieliński, dan Swami, memasuki ranah mengungkapkan hubungan bermakna dalam kumpulan data. Pada intinya, metode ini bertujuan untuk mengidentifikasi pola jika-maka antara berbagai item, memberikan wawasan berharga tentang asosiasi yang ada dalam data transaksional.

Pada dasarnya, penambangan aturan asosiasi dimulai dengan seperangkat atribut biner, disebut sebagai item, yang ditunjukkan sebagai {\displaystyle I=\{i_{1},i_{2},\ldots ,i_{n}\}}. Item-item ini mewakili fitur atau karakteristik yang sedang diteliti dalam kumpulan data. Selanjutnya, basis data {\displaystyle D=\{t_{1},t_{2},\ldots ,t_{m}\}} yang terdiri dari transaksi dibentuk, di mana setiap transaksi berisi identifikasi unik dan subset item dari I.

Aturan dalam konteks penambangan aturan asosiasi digambarkan sebagai implikasi dalam bentuk {\displaystyle X\Rightarrow Y}, di mana X dan Y mewakili subset item dari I. Patut dicatat, sesuai dengan definisi oleh Agrawal, Imieliński, dan Swami, sebuah aturan dibentuk antara sebuah set dan satu item tunggal, dilambangkan sebagai {\displaystyle X\Rightarrow i_{j}}​, di mana {\displaystyle i_{j}\in I}.

Setiap aturan terdiri dari dua set item yang berbeda yang dikenal sebagai itemset: bagian pendahuluan (atau sisi kiri, LHS) dilambangkan sebagai X dan konsekuensi (atau sisi kanan, RHS) dilambangkan sebagai Y. Pendahuluan mewakili item yang ditemukan dalam dataset, sementara konsekuensi menandakan item yang ditemukan ketika digabungkan dengan pendahuluan. Diterjemahkan sebagai "jika X maka Y," pernyataan ini menyiratkan bahwa setiap kali pendahuluan X terjadi dalam dataset, konsekuensi Y kemungkinan akan mengikuti.

Proses:
Aturan asosiasi berasal dari kumpulan item, dibuat dengan menganalisis transaksi untuk pola yang sering terjadi. Proses ini melibatkan penentuan Support (frekuensi kemunculan item) dan Confidence (kemungkinan kebenaran aturan). Metrik lainnya, Peningkatan, membandingkan Keyakinan yang diharapkan dan aktual untuk mengukur signifikansi aturan.

Aplikasi:
Penambangan aturan asosiasi dapat diterapkan di berbagai bidang seperti analisis keranjang pasar, prediksi perilaku pelanggan, dan diagnosis medis. Dengan mengungkap korelasi dan kejadian bersama antar kumpulan data, hal ini membantu dalam pengambilan keputusan dan pengenalan pola, seperti yang terlihat dalam dunia kedokteran yang membantu dokter mendiagnosis pasien dengan menganalisis hubungan gejala.

Tantangan:
Meskipun aturan asosiasi menawarkan wawasan, tantangannya mencakup penyesuaian parameter dan relevansi aturan. Menetapkan ambang batas yang tepat untuk Dukungan dan Keyakinan sangatlah penting, karena terlalu banyak aturan dapat mengurangi kinerja dan kemampuan interpretasi algoritma. Kurangnya pemahaman tentang konsep data mining dapat semakin mempersulit analisis.

Ambang batas:
Ambang batas Dukungan dan Keyakinan sangat penting dalam pembuatan aturan, memastikan pemilihan asosiasi yang bermakna. Dengan menetapkan ambang batas minimum, hanya kumpulan item signifikan yang dipertimbangkan, sehingga meningkatkan relevansi aturan yang ditemukan. Interaksi antara Dukungan dan Keyakinan membantu mengidentifikasi korelasi yang kuat dalam kumpulan data.

Konsep Berguna:
Dukungan mengkuantifikasi frekuensi itemset, sementara Confidence mengukur keakuratan aturan. Lift menilai signifikansi aturan relatif terhadap independensi, sementara Conviction mengevaluasi tingkat kesalahan prediksi aturan. Berbagai ukuran ketertarikan melengkapi Keyakinan, membantu dalam pemilihan aturan.

Algoritma:
Beberapa algoritma memfasilitasi penambangan aturan asosiasi, termasuk Apriori, Eclat, dan FP-Growth. Algoritme ini menggunakan strategi yang berbeda, seperti pembuatan kandidat dan struktur berbasis pohon, untuk mengidentifikasi kumpulan item yang sering digunakan secara efisien dan menghasilkan aturan yang bermakna.

Diagram alir kontrol untuk algoritma Apriori

Jenis lain dari Penambangan Aturan Asosiasi

Penambangan aturan asosiasi adalah teknik penambangan data yang populer yang digunakan untuk mengidentifikasi hubungan antara item dalam kumpulan data yang besar. Salah satu cerita yang paling terkenal tentang association rule mining adalah cerita "bir dan popok", yang merupakan sebuah survei yang dilakukan terhadap para pembeli supermarket yang cenderung membeli popok dan bir secara bersamaan. Namun, kebenaran dari cerita ini masih diperdebatkan, dan sering digunakan sebagai contoh bagaimana asosiasi yang tidak terduga dapat ditemukan dalam data sehari-hari.

Ada beberapa jenis association rule mining, termasuk:

 

  • Aturan Asosiasi Multi-Relasi (MRAR): Aturan-aturan ini melibatkan hubungan tidak langsung antar entitas, seperti "mereka yang tinggal di tempat yang dekat dengan kota yang memiliki tipe iklim lembab dan juga berusia di bawah 20 tahun, maka kondisi kesehatannya baik."
  • Pembelajaran himpunan kontras: Bentuk pembelajaran asosiatif ini menggunakan aturan yang berbeda secara bermakna dalam distribusinya di seluruh himpunan bagian.
  • Pembelajaran kelas berbobot: Jenis pembelajaran asosiatif ini memberikan bobot pada kelas-kelas untuk memberikan fokus pada masalah tertentu yang menjadi perhatian konsumen dari hasil penggalian data.
  • Penemuan pola tingkat tinggi: Teknik ini memfasilitasi penangkapan pola tingkat tinggi atau asosiasi peristiwa yang bersifat intrinsik pada data dunia nyata yang kompleks.
  • Penemuan pola K-optimal: Sebuah alternatif dari pendekatan standar untuk pembelajaran aturan asosiasi, yang mengharuskan setiap pola sering muncul dalam data.
  • Perkiraan penambangan Frequent Itemset: Versi santai dari penambangan Frequent Itemset yang memungkinkan beberapa item di beberapa baris menjadi 0.
  • Taksonomi hirarki Generalized Association Rules (hirarki konsep): Jenis penambangan aturan asosiasi ini menggunakan taksonomi hirarkis untuk mengidentifikasi hubungan antar item.
  • Aturan Asosiasi Kuantitatif: Metode ini digunakan untuk data kategorikal dan kuantitatif.
  • Aturan Asosiasi Data Interval: Metode ini melibatkan partisi data ke dalam interval, seperti rentang usia.
  • Penambangan pola berurutan: Teknik ini menemukan urutan yang umum terjadi pada lebih dari minsup (ambang batas dukungan minimum) urutan dalam basis data urutan, di mana minsup ditetapkan oleh pengguna.
  • Pengelompokan Subruang: Jenis khusus pengelompokan data berdimensi tinggi, berdasarkan properti penutupan ke bawah untuk model pengelompokan tertentu.
  • Warmr: Alat yang memungkinkan pembelajaran aturan asosiasi untuk aturan relasional tingkat pertama.


Disadur dari: en.wikipedia.org

Selengkapnya
Kekuatan Pembelajaran Aturan Asosiasi (Association Rule Learning)

Teknik Industri

Pembelajaran Kamus Jarang(Sparse Dictionary Learning): Mengungkap Kekuatan Penemuan Representasi

Dipublikasikan oleh Muhammad Ilham Maulana pada 03 April 2024


Pembelajaran kamus jarang (Sparse Dictionary Learning), juga dikenal sebagai pengkodean jarang atau SDL, adalah teknik yang dirancang untuk mengungkap representasi data masukan yang jarang dengan mengekspresikannya sebagai kombinasi linier dari elemen dasar yang dikenal sebagai atom. Atom-atom ini membentuk sebuah kamus dan tidak harus ortogonal, sehingga memungkinkan untuk mendapatkan rangkaian rentang yang lebih lengkap. Pengaturan ini memungkinkan representasi sinyal dalam dimensi yang lebih tinggi daripada yang diamati, yang mengarah ke atom-atom yang tampaknya berlebihan yang meningkatkan kelangkaan dan fleksibilitas.

Metode ini menemukan aplikasi yang signifikan dalam penginderaan terkompresi atau pemulihan sinyal, di mana sinyal dimensi tinggi dapat direkonstruksi dari beberapa pengukuran linier, asalkan sinyal menunjukkan sparsitas. Berbagai algoritme, seperti basis pursuit dan CoSaMP, membantu dalam pemulihan sinyal setelah diubah menjadi ruang yang jarang menggunakan teknik seperti transformasi wavelet.

Inti dari pembelajaran kamus jarang adalah inferensi kamus dari data masukan itu sendiri. Tidak seperti pendekatan tradisional yang menggunakan kamus yang sudah ditentukan sebelumnya seperti Fourier atau transformasi wavelet, kamus yang dipelajari secara signifikan meningkatkan sparsitas, menemukan aplikasi dalam dekomposisi, kompresi, dan analisis data. Pendekatan ini sangat efektif dalam denoising gambar, klasifikasi, serta pemrosesan video dan audio, dengan aplikasi yang luas dalam kompresi gambar, fusi, dan inpainting.

Dalam bidang pembelajaran mesin, pembelajaran kamus renggang telah muncul sebagai teknik ampuh untuk merepresentasikan data secara ringkas dan efisien. Pendekatan ini bertujuan untuk menemukan kamus D dan representasi R sehingga data masukan X dapat direkonstruksi secara akurat sebagai produk dari D dan R, sekaligus memastikan bahwa representasi R jarang, artinya memiliki sedikit entri bukan nol.

Permasalahan tersebut dapat dirumuskan sebagai masalah optimasi berikut:

argmin {\displaystyle {\underset {\mathbf {D} \in {\mathcal {C}},r_{i}\in \mathbb {R} ^{n}}{\text{argmin}}}\sum _{i=1}^{K}\|x_{i}-\mathbf {D} r_{i}\|_{2}^{2}+\lambda \|r_{i}\|_{0}}

dimana {\displaystyle {\mathcal {C}}\equiv \{\mathbf {D} \in \mathbb {R} ^{d\times n}:\|d_{i}\|_{2}\leq 1\,\,\forall i=1,...,n\}}

Di sini, tujuannya adalah untuk meminimalkan kesalahan rekonstruksi sambil meningkatkan ketersebaran dalam representasi ri melalui "norma" â„“0. Himpunan C membatasi kamus D untuk mencegah atom-atomnya mencapai nilai tinggi yang sewenang-wenang.

Pembelajaran kamus renggang menawarkan beberapa keunggulan dibandingkan metode tradisional. Kamus yang terlalu lengkap, yang jumlah atomnya melebihi dimensi data masukan, memungkinkan representasi yang lebih kaya dan fleksibel. Selain itu, kamus yang dipelajari dapat menghasilkan solusi yang lebih jarang dibandingkan dengan matriks transformasi yang telah ditentukan sebelumnya seperti wavelet atau transformasi Fourier.

Berbagai algoritma telah dikembangkan untuk mengatasi masalah optimasi ini, antara lain Method of Optimal Directions (MOD), K-SVD, Stochastic Gradient Descent, Lagrange Dual Method, dan LASSO. Masing-masing pendekatan memiliki kekuatan dan kelemahannya, beberapa pendekatan lebih efisien untuk data berdimensi rendah sementara pendekatan lain dapat menangani skenario berdimensi tinggi.

Selain itu, teknik pembelajaran kamus online telah diusulkan untuk mengatasi skenario di mana data masukan terlalu besar untuk dimasukkan ke dalam memori atau diterima sebagai aliran. Metode ini memperbarui kamus secara berulang saat data baru tersedia, mengurangi kebutuhan memori dan memungkinkan pembelajaran representasi renggang yang efisien.

Pembelajaran kamus renggang telah diterapkan di berbagai domain, termasuk pemrosesan gambar dan sinyal, visi komputer, dan pembelajaran mesin. Dengan memberikan representasi data yang ringkas dan informatif, ini dapat meningkatkan kinerja tugas-tugas seperti klasifikasi, denoising, dan kompresi.

Seiring dengan berkembangnya bidang pembelajaran mesin, pembelajaran kamus renggang tetap menjadi alat yang ampuh dalam upaya representasi data yang efisien dan efektif, membuka jalan bagi aplikasi yang lebih maju dan canggih.

Aplikasi dalam Pembelajaran Kamus Jarang

Pembelajaran kamus jarang, sebuah teknik yang ampuh dalam pemrosesan sinyal, telah merevolusi berbagai tugas pemrosesan gambar dan video dengan menguraikan sinyal input menjadi beberapa elemen dasar yang dipelajari. Pendekatan inovatif ini memungkinkan hasil yang canggih, khususnya dalam masalah klasifikasi. Dengan membangun kamus khusus untuk setiap kelas, pembelajaran kamus jarang memungkinkan klasifikasi sinyal input berdasarkan representasi yang paling jarang.

Selain itu, pembelajaran kamus jarang menawarkan properti yang berharga untuk denoising sinyal. Dengan mempelajari kamus yang merepresentasikan bagian yang bermakna dari sinyal input secara jarang, noise pada input dapat secara efektif dibedakan, karena biasanya menunjukkan representasi yang lebih jarang.

Aplikasi pembelajaran kamus yang jarang meluas ke berbagai domain, termasuk pemrosesan gambar, video, dan audio, serta sintesis tekstur dan pengelompokan tanpa pengawasan. Evaluasi empiris dengan model Bag-of-Words telah menyoroti keunggulan pengkodean jarang dibandingkan pendekatan lain, terutama dalam tugas pengenalan kategori objek.

Selain dampaknya dalam pemrosesan gambar dan video, pembelajaran kamus memainkan peran penting dalam analisis sinyal medis. Sinyal medis, mulai dari elektroensefalografi (EEG) dan elektrokardiografi (EKG) hingga pencitraan resonansi magnetik (MRI) dan tomografi komputer ultrasound (USCT), mendapat manfaat dari analisis khusus yang dimungkinkan oleh teknik pembelajaran kamus jarang.


Disadur dari: en.wikipedia.org

Selengkapnya
Pembelajaran Kamus Jarang(Sparse Dictionary Learning): Mengungkap Kekuatan Penemuan Representasi

Teknik Industri

Pembelajaran Representasi: Mengungkap Fitur Dari Data Mentah Secara Otomatis

Dipublikasikan oleh Muhammad Ilham Maulana pada 03 April 2024


Dalam ranah pembelajaran mesin yang terus berkembang, salah satu teknik yang telah mendapatkan daya tarik yang signifikan adalah pembelajaran representasi, yang juga dikenal sebagai pembelajaran fitur. Pendekatan ini memberdayakan sistem untuk secara otomatis menemukan representasi yang diperlukan untuk tugas-tugas seperti deteksi fitur atau klasifikasi, langsung dari data mentah. Dengan menghindari kebutuhan untuk rekayasa fitur secara manual, pembelajaran representasi memungkinkan mesin untuk tidak hanya mempelajari fitur tetapi juga memanfaatkannya untuk melakukan tugas-tugas tertentu secara efektif.

Motivasi di balik pembelajaran representasi berasal dari fakta bahwa banyak tugas pembelajaran mesin, seperti klasifikasi, sering kali membutuhkan data input dalam format yang mudah dikomputasi. Namun, sumber data dunia nyata seperti gambar, video, dan data sensor telah terbukti sulit untuk diproses secara algoritmik dengan fitur-fitur tertentu yang telah ditentukan sebelumnya. Pembelajaran representasi menawarkan solusi alternatif dengan memungkinkan penemuan fitur atau representasi tersebut melalui pemeriksaan, tanpa bergantung pada algoritme eksplisit.

Pembelajaran representasi dapat dibagi menjadi tiga kategori utama: terawasi, tidak terawasi, dan mandiri. Dalam pembelajaran representasi yang diawasi, fitur-fitur dipelajari dari data input yang diberi label, memanfaatkan label kebenaran dasar untuk menghasilkan representasi yang akurat. Pembelajaran representasi tanpa pengawasan, di sisi lain, mempelajari fitur dari data yang tidak berlabel dengan menganalisis hubungan antara titik data dalam kumpulan data. Pembelajaran representasi yang diawasi sendiri mengambil pendekatan yang unik dengan membangun pasangan input-label dari setiap titik data, memungkinkan pembelajaran struktur data melalui metode yang diawasi seperti gradient descent, meskipun tidak ada label eksplisit.

Berbagai teknik telah dikembangkan untuk setiap kategori pembelajaran representasi. Pendekatan yang diawasi meliputi pembelajaran kamus, yang merepresentasikan titik data sebagai jumlah tertimbang dari elemen representatif, dan jaringan saraf, yang mempelajari representasi pada lapisan tersembunyi untuk tugas klasifikasi atau regresi selanjutnya. Metode tanpa pengawasan mencakup teknik-teknik seperti pengelompokan K-means, analisis komponen utama (PCA), dan analisis komponen independen (ICA). Selain itu, arsitektur pembelajaran yang mendalam seperti mesin Boltzmann terbatas (RBM) dan pembuat enkode otomatis telah terbukti efektif untuk pembelajaran representasi tanpa pengawasan.

Dalam ranah pembelajaran representasi yang diawasi sendiri, teknik-teknik seperti penyematan kata (misalnya, Word2vec dan BERT) telah mencapai kesuksesan yang luar biasa dalam data teks, sementara metode-metode seperti pembelajaran kontrastif dan pendekatan generatif telah diterapkan pada data gambar, video, audio, dan bahkan data multimodal.

Kekuatan pembelajaran representasi terletak pada kemampuannya untuk secara otomatis mengekstrak fitur-fitur berharga dari data mentah, membuka jalan untuk meningkatkan efisiensi, fleksibilitas, dan penemuan wawasan. Seiring dengan terus berkembangnya bidang ini, pembelajaran representasi memiliki potensi untuk mendorong kemajuan terobosan dalam kecerdasan buatan dan pembelajaran mesin, mendorong pemahaman yang lebih dalam tentang data yang kompleks dan memungkinkan proses pengambilan keputusan yang lebih canggih.


Disadur dari: en.wikipedia.org

Selengkapnya
Pembelajaran Representasi: Mengungkap Fitur Dari Data Mentah Secara Otomatis

Teknik Industri

Mempelajari Perilaku Optimal dengan Reinforcement Learning

Dipublikasikan oleh Muhammad Ilham Maulana pada 03 April 2024


Reinforcement learning (RL) adalah area interdisipliner dalam pembelajaran mesin dan kontrol optimal yang berfokus pada bagaimana agen cerdas seharusnya mengambil tindakan dalam lingkungan dinamis untuk memaksimalkan penghargaan (reward) kumulatif. Reinforcement learning merupakan salah satu dari tiga paradigma utama pembelajaran mesin, bersama dengan pembelajaran terbimbing (supervised learning) dan pembelajaran tanpa pengawasan (unsupervised learning).

Berbeda dengan pembelajaran terbimbing, Reinforcement Learning tidak memerlukan pasangan input/output berlabel untuk dihadirkan, dan tidak memerlukan tindakan suboptimal untuk dikoreksi secara eksplisit. Fokusnya adalah menemukan keseimbangan antara eksplorasi (wilayah yang belum dipetakan) dan eksploitasi (pengetahuan saat ini) dengan tujuan memaksimalkan penghargaan jangka panjang, yang mungkin memiliki umpan balik yang tidak lengkap atau tertunda.

Lingkungan Reinforcement Learning biasanya dinyatakan dalam bentuk Markov Decision Process (MDP), karena banyak algoritma Reinforcement Learning untuk konteks ini menggunakan teknik pemrograman dinamis. Perbedaan utama antara metode pemrograman dinamis klasik dan algoritma Reinforcement Learning adalah bahwa yang terakhir tidak mengasumsikan pengetahuan model matematika yang tepat dari MDP dan menargetkan MDP besar di mana metode yang tepat menjadi tidak layak.

Reinforcement Learning diaplikasikan secara sukses pada berbagai masalah, termasuk operasi penyimpanan energi, kontrol robot, pengiriman generator fotovoltaik, permainan papan seperti backgammon, catur, Go (AlphaGo), dan sistem mengemudi otonom. Dua elemen yang membuat Reinforcement Learning powerful adalah penggunaan sampel untuk mengoptimalkan kinerja dan penggunaan pendekatan fungsi untuk menangani lingkungan besar.

Kerangka umum skenario Reinforcement Learning (RL): seorang agen mengambil tindakan dalam suatu lingkungan, yang diinterpretasikan menjadi hadiah dan representasi negara, yang kemudian dimasukkan kembali ke dalam agen.

Dalam RL, dilema eksplorasi vs eksploitasi telah dipelajari secara mendalam, terutama melalui masalah multi-armed bandit dan untuk ruang keadaan hingga MDP. Reinforcement Learning memerlukan mekanisme eksplorasi yang cerdik, karena memilih tindakan secara acak tanpa mempertimbangkan distribusi probabilitas yang diperkirakan menunjukkan kinerja yang buruk. Metode seperti ε-greedy digunakan untuk keseimbangan eksplorasi-eksploitasi, di mana dengan probabilitas 1-ε, eksploitasi dipilih (tindakan yang diyakini terbaik), dan dengan probabilitas ε, eksplorasi dipilih (tindakan dipilih secara acak).

Reinforcement Learning menawarkan pendekatan yang menarik untuk mempelajari perilaku optimal dalam lingkungan yang dinamis dan kompleks, di mana penghargaan jangka panjang harus dipertimbangkan. Dengan kemampuannya dalam mengoptimalkan kinerja dari sampel dan menangani lingkungan besar melalui pendekatan fungsi, Reinforcement Learning terus menjadi area penelitian yang penting dalam kecerdasan buatan dan memiliki banyak aplikasi praktis dalam berbagai domain.

Algoritma untuk Kontrol Pembelajaran 

Dalam ranah pembelajaran mesin, khususnya dalam konteks kontrol, algoritme memainkan peran penting dalam menguraikan tindakan terbaik untuk memaksimalkan imbalan kumulatif. Bahkan ketika kita mengasumsikan bahwa keadaan tersebut dapat diamati, tantangannya terletak pada pemanfaatan pengalaman masa lalu untuk menentukan tindakan mana yang menghasilkan imbalan yang lebih tinggi dari waktu ke waktu.

  • Optimalitas: Jalan Menuju Efisiensi

Inti dari pembelajaran kontrol terletak pada gagasan optimalitas, di mana proses pengambilan keputusan agen dirangkum dalam sebuah kebijakan. Sebuah kebijakan berfungsi sebagai peta yang menentukan probabilitas pemilihan tindakan tertentu dalam keadaan tertentu. Melalui kebijakan, kita menavigasi lanskap tindakan dan keadaan yang kompleks untuk mengoptimalkan imbalan.

  • Fungsi Nilai-Negara: Mengukur Kelayakan

Untuk mengukur nilai dari berada dalam kondisi tertentu, kami menggunakan fungsi nilai keadaan. Fungsi ini memperkirakan pengembalian diskonto yang diharapkan mulai dari keadaan tertentu dan mengikuti kebijakan yang ditentukan. Pada dasarnya, fungsi ini memberikan wawasan tentang seberapa menguntungkan suatu keadaan dalam hal mencapai hasil yang diinginkan.

  • Pencarian Efisiensi: Brute Force dan Selanjutnya

Perjalanan menuju kebijakan yang optimal sering kali dimulai dengan metode brute force, di mana kami dengan cermat mengeksplorasi berbagai kebijakan dan sampel pengembalian untuk melihat jalur yang paling bermanfaat. Namun, banyaknya jumlah kebijakan potensial ditambah dengan varians dalam pengembalian menimbulkan tantangan yang signifikan.

  • Pendekatan Fungsi Nilai: Menavigasi Medan

Pendekatan fungsi nilai menawarkan kerangka kerja terstruktur untuk menavigasi lanskap kebijakan. Dengan mempertahankan estimasi imbal hasil yang diharapkan, metode-metode ini berusaha mengidentifikasi jalur yang paling menjanjikan untuk memaksimalkan imbalan. Melalui iterasi dan penyempurnaan, metode-metode ini semakin mendekati solusi yang optimal.

  • Metode Perbedaan Temporal: Belajar dari Pengalaman

Metode perbedaan temporal, yang berakar pada persamaan Bellman rekursif, menawarkan pendekatan yang bernuansa belajar dari pengalaman. Dengan memadukan wawasan dari transisi masa lalu dengan prediksi ke depan, metode ini mengadaptasi dan menyempurnakan kebijakan dari waktu ke waktu, mengurangi dampak dari pengembalian yang berisik.

  • Perkiraan Fungsi: Menjembatani Kesenjangan

Metode pendekatan fungsi menjembatani kesenjangan antara teori dan praktik dengan memanfaatkan pemetaan linier untuk memperkirakan nilai tindakan. Metode-metode ini menawarkan skalabilitas dan efisiensi, sehingga sangat berharga dalam menangani ruang aksi-negara yang besar.

  • Pencarian Kebijakan Langsung: Menelusuri Ruang Kebijakan

Metode pencarian kebijakan langsung menghindari pendekatan fungsi nilai tradisional dan lebih memilih untuk menjelajahi ruang kebijakan secara langsung. Dengan memanfaatkan teknik berbasis gradien atau bebas gradien, metode-metode ini menawarkan perangkat serbaguna untuk menavigasi lanskap keputusan yang kompleks.

  • Algoritme Berbasis Model: Memanfaatkan Kekuatan Prediksi

Algoritme berbasis model memanfaatkan model prediktif dari proses pengambilan keputusan untuk meningkatkan efisiensi pembelajaran. Dengan menyempurnakan model-model ini secara berulang, mereka menawarkan kerangka kerja terstruktur untuk memperbarui perilaku dan mengoptimalkan hasil.

Teori Algoritme Pembelajaran Kontrol yang Efisien

Dalam mengejar algoritme pembelajaran kontrol yang efisien, memahami interaksi antara eksplorasi, eksploitasi, dan penyempurnaan kebijakan adalah hal yang terpenting. Ketika kita mengungkap seluk-beluk pengambilan keputusan di lingkungan yang dinamis, algoritme ini berfungsi sebagai suar pemandu, menerangi jalan menuju strategi kontrol yang optimal.


Disadur dari: en.wikipedia.org 

Selengkapnya
Mempelajari Perilaku Optimal dengan Reinforcement Learning

Teknik Industri

Mengoptimalkan Pembelajaran dengan Weak Supervision (Pengawasan Lemah)

Dipublikasikan oleh Muhammad Ilham Maulana pada 03 April 2024


Dalam dunia pembelajaran mesin, adakalanya kita dihadapkan pada situasi di mana tidak semua data memiliki label. Inilah yang menjadi tantangan dalam paradigma pembelajaran tanpa pengawasan (unsupervised learning). Namun, dengan munculnya model bahasa besar, kebutuhan akan data berlabel dalam jumlah besar menjadi semakin tinggi. Di sinilah peran weak supervision (pengawasan lemah) menjadi relevan.

Weak supervision merupakan paradigma pembelajaran mesin yang mengombinasikan sedikit data berlabel (yang biasanya digunakan dalam pembelajaran terbimbing/supervised learning) dengan sejumlah besar data tidak berlabel (yang biasanya digunakan dalam pembelajaran tanpa pengawasan/unsupervised learning). Dengan kata lain, nilai output yang diinginkan hanya diberikan untuk sebagian dari data pelatihan. Sisa datanya tidak berlabel atau berlabel secara tidak tepat.


Kecenderungan suatu tugas menggunakan metode yang diawasi vs. tidak diawasi. Nama tugas yang mengangkangi batas lingkaran memang disengaja. Hal ini menunjukkan bahwa pembagian tugas imajinatif klasik (kiri) yang menggunakan metode tanpa pengawasan tidak jelas dalam skema pembelajaran saat ini.

Secara intuitif, weak supervision dapat diibaratkan seperti ujian, di mana data berlabel bertindak sebagai contoh soal yang dijawab oleh guru untuk membantu siswa menyelesaikan soal-soal lain yang belum terjawab (data tidak berlabel). Dalam pengaturan transduktif, soal-soal yang belum terjawab ini bertindak sebagai soal ujian. Sedangkan dalam pengaturan induktif, mereka menjadi soal-soal latihan yang akan membentuk ujian.

Teknis, weak supervision dapat dilihat sebagai melakukan pengelompokan (clustering) dan kemudian memberi label pada kelompok-kelompok tersebut dengan data berlabel, mendorong batas keputusan (decision boundary) menjauh dari wilayah dengan densitas tinggi, atau mempelajari manifold satu dimensi di mana data berada.

Asumsi yang digunakan dalam weak supervision antara lain:

  1. Asumsi kontinuitas/kelancaran: Titik-titik yang berdekatan cenderung memiliki label yang sama.
  2. Asumsi kelompok: Data cenderung membentuk kelompok-kelompok diskrit, dan titik dalam kelompok yang sama cenderung memiliki label yang sama.
  3. Asumsi manifold: Data terletak pada manifold dengan dimensi yang jauh lebih rendah daripada ruang input.

Metode 

Beberapa metode yang digunakan dalam weak supervision meliputi model generatif, separasi densitas rendah, regularisasi Laplacian, dan pendekatan heuristik seperti self-training dan co-training.

  • Generative Models:

Salah satu pendekatan utama dalam semi-supervised learning adalah menggunakan model generatif. Model ini berusaha untuk memahami distribusi data dari masing-masing kelas. Dengan menggunakan aturan Bayes, probabilitas bahwa suatu data tertentu memiliki label tertentu adalah proporsional terhadap distribusi tersebut. Model generatif ini mengasumsikan distribusi tertentu yang dapat diatur oleh parameter tertentu. Namun, jika asumsi-asumsi tersebut tidak tepat, data yang tidak terlabel dapat mengurangi akurasi solusi, meskipun jika asumsi tersebut benar, data yang tidak terlabel dapat meningkatkan kinerja model.

  • Low-Density Separation:

Metode lain yang umum digunakan adalah pemisahan low-density. Salah satu algoritma yang populer adalah Transductive Support Vector Machine (TSVM), yang bertujuan untuk memisahkan data yang tidak terlabel dengan tepat. TSVM memilih batas keputusan yang memiliki margin maksimal terhadap semua data. Selain itu, pendekatan lain seperti Gaussian process models, information regularization, dan entropy minimization juga digunakan dalam konteks ini.

  • Laplacian Regularization:

Regulasi Laplacian juga merupakan metode yang umum digunakan dalam semi-supervised learning. Metode ini menggunakan representasi grafik dari data, dimana setiap titik data dihubungkan dengan tetangganya. Tujuannya adalah untuk memaksimalkan kehalusan solusi relatif terhadap manifold data. Graph Laplacian digunakan untuk mendekati regulasi intrinsik.

  • Heuristic Approaches:

Beberapa metode dalam semi-supervised learning tidak secara intrinsik dirancang untuk memanfaatkan data yang tidak terlabel, melainkan menggunakan data tersebut dalam kerangka pembelajaran yang terawasi. Salah satunya adalah self-training, dimana model pertama kali dilatih dengan data terlabel, lalu diterapkan pada data yang tidak terlabel untuk menghasilkan lebih banyak data terlabel. Metode lainnya adalah co-training, yang melibatkan beberapa klasifikasi yang dilatih pada fitur yang berbeda.

Solusi Weak supervision

Weak supervision menawarkan solusi yang menjanjikan untuk masalah pembelajaran mesin di mana data berlabel sulit atau mahal untuk diperoleh, tetapi data tidak berlabel tersedia dalam jumlah besar. Dengan mengoptimalkan penggunaan data berlabel dan tidak berlabel, kita dapat meningkatkan kinerja model dan membuka peluang untuk aplikasi yang lebih luas dalam berbagai bidang.


Disadur dari: en.wikipedia.org 

Selengkapnya
Mengoptimalkan Pembelajaran dengan Weak Supervision (Pengawasan Lemah)
« First Previous page 69 of 73 Next Last »