Teknik Industri
Dipublikasikan oleh Muhammad Ilham Maulana pada 04 April 2024
Dalam sains, jarak Euclidean antara dua fokus dalam ruang Euclidean adalah panjang bagian garis di antara keduanya. Hal ini dapat dihitung dari fasilitas Cartesian dari fokus menggunakan hipotesis Pythagoras, dan kadang-kadang disebut penghapusan Pythagoras.
Nama-nama ini berasal dari matematikawan Yunani kuno Euclid dan Pythagoras. Dalam geometri deduktif Yunani yang dicontohkan oleh Komponen Euclid, pemisahan tidak dianggap sebagai angka melainkan potongan garis dengan panjang yang sama, yang dianggap "meningkat". Ide jarak adalah bawaan dalam perangkat kompas yang digunakan untuk menggambar lingkaran, yang semua fokusnya memiliki jarak yang sama dari titik pusat yang sama. Asosiasi hipotesis Pythagoras dengan penghapusan perhitungan baru dilakukan pada abad ke-18.
Keterpisahan antara dua objek yang bukan fokus biasanya dicirikan sebagai jarak terkecil di antara kumpulan fokus dari kedua objek tersebut. Persamaan dikenal untuk menghitung pemisahan antara beragam jenis objek, seperti jarak dari suatu titik ke garis. Dalam aritmatika tingkat lanjut, konsep pemindahan telah digeneralisasikan ke ruang metrik unik, dan pemisahan lain selain Euclidean telah dipertimbangkan. Dalam beberapa aplikasi dalam wawasan dan pengoptimalan, kuadrat dari pemisahan Euclidean digunakan, bukan dari pemisahan itu sendiri.
Rumus Jarak dalam Berbagai Dimensi
Jarak adalah konsep dasar dalam matematika dan geometri, dan memainkan peran penting dalam banyak aplikasi, termasuk pembelajaran mesin, visi komputer, dan analisis data. Dalam artikel blog ini, kita akan mengeksplorasi rumus-rumus yang digunakan untuk menghitung jarak antar objek dalam berbagai dimensi, mulai dari kasus paling sederhana, yaitu titik-titik satu dimensi pada sebuah garis, dan secara bertahap bergerak ke dimensi yang lebih tinggi.
Jarak antara dua titik pada garis nyata hanyalah perbedaan absolut antara koordinat mereka. Untuk titik p dan q, jarak diberikan oleh:
d(p, q) = |p - q|
Sebagai alternatif, kita dapat menggunakan rumus akar kuadrat, yang lebih mudah digeneralisasi ke dimensi yang lebih tinggi:
d(p, q) = √((p - q)^2)
Pada bidang Euclidean, jarak antara dua titik p (p1, p2) dan q (q1, q2) dihitung dengan menggunakan teorema Pythagoras. Rumusnya adalah:
d(p, q) = √((p1 - q1) ^ 2 + (p2 - q2) ^ 2)
Rumus ini menemukan panjang sisi miring segitiga siku-siku yang dibentuk oleh jarak horizontal dan vertikal antara titik-titik.
Untuk titik-titik dalam ruang Euclidean n-dimensi, rumus jarak adalah generalisasi langsung dari kasus dua dimensi:
d(p, q) = √((p1 - q1)^2 + (p2 - q2)^2 + ... + (pn - qn)^2)
Sebagai alternatif, jarak Euclidean dapat dinyatakan secara ringkas menggunakan norma Euclidean dari perbedaan vektor antara titik-titik:
d(p, q) = ||p - q||
Rumus-rumus yang dibahas di atas berlaku untuk titik, tetapi jarak juga dapat dihitung antara objek geometris lainnya, seperti garis, bidang, dan kurva. Dalam kasus ini, jarak biasanya didefinisikan sebagai jarak terkecil antara dua titik dari masing-masing objek. Generalisasi yang lebih kompleks, seperti jarak Hausdorff, juga dapat digunakan.
Properti dari Jarak Euclidean
Jarak Euclidean berdiri sebagai pola dasar pengukuran jarak dalam ruang metrik, yang mewujudkan sifat-sifat utama yang mendasar pada sifatnya.
Sifat lainnya, pertidaksamaan Ptolemy, berkaitan dengan jarak Euclidean antara empat titik p, q, r, dan s Ini menyatakan bahwa:
Lebih lanjut, ketidaksetaraan Ptolemeus menyoroti interaksi antara jarak Euclidean di antara empat titik. Ini menggarisbawahi hubungan antara panjang sisi dan diagonal dalam segi empat, memperluas relevansinya melampaui batas bidang hingga ruang Euclidean dalam dimensi apa pun.
Dalam geometri Euclidean, setiap transformasi yang mempertahankan satuan jarak, menurut teorema Beckman – Quarles, juga harus menjaga semua jarak tetap utuh. Teorema ini menekankan hubungan mendalam antara pelestarian satuan jarak dan isometri, menyoroti simetri dan konsistensi yang melekat dalam transformasi ruang Euclidean.
Memahami sifat-sifat ini tidak hanya memperkaya pemahaman kita tentang jarak Euclidean tetapi juga membuka jalan untuk mengeksplorasi penerapannya di berbagai bidang, mulai dari analisis spasial hingga masalah optimasi.
Jarak Euclidean Kuadrat
Dalam banyak penerapan, dan khususnya ketika membandingkan jarak, mungkin lebih mudah untuk menghilangkan akar kuadrat akhir ketika menghitung jarak Euclidean, karena akar kuadrat tidak mengubah urutan . jika dan hanya jika . Nilai yang dihasilkan dari pengabaian ini adalah kuadrat dari jarak Euclidean, dan disebut sebagai squared Euclidean distance. Sebagai contoh, pohon span minimum Euclidean dapat ditentukan hanya dengan menggunakan urutan antara jarak, bukan nilai numeriknya. Membandingkan jarak kuadrat menghasilkan hasil yang sama tetapi menghindari perhitungan akar kuadrat yang tidak perlu dan mengatasi masalah presisi numerik. Secara matematis, jarak kuadrat dapat diungkapkan sebagai jumlah kuadrat:
Selain membandingkan jarak, jarak Euclidean kuadrat juga mempunyai arti penting dalam statistik, khususnya dalam metode kuadrat terkecil, yang merupakan pendekatan standar untuk menyesuaikan perkiraan statistik dengan data. Metode ini meminimalkan jarak kuadrat rata-rata antara nilai yang diamati dan yang diperkirakan. Selain itu, jarak Euclidean kuadrat berfungsi sebagai bentuk divergensi paling sederhana untuk membandingkan distribusi probabilitas. Penambahan jarak kuadrat, seperti pencocokan kuadrat terkecil, berhubungan dengan operasi jarak yang disebut penjumlahan Pythagoras. Dalam analisis massa, mengkuadratkan jarak dapat meningkatkan dampak jarak jauh.
Namun perlu diperhatikan bahwa jarak kuadrat Euclidean tidak membentuk ruang metrik karena gagal memenuhi pertidaksamaan segitiga. Meskipun demikian, ini adalah fungsi dua titik yang mulus dan cembung, tidak seperti jarak, yang tidak mulus untuk pasangan titik yang hampir sama. Akibatnya, jarak kuadrat lebih disukai dalam teori optimasi karena kompatibilitasnya dengan analisis cembung. Karena fungsi kuadrat bersifat monotonik untuk nilai non-negatif, meminimalkan jarak kuadrat sama dengan meminimalkan jarak Euclidean. Dengan demikian, masalah optimasi tetap setara di kedua aspek, namun biasanya lebih mudah diselesaikan dengan menggunakan kuadrat jarak.
Himpunan semua jarak kuadrat dari himpunan jarak pasangan titik berhingga dapat disusun ke dalam matriks jarak Euclidean, yang berguna dalam geometri jarak.
Kerucut, grafik jarak Euclidean dari titik asal pada bidang
Paraboloid, grafik kuadrat jarak Euclidean dari titik asal
Generalisasi
Dalam bidang matematika yang lebih maju, ketika melihat ruang Euclidean sebagai ruang vektor, jaraknya dikaitkan dengan standar yang dikenal sebagai norma Euclidean, yang didefinisikan sebagai jarak setiap vektor dari titik asal. Salah satu sifat penting dari norma ini, dibandingkan dengan norma lainnya, adalah invariansinya di bawah rotasi ruang yang berubah-ubah di sekitar titik asal. Menurut teorema Dvoretzky, setiap ruang vektor bernorma berdimensi terbatas memiliki subruang berdimensi tinggi di mana normanya kira-kira Euclidean; norma Euclidean adalah satu-satunya norma yang memiliki sifat ini. Hal ini dapat diperluas ke ruang vektor berdimensi tak terbatas sebagai norma L2 atau jarak L2. Jarak Euclidean memberikan ruang Euclidean dengan struktur ruang topologi, yang dikenal sebagai topologi Euclidean, dengan bola-bola terbuka (himpunan bagian dari titik-titik dalam jarak tertentu dari titik yang diberikan) sebagai tetangganya.
Jarak umum lainnya dalam ruang koordinat nyata dan ruang fungsi meliputi:
Untuk titik-titik pada permukaan dalam tiga dimensi, jarak Euclidean harus dibedakan dari jarak geodesi, yaitu panjang kurva terpendek yang dimiliki oleh permukaan. Khususnya, untuk mengukur jarak lingkaran besar di Bumi atau permukaan bola atau permukaan lain yang berbentuk bola atau hampir bola, jarak yang telah digunakan termasuk jarak haversine, yang memberikan jarak lingkaran besar antara dua titik pada bola dari garis bujur dan garis lintangnya, dan rumus Vincenty, juga dikenal sebagai "jarak Vincent", untuk jarak pada bola.
Sejarah Jarak Euclidean: Dari Akar Kuno ke Matematika Modern
Dalam sejarah matematika, jarak Euclidean mengacu pada jarak dalam ruang Euclidean, yang diambil dari nama ahli matematika Yunani kuno Euclid, yang karyanya, "Elemen", menjadi buku teks standar dalam geometri selama berabad-abad. Konsep panjang dan jarak tersebar luas di berbagai kebudayaan, dan bahkan dapat ditelusuri ke dokumen birokrasi "protoliterasi" tertua dari Sumeria pada milenium keempat SM, jauh sebelum zaman Euclid. Namun, gagasan tentang jarak, sebagai bilangan yang ditentukan dari dua titik, sebenarnya tidak muncul dalam "Elemen" Euclid. Sebaliknya, Euclid mendekati konsep ini secara implisit, melalui kongruensi ruas garis, perbandingan panjang ruas garis, dan konsep proporsionalitas.
Teorema Pythagoras juga telah ada sejak zaman dahulu, namun baru menjadi sentral dalam pengukuran jarak setelah ditemukannya koordinat Cartesian oleh René Descartes pada tahun 1637. Rumus jarak sendiri pertama kali diterbitkan pada tahun 1731 oleh Alexis Clairaut. Karena rumus ini, jarak Euclidean kadang juga disebut jarak Pythagoras. Meskipun pengukuran akurat jarak jauh di permukaan bumi, yang bukan Euclidean, telah dipelajari di banyak kebudayaan sejak zaman kuno, gagasan bahwa jarak Euclidean mungkin bukan satu-satunya cara untuk mengukur jarak antar titik dalam ruang matematika muncul baru-baru ini, dengan perumusan geometri non-Euclidean. -Euclidean pada abad ke-19. Definisi norma Euclidean dan jarak Euclidean untuk geometri tiga dimensi juga pertama kali muncul pada abad ke-19, dalam karya Augustin-Louis Cauchy.
Disadur dari: en.wikipedia.org
Teknik Industri
Dipublikasikan oleh Muhammad Ilham Maulana pada 04 April 2024
Dalam statistik, algoritma k-nearest neighbours (k-NN) adalah metode pembelajaran terawasi non-parametrik yang awalnya dirancang oleh Evelyn Fix dan Joseph Hodges pada tahun 1951, kemudian diperluas oleh Thomas Cover. Ini melayani tujuan dalam tugas klasifikasi dan regresi, dengan mengandalkan k contoh pelatihan terdekat dari kumpulan data untuk komputasi. Hasilnya bervariasi tergantung pada apakah k-NN digunakan untuk klasifikasi atau regresi:
k-NN dicirikan sebagai pendekatan klasifikasi di mana perkiraan fungsi hanya terjadi secara lokal, dengan semua komputasi ditangguhkan pada evaluasi fungsi. Khususnya, ketika fitur mewakili unit fisik yang berbeda atau mencakup skala yang berbeda, normalisasi data pelatihan akan meningkatkan akurasi algoritme secara signifikan.
Baik dalam tugas klasifikasi maupun regresi, peningkatan umum melibatkan pemberian bobot pada kontribusi lingkungan. Pembobotan tersebut memprioritaskan pengaruh tetangga terdekat pada rata-rata yang dihitung, sering kali menggunakan sistem di mana setiap tetangga diberi bobot berbanding terbalik dengan jaraknya dari objek yang diteliti.
Khususnya, tetangga diambil dari objek dengan kelas yang diketahui (dalam klasifikasi k-NN) atau nilai fitur objek (dalam regresi k-NN), yang secara efektif merupakan kumpulan pelatihan algoritme, meskipun tanpa memerlukan langkah pelatihan yang berbeda. Ciri khas algoritma k-NN terletak pada sensitivitasnya terhadap struktur lokal data
Pengaturan statistik
Misalkan kita mempunyai pasangan mengambil nilai-nilai in , dimana Y adalah label kelas dari X, sehingga untuk (dan distribusi probabilitas ).Mengingat beberapa norma dalam dan poin �∈��, let menjadi menyusun ulang data pelatihan sedemikian rupa .
Algoritma k-Nearest Neighbors
Algoritme k-Nearest Neighbors (k-NN), yang merupakan pendukung dalam bidang pembelajaran mesin, menawarkan solusi serbaguna untuk tugas klasifikasi. Kesederhanaannya memungkiri keefektifannya, menjadikannya pilihan populer di berbagai domain.
Pada fase pelatihan, algoritme hanya menyimpan vektor fitur dan label kelas dari sampel pelatihan. Pada tahap klasifikasi, konstanta k yang ditentukan pengguna mulai berlaku. Vektor tak berlabel, atau titik kueri, diklasifikasikan dengan memberi label paling umum di antara k sampel pelatihan terdekat.
Pilihan metrik jarak memainkan peran penting dalam kinerja algoritma. Untuk variabel kontinu, jarak Euclidean adalah yang utama, sedangkan untuk variabel diskrit seperti klasifikasi teks, metrik alternatif seperti metrik tumpang tindih atau jarak Hamming ikut berperan. Dalam domain khusus seperti analisis data microarray ekspresi gen, koefisien korelasi seperti Pearson dan Spearman berfungsi sebagai metrik yang tepat.
Tantangan muncul ketika distribusi kelas tidak seimbang, sehingga menghasilkan prediksi yang bias dan lebih memilih kelas yang lebih sering digunakan. Untuk memitigasi hal ini, pembobotan klasifikasi berdasarkan jarak dari titik pengujian ke k tetangga terdekatnya terbukti efektif. Alternatifnya, abstraksi dalam representasi data, seperti yang terlihat pada peta yang dapat diatur sendiri (SOM), dapat mengurangi kesenjangan dengan mengelompokkan titik-titik serupa tanpa memandang kepadatannya.
Pemilihan parameter
Pemilihan nilai k optimal bergantung pada data yang ada. Nilai k yang lebih besar mengurangi kebisingan tetapi mengaburkan batasan kelas. Teknik heuristik membantu dalam memilih k yang sesuai. Selain itu, keakuratan algoritme rentan terhadap fitur yang berisik atau tidak relevan serta skala fitur yang tidak konsisten. Teknik penskalaan fitur, seperti algoritme evolusioner atau penskalaan berbasis informasi timbal balik, dapat membantu dan memastikan hasil klasifikasi yang kuat.
Dalam klasifikasi biner, memilih k ganjil mencegah suara terikat, sehingga meningkatkan akurasi klasifikasi. Teknik optimasi empiris, seperti metode bootstrap, membantu dalam memilih k optimal untuk tugas yang ada.
Algoritma K-Nearest Neighbor Klasifikasi
K-Nearest Neighbor (K-NN) adalah algoritma klasifikasi sederhana namun powerful dalam pembelajaran mesin. Ide dasarnya adalah mengklasifikasikan data baru berdasarkan kemiripannya dengan data pelatihan yang telah berlabel. Berikut adalah penjelasan lebih detailnya:
K-NN bekerja dengan menghitung jarak antara data baru dengan seluruh data pelatihan. Kemudian, algoritma ini mengambil K tetangga terdekat berdasarkan jarak tersebut. Label data baru ditentukan berdasarkan mayoritas label dari K tetangga terdekat. Semakin besar nilai K, semakin halus keputusan batasnya, tetapi dapat meningkatkan bias. Sebaliknya, nilai K yang kecil dapat menyebabkan model terlalu sensitif terhadap noise.
Salah satu keunggulan K-NN adalah kesederhanaan implementasinya. Namun, kekurangannya adalah kebutuhan komputasi yang tinggi ketika dataset sangat besar. Untuk mengatasi ini, kita dapat menggunakan algoritma pencarian tetangga terdekat aproksimasi.
K-NN juga memiliki beberapa properti menarik. Sebagai contoh, ketika jumlah data pelatihan mendekati tak hingga, error rate dari klasifikasi dua kelas dengan K-NN dijamin tidak lebih dari dua kali Bayes error rate (error minimum yang dapat dicapai). Selain itu, K-NN dapat dianggap sebagai kasus khusus dari estimator kernel densitas dengan kernel seragam.
Untuk meningkatkan performa K-NN, kita dapat melakukan pembelajaran metrik dan ekstraksi fitur. Pembelajaran metrik digunakan untuk mempelajari metrik baru yang lebih sesuai dengan data. Sementara ekstraksi fitur bertujuan untuk mereduksi dimensi data masukan sehingga mengurangi efek kutukan dimensi tinggi.
Secara keseluruhan, K-NN adalah algoritma klasifikasi yang sederhana namun kuat. Dengan penyesuaian yang tepat seperti pemilihan nilai K, pembelajaran metrik, dan ekstraksi fitur, K-NN dapat memberikan performa yang sangat baik dalam banyak kasus.
Memahami Regresi k-NN dan Deteksi Pencilan
Dalam k-NN regression, algoritma k-NN digunakan untuk memperkirakan variabel kontinu. Salah satu algoritma tersebut menggunakan rata-rata terbobot dari k tetangga terdekat, dengan bobot yang berbanding terbalik dengan jarak mereka. Langkah-langkahnya adalah sebagai berikut:
Dalam konteks deteksi outlier, jarak ke tetangga terdekat ke-k juga dapat dianggap sebagai estimasi kepadatan lokal dan menjadi skor outlier yang populer. Semakin besar jarak ke tetangga ke-k, semakin rendah kepadatan lokalnya, dan semakin mungkin titik query adalah outlier. Meskipun sederhana, model outlier ini, bersama dengan metode penambangan data klasik lainnya, faktor outlier lokal, terbukti efektif dalam perbandingan dengan pendekatan yang lebih baru dan kompleks, menurut analisis eksperimental berskala besar.
Disadur dari: id.wikipedia.org/en.wikipedia.org
Teknik Industri
Dipublikasikan oleh Muhammad Ilham Maulana pada 03 April 2024
Visualisasi data telah menjadi salah satu metode komunikasi visual modern yang sangat penting dalam berbagai bidang ilmu. Meskipun tidak secara eksklusif terkait dengan satu bidang tertentu, visualisasi data merupakan interpretasi antara banyak bidang, seperti statistik, ilmu komputer, dan pengembangan perangkat lunak. Tujuan utamanya adalah untuk mengkomunikasikan informasi dengan jelas dan efisien kepada pengguna melalui berbagai grafik informasi, seperti tabel dan grafik.
Seni dan sains berpadu dalam visualisasi data, di mana desain estetis dan fungsionalitas harus seimbang untuk memberikan wawasan yang intuitif terhadap data yang kompleks. Namun, terkadang desain visual yang menawan gagal dalam menyampaikan informasi dengan efektif.
Dalam era big data saat ini, tantangan dalam pemrosesan, analisis, dan komunikasi data semakin meningkat. Ilmu data dan para ilmuwan data muncul sebagai solusi untuk mengatasi tantangan tersebut. Visualisasi data secara dekat berkaitan dengan grafik informasi, visualisasi informasi, visualisasi ilmiah, eksplorasi analisis data, dan grafik statistis. Ini telah menjadi wilayah penelitian, pengajaran, dan pengembangan yang aktif pada milenium baru.
Mengungkapkan Keefektifan Tampilan Grafik dalam Komunikasi Informasi
Dalam era di mana informasi berlimpah, kemampuan untuk menyajikan data dengan jelas dan efektif melalui grafik adalah keterampilan yang sangat berharga. Professor Edward Tufte, seorang pakar dalam bidang visualisasi informasi, menekankan pentingnya prinsip-prinsip yang mendasari tampilan grafik yang efektif.
Pertama-tama, sebuah tampilan grafik harus mampu menampilkan data dengan jelas, memungkinkan pemirsa untuk dengan mudah menganalisis dan memahami informasi yang disajikan. Ini mengharuskan grafik untuk menghindari pengelabuan atau distraksi yang dapat mengaburkan pesan yang ingin disampaikan oleh data.
Selain itu, grafik yang efektif juga mendorong pengamat untuk fokus pada substansi dari data, bukan pada aspek-aspek teknis seperti desain grafik atau metodologi produksinya. Hal ini memastikan bahwa grafik tidak hanya sekadar hiasan visual, tetapi alat yang bermakna dalam menyampaikan informasi yang berguna.
Tufte juga menekankan pentingnya memaksimalkan efisiensi tampilan grafik dengan memberikan banyak informasi dalam ruang yang terbatas. Ini berarti mengurangi tinta-tinta yang tidak berkaitan dengan data serta menyajikan kumpulan data dalam format yang koheren dan mudah dipahami.
Sebagai contoh konkret, Tufte mencatat diagram Minard yang memvisualisasikan kekalahan tentara Napoleon pada tahun 1812-1813 sebagai salah satu contoh terbaik dari tampilan grafik yang efektif. Diagram ini berhasil menggabungkan beberapa variabel dalam dua dimensi dengan jelas dan menggambarkan narasi yang dapat dipahami dengan mudah.
Namun, tidak mematuhi prinsip-prinsip tampilan grafik yang efektif dapat menghasilkan apa yang disebut sebagai "sampah-grafik", di mana pesan yang ingin disampaikan oleh data menjadi kabur atau bahkan menyesatkan. Oleh karena itu, penting bagi pembuat grafik untuk mempertimbangkan secara hati-hati bagaimana mereka menyajikan informasi agar tidak mengganggu pesan yang ingin disampaikan.
Terakhir, praktik terbaik dalam menampilkan grafik, seperti yang disarankan oleh Congressional Budget Office, adalah untuk mengenali audiens yang dituju, merancang grafik yang dapat berdiri sendiri di luar konteks laporan, dan memastikan bahwa pesan kunci dapat dengan jelas disampaikan melalui grafik tersebut.
Pesan Kuantitatif
Stephen Few, penulis, mengidentifikasi delapan tipe pesan kuantitatif yang sering digunakan dalam analisis data dan komunikasi menggunakan grafik. Ini adalah:
Analisis data dapat meninjau beberapa atau semua pesan dan tipe grafik di atas untuk digunakan dalam pekerjaan atau penonton mereka. Proses uji coba untuk mengidentifikasi keterkaitan dan makna pesan pada data adalah bagian dari eksplorasi analisis data.
Persepsi Visual dan Visualisasi Data
Persepsi visual adalah aspek penting dari kognisi manusia yang memungkinkan kita membedakan panjang dua garis, orientasi, dan pola warna tanpa upaya pemrosesan yang signifikan. Kemampuan untuk mengenali perbedaan berdasarkan atribut pra-perhatian dikenal sebagai "pemrosesan pra-perhatian". Misalnya, manusia dapat dengan mudah membedakan panjang dua garis tanpa banyak usaha kognitif, namun mengidentifikasi berapa kali angka "5" muncul dalam sekelompok angka mungkin memerlukan lebih banyak perhatian dan pemrosesan.
Visualisasi data yang efektif memanfaatkan pemrosesan pra-perhatian dan kekuatan relatif dari berbagai atribut. Misalnya, manusia dapat dengan cepat memproses perbedaan panjang garis saat menggunakan diagram batang (yang memanfaatkan panjang garis untuk menunjukkan perbandingan) dibandingkan diagram lingkaran (yang menggunakan luas permukaan).
Terminologi
Visualisasi data mengikuti terminologi tertentu, beberapa di antaranya berasal dari statistik. Misalnya, Stephen Few mendefinisikan dua jenis data, yang digunakan secara kombinasi untuk mendukung analisis atau visualisasi yang bermakna:
1. Kategori: Label teks mendeskripsikan sifat data, seperti "Nama" atau "Usia". Kategori ini mencakup data kualitatif (bukan angka).
2. Kuantitatif: Pengukuran numerik, seperti "25" yang mewakili usia dalam tahun.
Dua Jenis Utama Penyajian Informasi Adalah Tabel Dan Bagan
Tabel berisi data kuantitatif yang disusun dalam baris dan kolom dengan label kategorikal. Biasanya digunakan untuk menampilkan data numerik. Dalam contoh di atas, sebuah tabel mungkin memiliki label kategorikal untuk nama (variabel kualitatif) dan usia (variabel kuantitatif), dengan setiap baris mewakili individu (unit eksperimen atau kategori dari sampel).
Bagan biasanya menampilkan data kuantitatif dan mewakili nilai yang dikodekan sebagai objek visual (seperti garis, batang, atau titik). Nilai numerik ditampilkan dalam wilayah yang diwakili oleh satu atau lebih sumbu. Sumbu memberikan skala (kuantitatif dan kategorikal) untuk memberi label dan memberikan nilai pada objek visual. Banyak bagan juga disebut sebagai grafik.
Perpustakaan KPI telah mengembangkan tabel periodik interaktif metode visualisasi, yang menampilkan berbagai metode visualisasi data. Ini mengikuti tujuh jenis metode visualisasi data: data, informasi, konsep, strategi, metafora, dan kombinasi.
Contoh diagram digunakan pada visualisasi data
Nama Visual Dimensi:
Dimensi Jaringan:
Grafik Batang:
Streamgraph:
Treemap:
Gantt Chart:
Scatter Plot (3D):
Beragam Pendekatan dalam Visualisasi Data
Dalam dunia visualisasi data, terdapat beragam pendekatan yang memperluas cakupan pemahaman kita tentang bagaimana informasi dapat disajikan dengan cara yang efektif dan bermakna. Salah satu pendekatan yang umum adalah fokus pada presentasi informasi, seperti yang diuraikan oleh Friedman (2008). Friendly (2008) juga menyoroti dua aspek utama dari visualisasi data: grafik statistik dan kartografi tematik.
Namun, ada pandangan lain yang membagi ruang lingkup visualisasi data menjadi berbagai subjek yang berbeda, seperti yang diungkapkan dalam artikel "Data Visualization: Modern Approaches" (2007). Di antara subjek-subjek tersebut termasuk menampilkan koneksi antara data, menyajikan data dengan jelas, menggambarkan berita melalui visualisasi, serta menciptakan representasi visual yang dapat diakses oleh pengguna.
Dari perspektif ilmu komputer, Frits H. Post (2002) memberikan pemahaman yang lebih terinci dengan mengkategorikan bidang ini menjadi beberapa sub-bidang. Ini termasuk visualisasi informasi, teknik interaksi dan arsitektur, teknik pemodelan, metode multiresolusi, algoritme, dan teknik visualisasi, serta visualisasi volume.
Ketika kita memeriksa berbagai pendekatan ini, kita dapat melihat bagaimana visualisasi data memiliki banyak dimensi dan kompleksitas. Ini menunjukkan bahwa ada berbagai cara untuk mendekati dan memahami bagaimana data dapat disajikan dan dimanfaatkan secara optimal. Dengan memahami keragaman perspektif ini, kita dapat lebih memperkaya pemahaman kita tentang kekuatan visualisasi data dalam menyampaikan informasi dengan jelas dan bermakna.
Memahami Arsitektur Presentasi Data: Menyajikan Pengetahuan dengan Efektif
Arsitektur Presentasi Data (APD) merupakan sekumpulan keahlian yang bertujuan untuk mengelola, menyusun, dan menyajikan data dengan cara yang optimal untuk mengkomunikasikan makna dan memberikan pengetahuan kepada pengguna. Sejarah APD mengaitkan istilah ini dengan Kelly Lautt, yang menggambarkan APD sebagai kunci untuk sukses dan nilai dalam Intelijensi Bisnis.
APD menggabungkan ilmu angka, statistik, visualisasi data, komunikasi, psikologi organisasi, dan manajemen perubahan untuk menghasilkan solusi intelijensi bisnis yang dapat dimengerti. Ini bukan hanya tentang teknologi informasi atau bisnis semata, tetapi merupakan keahlian terpisah yang mencakup pemilihan data, waktu penyampaian, format, dan visualisasi yang efektif.
Tujuan utama dari APD adalah menggunakan data untuk menyediakan pengetahuan dengan cara yang efisien dan efektif. Ini meliputi meminimalkan kebisingan dan kompleksitas data yang tidak diperlukan, sambil menyediakan data yang relevan dan komprehensif untuk setiap pengguna.
Dalam ruang lingkup APD, pekerjaan meliputi pembuatan mekanisme penyampaian data yang efektif, menentukan makna yang penting bagi setiap pengguna, menentukan periode perbaruan data yang diperlukan, menemukan data yang sesuai, dan menggunakan analisis, pengelompokan, dan visualisasi yang tepat.
Bidang ilmu terkait dengan APD termasuk analisis bisnis, perbaikan proses bisnis, visualisasi data, arsitektur informasi, arsitektur solusi, dan analisis statistik. Semua bidang ini berkontribusi pada pemahaman dan penerapan APD dalam konteks bisnis dan organisasi.
Dalam prakteknya, APD mempertimbangkan berbagai elemen dalam desain grafis atau pengguna, termasuk pemilihan lokasi, warna, dan elemen grafis lainnya, dengan tujuan mengomunikasikan makna, pengaruh, dan informasi yang bermanfaat bagi pengguna.
Pemahaman yang mendalam tentang APD membantu organisasi dalam menyajikan data dengan jelas, mudah dimengerti, dan mempengaruhi pengambilan keputusan yang efektif. Dengan memanfaatkan keahlian APD, sebuah organisasi dapat meningkatkan kinerja bisnisnya melalui penggunaan data yang lebih cerdas dan efisien.
Disadur dari: id.wikipedia.org
Teknik Industri
Dipublikasikan oleh Muhammad Ilham Maulana pada 03 April 2024
Decision tree learning atau Pembelajaran Pohon Keputusan adalah metode pembelajaran yang sering digunakan dalam data mining. Metode ini digunakan untuk membangun model yang mengpredict nilai variabel target berasal dari beberapa variabel input. Decision tree adalah representasi sederhana untuk mengelompokkan contoh. Setiap node dalam tree yang tidak adalah node akhir (leaf) ditandai dengan sebuah input feature. Arcs yang berasal dari node yang ditandai dengan input feature ditandai dengan setiap nilai variabel target atau arc berpindah ke node pembagian terhadap input feature lain. Setiap leaf tree ditandai dengan class atau distribusi kelas, yang menandakan bahwa data set telah dikelompokkan oleh tree ke dalam class tertentu atau distribusi kelas (yang, jika decision tree terbuat dengan baik, berpandangan kepada subkumpulan kelas tertentu).
Tree dibangun dengan cara membagi sumber data, yang merupakan node akar tree, menjadi subkumpulan yang merupakan anak node berikutnya. Pembagian dilakukan berdasarkan setiap set dari aturan pembagian berdasarkan feature pengelompokan. Proses ini dilakukan secara recursive, yang disebut recursive partitioning. Proses ini dilakukan sampai subset pada node memiliki semua sama nilai variabel target atau pembagian tidak menambah nilai pada prediksi. Proses ini disebut top-down induction of decision trees (TDIDT) dan ialah contoh algoritma greedy, yang merupakan strategi yang paling sering digunakan untuk belajar decision trees dari data.
Decision trees dapat juga diterangkan sebagai kombinasi teknologi matematis dan komputer untuk membantu penjelasan, kategorisasi, dan generalisasi data yang diberikan.
Data datang dalam bentuk catatan:
Variabel terikat, , adalah variabel target yang coba kita pahami, klasifikasikan, atau generalisasikan. Vektor terdiri dari fitur-fiturnya, dll., yang digunakan untuk tugas itu.
Metrik Pohon Keputusan (Decision Tree)
Perkiraan Kebenaran Positif: Menyeimbangkan Positif Sejati dan Positif Palsu
Saat menyusun pohon keputusan, penting untuk mengukur keakuratan prediksi positif versus positif palsu. Metrik "Perkiraan Kebenaran Positif" memberikan wawasan tentang seberapa efektif suatu fitur dapat mengidentifikasi contoh positif dalam kumpulan data. Dengan mengurangkan positif palsu dari positif sebenarnya, metrik ini menawarkan perkiraan kemampuan fitur untuk mengklasifikasikan sampel positif dengan benar. Namun, penting untuk diingat bahwa perkiraan ini dapat bervariasi tergantung pada distribusi sampel positif antar fitur.
Pengotor Gini adalah ukuran yang digunakan dalam pohon klasifikasi untuk mengevaluasi homogenitas variabel target dalam subset. Ini mengukur kemungkinan kesalahan klasifikasi elemen yang dipilih secara acak dalam suatu kumpulan berdasarkan distribusi label. Dengan meminimalkan pengotor Gini, algoritma pohon keputusan bertujuan untuk menciptakan node di mana semua kasus masuk dalam satu kategori target, sehingga meningkatkan akurasi prediksi.
Perolehan informasi berfungsi sebagai kriteria penting untuk memilih pemisahan optimal dalam pohon keputusan. Berdasarkan konsep entropi dari teori informasi, perolehan informasi mengukur pengurangan ketidakpastian tentang variabel target yang dicapai dengan pemisahan sebuah node. Dengan memilih pemisahan yang memaksimalkan perolehan informasi, algoritme pohon keputusan memprioritaskan fitur yang menghasilkan node turunan yang lebih konsisten, sehingga pada akhirnya meningkatkan kekuatan prediktif model.
Jika variabel target bersifat kontinu, pengurangan varians menjadi metrik utama untuk mengevaluasi pemisahan. Diperkenalkan dalam algoritma seperti CART, pengurangan varians mengkuantifikasi pengurangan total varians variabel target karena pemisahan pada node tertentu. Dengan meminimalkan varians, algoritme pohon keputusan secara efektif menangani variabel kontinu, sehingga meningkatkan akurasi model dalam tugas regresi.
Ukuran “kebaikan” mewakili fungsi yang bertujuan untuk mengoptimalkan keseimbangan antara kapasitas calon perpecahan untuk menciptakan anak-anak murni dan kemampuannya untuk menciptakan anak-anak yang berukuran sama. Metrik ini, yang digunakan dalam CART, memprioritaskan penciptaan struktur pohon yang seimbang, sehingga meningkatkan konsistensi waktu pengambilan keputusan. Namun, hal ini dapat menyebabkan perpecahan tambahan dibandingkan dengan metrik lain seperti perolehan informasi.
Jenis-Jenis Pohon Keputusan dalam Analisis Data Mining (Decision Tree Learning)
Dalam analisis data mining, pohon keputusan digunakan untuk dua jenis utama pemodelan:
1. Pohon Klasifikasi (Classification Tree Analysis): Ini adalah ketika hasil yang diprediksi adalah kelas (discrete) ke mana data tersebut termasuk.
2. Pohon Regresi (Regression Tree Analysis): Ini adalah ketika hasil yang diprediksi dapat dianggap sebagai angka riil (misalnya, harga rumah atau lama tinggal pasien di rumah sakit).
Penggunaan istilah "classification and regression tree" (CART) merujuk pada salah satu prosedur di atas, yang pertama kali diperkenalkan oleh Breiman dkk. pada tahun 1984. Meskipun pohon yang digunakan untuk regresi dan klasifikasi memiliki beberapa kesamaan, namun juga beberapa perbedaan, seperti prosedur yang digunakan untuk menentukan di mana untuk membagi.
Contoh pohon yang memperkirakan kemungkinan kifosis setelah operasi tulang belakang, berdasarkan usia pasien dan tulang belakang tempat operasi dimulai. Pohon yang sama ditampilkan dalam tiga cara berbeda. Kiri Daun berwarna menunjukkan kemungkinan kifosis setelah operasi tulang belakang, dan persentase pasien pada daun. Tengah Pohon sebagai plot perspektif. Pemandangan udara kanan dari plot tengah. Kemungkinan kifosis setelah operasi lebih tinggi di area yang lebih gelap. (Catatan: Pengobatan kifosis telah mengalami kemajuan pesat sejak kumpulan data yang cukup kecil ini dikumpulkan.
Beberapa teknik, sering disebut sebagai metode ensemble, membangun lebih dari satu pohon keputusan:
- Pohon yang Ditingkatkan (Boosted Trees): Membangun secara bertahap sebuah ensemble dengan melatih setiap contoh baru untuk menekankan pada contoh-contoh pelatihan sebelumnya yang salah dimodelkan. Contoh umumnya adalah AdaBoost. Ini dapat digunakan untuk masalah tipe regresi dan klasifikasi.
- Bootstrap Aggregated (Bagged) Decision Trees: Metode ensemble awal ini membangun beberapa pohon keputusan dengan secara berulang memilih sampel ulang data pelatihan dengan penggantian, dan melakukan voting pada pohon-pohon untuk prediksi konsensus.
- Random Forest Classifier: Merupakan jenis khusus dari bootstrap aggregating.
- Rotation Forest: Di mana setiap pohon keputusan dilatih dengan menerapkan analisis komponen utama (PCA) pada subset acak fitur input.
Salah satu kasus khusus dari pohon keputusan adalah daftar keputusan, yang merupakan pohon keputusan satu sisi, sehingga setiap simpul internal memiliki tepat 1 simpul daun dan tepat 1 simpul internal sebagai anak (kecuali simpul terbawah, yang hanya memiliki satu simpul daun tunggal). Meskipun kurang ekspresif, daftar keputusan lebih mudah dipahami daripada pohon keputusan umum karena kekompakan yang ditambahkan, memungkinkan metode pembelajaran non-greedy dan penggunaan batasan monotonic.
Algoritme Pohon Keputusan Meliputi
Algoritma pohon keputusan yang terkenal meliputi ID3, C4.5, CART, CHAID, MARS, dan Conditional Inference Trees. ID3 dan CART ditemukan secara independen pada waktu yang hampir bersamaan, tetapi mengikuti pendekatan serupa untuk mempelajari pohon keputusan dari tupel pelatihan.
Selain itu, telah diusulkan untuk memanfaatkan konsep teori himpunan fuzzy untuk definisi versi khusus dari pohon keputusan, yang dikenal sebagai Fuzzy Decision Tree (FDT). Dalam klasifikasi fuzzy ini, biasanya, vektor input dikaitkan dengan beberapa kelas, masing-masing dengan nilai kepercayaan yang berbeda.
Dengan demikian, pemahaman tentang berbagai jenis pohon keputusan ini menjadi penting dalam konteks analisis data mining untuk mengoptimalkan prediksi dan pemodelan.
Keuntungan Penggunaan Decision Trees
Salah satu keuntungan utama dari decision trees adalah kemampuannya untuk dipahami dengan mudah. Model-model ini dapat dijelaskan secara singkat kepada orang awam dan bahkan dapat disajikan secara grafis, membuatnya mudah diinterpretasikan.
Selain itu, decision trees juga dapat menangani data numerik maupun kategorikal. Hal ini membedakannya dari beberapa metode lain yang hanya bisa digunakan untuk satu jenis variabel saja.
Decision trees juga memerlukan sedikit persiapan data dibandingkan dengan metode lainnya. Karena dapat menangani prediktor kualitatif, tidak diperlukan pembuatan variabel dummy.
Model decision trees merupakan model "white box" atau "open-box", yang artinya penjelasan mengenai kondisi suatu situasi dapat dijelaskan dengan logika Boolean. Hal ini berbeda dengan model "black box" seperti neural networks, di mana penjelasan untuk hasilnya sulit dipahami. Decision trees juga mampu mengatasi co-linearity dengan baik, terutama dalam metode boosting. Selain itu, feature selection juga sudah terintegrasi di dalamnya, membuatnya efisien dalam penggunaan fitur.
Keterbatasan Penggunaan Decision Trees
Meskipun memiliki banyak keuntungan, decision trees juga memiliki beberapa keterbatasan. Salah satunya adalah kecenderungan untuk menjadi sangat tidak stabil. Perubahan kecil dalam data latih dapat menghasilkan perubahan besar dalam pohon keputusan dan prediksi akhirnya.
Selain itu, pencarian untuk membangun decision tree optimal dapat menjadi masalah yang sulit. Algoritma pembelajaran decision-tree didasarkan pada heuristik seperti algoritma greedy, yang tidak dapat menjamin untuk menghasilkan pohon keputusan yang optimal secara global. Decision trees juga rentan terhadap overfitting, di mana model menjadi terlalu kompleks dan tidak dapat menggeneralisasi dengan baik dari data latih. Oleh karena itu, mekanisme pruning diperlukan untuk menghindari masalah ini.
Implementasi dan Ekstensi
Terdapat banyak perangkat lunak data mining yang menyediakan implementasi dari algoritma decision tree, baik yang open-source maupun berbayar. Contohnya adalah KNIME, Orange, dan scikit-learn untuk yang open-source, serta MATLAB, Microsoft SQL Server, dan RapidMiner untuk yang berbayar. Selain itu, terdapat juga ekstensi dari decision trees seperti decision graphs dan metode pencarian alternatif menggunakan algoritma evolusioner.
Disadur dari: en.wikipedia.org
Teknik Industri
Dipublikasikan oleh Muhammad Ilham Maulana pada 03 April 2024
Pembelajaran mendalam (Deep Learning) adalah bagian dari pembelajaran mesin yang memanfaatkan jaringan saraf tiruan (JST) atau Artificial Neural Networks (ANN) dengan banyak lapisan untuk mengekstrak fitur tingkat tinggi dari data masukan. Istilah "dalam" mengacu pada penggunaan beberapa lapisan ini, yang memungkinkan jaringan mempelajari representasi data masukan yang semakin abstrak dan komposit. Pembelajaran mendalam telah diterapkan di berbagai bidang, termasuk visi komputer, pengenalan suara, pemrosesan bahasa alami, dan bioinformatika, antara lain untuk mencapai hasil yang sebanding atau melampaui kinerja ahli manusia.
Arsitektur pembelajaran mendalam, seperti jaringan saraf dalam, jaringan kepercayaan mendalam, jaringan saraf berulang, jaringan saraf konvolusional, dan transformator, telah dikembangkan untuk menangani tugas dan tipe data tertentu. Model-model ini terinspirasi oleh pemrosesan informasi dan titik-titik komunikasi terdistribusi dalam sistem biologis, meskipun sifat statis dan simboliknya berbeda dibandingkan dengan otak biologis dinamis dan analog.
Algoritme pembelajaran mendalam menggunakan pendekatan hierarki untuk pembelajaran representasi, di mana setiap level mengubah data masukan menjadi representasi yang lebih abstrak. Misalnya, dalam pengenalan gambar, lapisan bawah dapat mengidentifikasi tepi, sedangkan lapisan atas dapat mengenali konsep seperti angka, huruf, atau wajah. Sistem pembelajaran mendalam dapat mempelajari fitur mana yang ditempatkan secara optimal pada level tertentu, meskipun penyetelan manual tetap diperlukan untuk mendapatkan performa optimal.
Kedalaman sistem pembelajaran mendalam mengacu pada jumlah lapisan yang digunakan untuk mengubah data. Sistem pembelajaran mendalam memiliki kedalaman jalur penugasan kredit (CAP) yang substansial, yang menggambarkan rantai transformasi dari input ke output dan dapat meniru fungsi apa pun. Kedalaman CAP adalah jumlah lapisan tersembunyi ditambah satu untuk jaringan saraf feedforward dan berpotensi tidak terbatas untuk jaringan saraf berulang. Tidak ada batasan yang disepakati secara universal yang memisahkan pembelajaran dangkal dan pembelajaran mendalam, namun sebagian besar peneliti setuju bahwa pembelajaran mendalam melibatkan kedalaman CAP yang lebih tinggi dari 2.
Model pembelajaran mendalam dapat dibangun menggunakan metode serakah lapis demi lapis dan membantu menguraikan abstraksi dan mengidentifikasi fitur mana yang meningkatkan kinerja. Metode pembelajaran mendalam memungkinkan penghapusan rekayasa fitur untuk tugas pembelajaran yang diawasi dengan menerjemahkan data ke dalam representasi perantara yang ringkas dan menghilangkan redundansi dalam representasi.
Algoritme pembelajaran mendalam juga dapat diterapkan pada tugas pembelajaran tanpa pengawasan, yang merupakan manfaat penting karena data yang tidak berlabel lebih banyak jumlahnya daripada data yang diberi label. Contoh struktur mendalam yang dapat dilatih tanpa pengawasan mencakup jaringan kepercayaan yang mendalam.
Pendekatan Universal dan Interpretasi Probabilistik
Jaringan saraf dalam berada di garis depan kecerdasan buatan modern, mendorong inovasi di berbagai bidang. Untuk memahami fungsinya, kita mempelajari dua konsep dasar: teorema pendekatan universal dan interpretasi probabilistik.
Teorema pendekatan universal, yang berakar pada karya perintis peneliti seperti George Cybenko dan Kurt Hornik, menegaskan kemampuan luar biasa dari jaringan saraf feedforward untuk memperkirakan fungsi berkelanjutan. Awalnya ditetapkan untuk jaringan dengan satu lapisan tersembunyi, teorema ini telah berkembang untuk mencakup arsitektur multi-lapisan, bahkan dengan fungsi aktivasi tidak terbatas seperti unit linier yang diperbaiki (ReLU). Penelitian terbaru telah memperluas teorema ini ke jaringan saraf dalam, mengungkapkan bahwa jaringan dengan lebar terbatas tetapi semakin dalam dapat mendekati fungsi apa pun yang dapat diintegrasikan Lebesgue, dalam kondisi tertentu.
Di sisi lain, interpretasi probabilistik jaringan saraf dalam berasal dari domain pembelajaran mesin. Di sini, konsep seperti inferensi, pelatihan, dan pengujian memainkan peran penting. Nonlinier aktivasi dalam jaringan saraf dianggap sebagai fungsi distribusi kumulatif, yang memfasilitasi kerangka probabilistik untuk memahami perilakunya. Interpretasi ini mengarah pada pengembangan teknik regularisasi seperti dropout, meningkatkan kemampuan generalisasi jaringan saraf.
Sebuah Perjalanan Melalui Evolusi Pembelajaran Mendalam (Deep Learning)
Saat kita memulai perjalanan melalui sejarah kecerdasan buatan, kita akan menemukan evolusi pembelajaran mendalam yang menarik, sebuah landasan teknologi modern. Di dalam sejarahnya, terdapat momen-momen penting dan inovasi terobosan yang telah membentuk lanskap AI seperti yang kita kenal sekarang.
Narasi ini terungkap dengan perbedaan antara feedforward neural networks (FNN) dan recurrent neural networks (RNN). Sementara FNN tidak memiliki siklus dalam struktur konektivitasnya, RNN memilikinya, sehingga membuka jalan bagi arsitektur adaptif. Pada tahun 1920-an, Wilhelm Lenz dan Ernst Ising meletakkan fondasi dengan model Ising, sebuah pendahulu dari RNN yang tidak dapat belajar. Maju cepat ke tahun 1972, Shun'ichi Amari merevolusi arsitektur ini, mendorongnya ke ranah pembelajaran, seperti yang dipopulerkan oleh John Hopfield pada tahun 1982. RNN dengan cepat menjadi sangat diperlukan untuk pengenalan suara dan pemrosesan bahasa.
Karya penting Frank Rosenblatt pada tahun 1960-an memperkenalkan multilayer perceptron (MLP), sebuah pendahulu dari sistem deep learning saat ini. Bersamaan dengan itu, istilah "deep learning" muncul pada tahun 1986, menandai dimulainya era baru. Algoritma terobosan Alexey Ivakhnenko dan Lapa pada tahun 1967 meletakkan dasar untuk MLP yang diawasi, dalam, dan maju ke depan, menyiapkan panggung untuk kemajuan selanjutnya.
Di bidang jaringan saraf konvolusi (CNN), Neocognitron Kunihiko Fukushima pada tahun 1980 mengantarkan era baru untuk visi komputer. Pengenalan fungsi aktivasi rectified linear unit (ReLU) semakin mendorong CNN menjadi sorotan, dan menjadi landasan arsitektur deep learning.
Munculnya backpropagation pada tahun 1970 oleh Seppo Linnainmaa merevolusi pelatihan jaringan saraf, memungkinkan pembelajaran yang efisien melalui perambatan kesalahan. Hal ini membuka jalan bagi kemajuan seperti LSTM (memori jangka pendek yang panjang) oleh Sepp Hochreiter pada tahun 1997, yang mengatasi masalah gradien yang menghilang dan memungkinkan tugas pembelajaran mendalam dengan jalur penugasan yang panjang.
Pergantian milenium menjadi saksi kemunculan jaringan saraf tiruan, memperkenalkan konsep keingintahuan buatan dan meletakkan dasar bagi jaringan saraf tiruan generatif (GAN). Inovasi ini merevolusi pembuatan gambar, membuka jalan bagi aplikasi seperti deepfake.
Di bidang perangkat keras, kemajuan dalam GPU memainkan peran penting, mempercepat pelatihan model pembelajaran mendalam dengan urutan yang sangat besar. "Ledakan besar" deep learning di akhir tahun 2000-an menandai titik balik, mendorong deep learning menjadi arus utama.
Mulai dari melampaui kinerja manusia dalam kontes pengenalan gambar hingga mentransformasi industri seperti perawatan kesehatan dan keuangan, deep learning telah meninggalkan jejak yang tak terhapuskan dalam tatanan masyarakat modern. Saat kami merefleksikan perjalanannya, kami merayakan para visioner dan inovator yang pengejaran pengetahuannya yang tiada henti telah mendorong revolusi deep learning, yang membentuk masa depan kecerdasan buatan.
Pembelajaran Mendalam (Deep Learning): Arti dari Jaringan saraf (Neural networks)
Jaringan Syaraf Tiruan (JST) atau Artificial Neural Networks (ANN) adalah jenis sistem komputasi yang meniru struktur dan fungsi jaringan syaraf biologis dalam otak manusia. Sistem ini dirancang untuk mempelajari dan meningkatkan kinerjanya pada tugas-tugas dengan menganalisis contoh, tanpa perlu pemrograman khusus. JST terdiri dari neuron buatan yang terhubung dengan sinapsis, yang dapat mengirimkan sinyal antar neuron. Neuron dan sinapsis memiliki bobot yang dapat disesuaikan selama pembelajaran untuk memperkuat atau memperlemah sinyal yang dikirimkan. ANN disusun dalam beberapa lapisan, dengan setiap lapisan melakukan jenis transformasi yang berbeda pada data input.
Tujuan awal ANN adalah untuk meniru cara otak manusia memproses informasi, tetapi seiring berjalannya waktu, fokusnya telah bergeser ke kemampuan mental tertentu, yang mengarah pada pengembangan teknik seperti backpropagation. ANN telah diterapkan pada berbagai tugas, termasuk visi komputer, pengenalan suara, penerjemahan mesin, penyaringan jaringan sosial, bermain game, dan diagnosis medis.
Deep Neural Networks (DNN) adalah jenis ANN dengan banyak lapisan antara lapisan input dan output. DNN dapat memodelkan hubungan non-linear yang kompleks dan sangat efektif dalam mengenali pola dalam data. Mereka sering digunakan dalam aplikasi seperti pengenalan gambar, pengenalan suara, dan pemrosesan bahasa alami.
Terlepas dari kesuksesan mereka, ANN dan DNN dapat menghadapi tantangan seperti overfitting, di mana jaringan menjadi terlalu terspesialisasi pada data pelatihan dan berkinerja buruk pada data baru, dan waktu komputasi, di mana jaringan membutuhkan waktu terlalu lama untuk melatih atau membuat prediksi. Untuk mengatasi masalah ini, teknik seperti regularisasi, dropout, dan augmentasi data digunakan untuk mencegah overfitting, serta batching dan pemrosesan paralel digunakan untuk mempercepat komputasi.
Kemajuan Perangkat Keras untuk Pembelajaran Mendalam (Deep Learning)
Dalam beberapa tahun terakhir, perpaduan algoritma pembelajaran mesin dengan perangkat keras komputer telah merevolusi bidang pembelajaran mendalam. Kolaborasi ini telah mengarah pada pengembangan metode yang lebih efisien untuk melatih jaringan saraf dalam, yang ditandai dengan banyaknya lapisan unit tersembunyi non-linier dan lapisan keluaran yang luas. Unit pemrosesan grafis (GPU), yang dilengkapi dengan penyempurnaan khusus AI, telah muncul sebagai perangkat keras pilihan untuk melatih proyek AI cloud komersial berskala besar, melampaui unit pemrosesan pusat (CPU) tradisional. Analisis OpenAI menunjukkan peningkatan eksponensial dalam komputasi perangkat keras, yang menggarisbawahi pesatnya pertumbuhan deep learning.
Untuk lebih mempercepat algoritma pembelajaran mendalam, sirkuit elektronik khusus yang disebut prosesor pembelajaran mendalam telah diperkenalkan. Ini termasuk unit pemrosesan saraf (NPU) yang terintegrasi ke dalam ponsel Huawei dan unit pemrosesan tensor (TPU) yang diterapkan di Google Cloud Platform. Selain itu, Cerebras Systems meluncurkan CS-2, sistem khusus yang memanfaatkan Wafer Scale Engine (WSE-2) generasi kedua untuk menangani model pembelajaran mendalam berukuran besar secara efisien.
Menjelajahi cara-cara inovatif, para peneliti telah mengeksplorasi semikonduktor yang sangat tipis sebagai kandidat potensial untuk perangkat keras pembelajaran mendalam yang hemat energi. Eksperimen yang dilakukan pada tahun 2020 menunjukkan kelayakan penggunaan material saluran aktif area besar untuk perangkat logika-dalam-memori berdasarkan transistor efek medan gerbang mengambang (FGFET), yang menjanjikan operasi logika simultan dan penyimpanan data.
Dalam perkembangan inovatif pada tahun 2021, J. Feldmann dkk. mengusulkan akselerator perangkat keras fotonik terintegrasi yang dirancang untuk pemrosesan konvolusional paralel. Memanfaatkan fotonik terintegrasi, sistem ini menawarkan dua keunggulan berbeda: transfer data paralel besar-besaran melalui multiplexing pembagian panjang gelombang dan sisir frekuensi, serta kecepatan modulasi data yang sangat tinggi. Dengan kapasitas untuk mengeksekusi triliunan operasi yang terakumulasi berkali-kali per detik, fotonik terintegrasi menghadirkan solusi menarik untuk aplikasi AI yang intensif data.
Evolusi perangkat keras dalam pembelajaran mendalam menggarisbawahi upaya tanpa henti untuk mencapai efisiensi dan kecepatan, mendorong inovasi dan terobosan dalam kecerdasan buatan. Ketika para peneliti terus mendorong batas-batas kemajuan teknologi, masa depan memiliki potensi besar untuk optimalisasi lebih lanjut dan peningkatan sistem pembelajaran mendalam melalui inovasi perangkat keras.
Pengaplikasian Pembelajaran Mendalam (Deep Learning) di Berbagai Bidang
Dalam bidang penemuan ilmiah dan kemajuan teknologi, pembelajaran mendalam telah muncul sebagai kekuatan transformatif, merevolusi cara kita mendekati masalah kompleks di berbagai bidang. Dari penemuan obat-obatan hingga aplikasi militer, dari pencitraan medis hingga deteksi penipuan keuangan, algoritma pembelajaran mendalam telah diterapkan untuk mengatasi beberapa tantangan paling mendesak di zaman kita.
Penemuan obat dan toksikologi, misalnya, telah lama terganggu oleh tingginya tingkat kegagalan calon obat dalam proses persetujuan peraturan. Teknik pembelajaran mendalam menawarkan solusi yang menjanjikan dengan memprediksi target biomolekuler, efek di luar target, dan toksisitas obat-obatan potensial serta bahan kimia lingkungan. Alat seperti AtomNet telah berperan penting dalam perancangan obat yang rasional, mengidentifikasi kandidat biomolekul baru untuk penyakit seperti Ebola dan multiple sclerosis.
Dalam manajemen hubungan pelanggan, pembelajaran penguatan mendalam telah digunakan untuk menilai nilai tindakan pemasaran langsung, meningkatkan strategi untuk retensi dan keterlibatan pelanggan. Demikian pula, sistem rekomendasi memanfaatkan pembelajaran mendalam untuk mengekstrak fitur-fitur bermakna untuk rekomendasi konten yang dipersonalisasi, sehingga meningkatkan pengalaman pengguna di berbagai platform.
Di bidang bioinformatika, model pembelajaran mendalam telah digunakan untuk memprediksi anotasi ontologi gen, hubungan fungsi gen, dan bahkan hasil kesehatan berdasarkan data yang dapat dipakai dan catatan kesehatan elektronik. Aplikasi semacam itu tidak hanya memfasilitasi penelitian medis tetapi juga menjanjikan intervensi layanan kesehatan yang dipersonalisasi.
Selain layanan kesehatan, pembelajaran mendalam telah mencapai kemajuan signifikan di berbagai bidang seperti periklanan seluler, restorasi gambar, deteksi penipuan keuangan, dan ilmu material. Misalnya, dalam bidang ilmu material, sistem AI seperti GNoME telah merevolusi penemuan material baru, mempercepat inovasi, dan mengurangi ketergantungan pada eksperimen manual.
Selain itu, teknik pembelajaran mendalam telah dimanfaatkan untuk memecahkan masalah matematika yang kompleks, termasuk persamaan diferensial parsial dan rekonstruksi gambar. Aplikasi ini menunjukkan keserbagunaan dan efektivitas pembelajaran mendalam di berbagai disiplin ilmu.
Menghubungkan Perkembangan Otak dengan Model Komputasi
Inti dari teori perkembangan dan sistem pembelajaran mendalam terletak pada konsep pengorganisasian diri. Sama seperti otak bayi yang mengatur dirinya sendiri di bawah pengaruh berbagai faktor, model pembelajaran mendalam menggunakan filter berlapis hierarki untuk memproses informasi dan beradaptasi dengan lingkungannya.
Para peneliti telah mengeksplorasi kemungkinan neurobiologis model pembelajaran mendalam melalui berbagai pendekatan. Meskipun beberapa pihak berfokus pada penyempurnaan algoritme seperti propagasi mundur untuk meningkatkan realisme pemrosesan, pihak lain berpendapat bahwa metode pembelajaran tanpa pengawasan mungkin lebih mencerminkan proses biologis.
Meskipun perbandingan sistematis antara jaringan dalam dan organisasi otak manusia sedang berlangsung, beberapa analogi yang mencolok telah dicatat. Komputasi yang dilakukan oleh unit pembelajaran mendalam memiliki kemiripan dengan neuron sebenarnya, dan representasi yang dikembangkan oleh model ini selaras dengan yang diamati dalam sistem visual primata.
Aplikasi Komersial Pembelajaran Mendalam
Facebook menggunakan algoritme pembelajaran mendalam untuk secara otomatis menandai gambar yang diunggah dengan nama individu, menunjukkan penerapan praktis teknologi ini di platform media sosial.
DeepMind Technologies, anak perusahaan Google, telah mengembangkan sistem canggih yang mampu mempelajari tugas-tugas kompleks, seperti bermain video game Atari dan menguasai permainan kuno Go, yang menunjukkan keserbagunaan pembelajaran mendalam dalam memecahkan beragam tantangan.
Covariant.ai berfokus pada pengintegrasian pembelajaran mendalam ke dalam operasi pabrik, menyoroti potensinya untuk meningkatkan efisiensi dan otomatisasi di lingkungan industri.
Kolaborasi penelitian seperti Deep TAMER, kolaborasi antara Laboratorium Penelitian Angkatan Darat A.S. dan Universitas Texas di Austin, memanfaatkan pembelajaran mendalam yang memungkinkan robot mempelajari tugas-tugas baru melalui observasi dan interaksi manusia.
Kritik dan Komentar tentang Pembelajaran Mendalam
Kritikus berpendapat bahwa metode pembelajaran mendalam tidak memiliki landasan teori yang komprehensif, sehingga sangat bergantung pada validasi empiris daripada kerangka teori yang ketat.
Pembelajaran mendalam, meskipun bermanfaat, dipandang sebagai batu loncatan untuk mencapai AI yang kuat. Ia masih kekurangan kemampuan untuk merepresentasikan hubungan sebab akibat, melakukan inferensi logis, dan mengintegrasikan pengetahuan abstrak yang penting untuk kecerdasan umum buatan yang sebenarnya.
Permasalahan seperti perilaku bermasalah dalam arsitektur pembelajaran mendalam, kerentanan terhadap ancaman dunia maya, dan kekhawatiran etika terkait pengumpulan data menggarisbawahi perlunya evaluasi kritis dan penerapan teknologi ini secara bertanggung jawab.
Disadur dari: en.wikipedia.org
Perhubungan
Dipublikasikan oleh Dimas Dani Zaini pada 03 April 2024
Trans Semanggi Suroboyo adalah sistem layanan transportasi bus perkotaan modern di Kota Surabaya. Layanan ini diresmikan pada tanggal 29 Desember 2021 dan menjadikan Surabaya sebagai kota ke-10 di Indonesia yang menerapkan angkutan massal berbasis jalan dengan skema pembelian layanan. Pengadaan armada bus ditanggung oleh Kementerian Perhubungan Republik Indonesia (Kemenhub RI), sementara manajemen operasional ditangani oleh pihak ketiga seperti PT Seduluran Bus Suroboyo dan Perum DAMRI.
Kemenhub RI telah mengalokasikan 104 unit bus perkotaan dengan desain dek rendah sebagai armada operasional untuk layanan Teman Bus di Surabaya. Proses pengadaan bus dilakukan secara bertahap antara tahun 2022 hingga 2024. Dari jumlah tersebut, 40 unit bus akan menggunakan bus listrik, sementara 64 unit lainnya menggunakan bus diesel. Rencananya, bus-bus tersebut akan beroperasi di enam koridor yang berbeda. Beberapa koridor ini akan menggantikan layanan bus perkotaan yang sudah ada seperti Suroboyo Bus.
Pada tahun 2022, dua koridor Trans Semanggi Suroboyo telah dioperasikan. Koridor 2 dengan rute Lidah Wetan–Kejawan Putih Tambak diluncurkan pada 1 Februari 2022, dan koridor 3 dengan rute Purabaya–Kenjeran Park via MERR diluncurkan pada 20 Desember 2022. Layanan ini juga terhubung dengan moda angkutan perkotaan lainnya seperti bemo dan Wirawiri Suroboyo di beberapa titik lokasi di Surabaya.
Awalnya, Trans Semanggi Suroboyo diberikan secara gratis untuk umum sejak awal beroperasi pada 1 Februari 2022. Namun, mulai 31 Oktober 2022, layanan ini dikenakan biaya berdasarkan Peraturan Menteri Keuangan Nomor 138/PMK.02/2022. Besaran tarif yang dikenakan untuk layanan Teman Bus di Surabaya adalah Rp6.200,00. Tarif ini menjadikan Trans Semanggi Suroboyo sebagai layanan yang paling mahal dibandingkan dengan layanan serupa di sepuluh kota lain di Indonesia. Pembayaran tiket hanya dapat dilakukan secara non-tunai melalui QRIS atau kartu uang elektronik. Hal ini sejalan dengan upaya pemerintah untuk mendorong masyarakat beralih ke transaksi non-tunai.
Tarif bus perkotaan modern di Surabaya saat ini belum terintegrasi, baik dalam hal tarif maupun aplikasi pembayaran. Namun, Dishub Surabaya berencana untuk mengintegrasikan layanan Suroboyo Bus dan Trans Semanggi Suroboyo pada tahun 2023. Salah satu solusinya adalah dengan menyusun skema tarif terusan, di mana penumpang hanya perlu membayar satu tarif untuk perjalanan yang melibatkan transit antara kedua layanan tersebut. Besaran tarif layanan Suroboyo Bus saat ini diatur dalam Peraturan Walikota Nomor 56 Tahun 2021, dengan tarif sebesar Rp5.000,00. Selain itu, tarif angkutan kota reguler juga diatur dalam Peraturan Walikota Nomor 101 Tahun 2022, dengan tarif sebesar Rp7.000,00 untuk angkutan kota dan Rp10.000,00 untuk bus kota reguler.
Dengan adanya Trans Semanggi Suroboyo, diharapkan masyarakat Surabaya dapat menikmati layanan transportasi yang lebih modern dan efisien. Integrasi antara layanan bus perkotaan ini dengan moda transportasi lainnya juga diharapkan dapat memudahkan mobilitas warga dan mengurangi kemacetan lalu lintas di kota.
Disadur dari Artikel : id.wikipedia.com