Perhubungan
Dipublikasikan oleh Dimas Dani Zaini pada 03 April 2024
Trans Metro Dewata merupakan sistem transportasi bus raya terpadu yang beroperasi di Bali sejak 7 September 2020. Layanan ini mencakup Denpasar, Badung, Gianyar, dan Tabanan. Program ini merupakan inisiatif dari Kementerian Perhubungan Republik Indonesia melalui Direktorat Jenderal Perhubungan Darat. Bali menjadi wilayah ketiga setelah Palembang dan Surakarta yang meluncurkan program Buy The Service/BTS Teman Bus. PT Satria Trans Jaya adalah operator yang bertanggung jawab atas operasional Trans Metro Dewata, dengan biaya operasional yang sepenuhnya disubsidi oleh pemerintah pusat.
Trans Metro Dewata merupakan salah satu upaya pengembangan angkutan massal berbasis jalan yang mendapatkan subsidi pemerintah. Layanan ini melengkapi layanan bus Trans Sarbagita yang telah ada sebelumnya. Dengan hadirnya Trans Metro Dewata, masyarakat dapat memanfaatkan angkutan umum yang terintegrasi dengan layanan massal lainnya. Tujuan utama dari program ini adalah untuk meningkatkan minat masyarakat dalam menggunakan angkutan umum, sehingga dapat mengurangi penggunaan kendaraan pribadi, kemacetan, dan polusi udara di Bali.
Trans Metro Dewata secara resmi diresmikan oleh Gubernur Bali, I Wayan Koster, dan Dirjen Perhubungan Darat Kementerian Perhubungan, Budi Setiyadi, pada 7 September 2020 di Pasar Badung, Kota Denpasar. Dalam menjalankan operasionalnya, Trans Metro Dewata menyediakan total 105 unit bus yang melayani empat koridor berbeda.
Manfaat dan Harapan
Dengan adanya Trans Metro Dewata, diharapkan masyarakat Bali dapat lebih mudah dan nyaman dalam melakukan perjalanan dengan menggunakan angkutan umum. Dukungan pemerintah pusat berupa subsidi biaya operasional menjadi salah satu faktor penting dalam menjaga kelancaran layanan ini. Penggunaan angkutan umum yang lebih banyak diharapkan dapat mengurangi kemacetan lalu lintas dan polusi udara di pulau ini.
Trans Metro Dewata juga berperan sebagai penghubung antara berbagai layanan angkutan umum di Bali. Dengan terintegrasi, masyarakat dapat dengan mudah beralih dari satu moda transportasi ke moda transportasi lainnya, seperti Trans Sarbagita atau angkutan umum lainnya. Hal ini memberikan fleksibilitas dan kenyamanan lebih bagi masyarakat dalam melakukan perjalanan di Bali.
Melalui program ini, pemerintah berupaya meningkatkan minat masyarakat dalam menggunakan angkutan umum. Dengan adanya pilihan transportasi yang terjangkau dan efisien, diharapkan lebih banyak orang akan memilih angkutan umum sebagai alternatif untuk perjalanan sehari-hari. Selain mengurangi kemacetan dan polusi, penggunaan angkutan umum juga memberikan manfaat lain, seperti mengurangi biaya transportasi dan memperbaiki kualitas udara di Bali.
Disadur dari Artikel : id.wikipedia.com
Teknik Industri
Dipublikasikan oleh Muhammad Ilham Maulana pada 03 April 2024
Reinforcement learning (RL) adalah area interdisipliner dalam pembelajaran mesin dan kontrol optimal yang berfokus pada bagaimana agen cerdas seharusnya mengambil tindakan dalam lingkungan dinamis untuk memaksimalkan penghargaan (reward) kumulatif. Reinforcement learning merupakan salah satu dari tiga paradigma utama pembelajaran mesin, bersama dengan pembelajaran terbimbing (supervised learning) dan pembelajaran tanpa pengawasan (unsupervised learning).
Berbeda dengan pembelajaran terbimbing, Reinforcement Learning tidak memerlukan pasangan input/output berlabel untuk dihadirkan, dan tidak memerlukan tindakan suboptimal untuk dikoreksi secara eksplisit. Fokusnya adalah menemukan keseimbangan antara eksplorasi (wilayah yang belum dipetakan) dan eksploitasi (pengetahuan saat ini) dengan tujuan memaksimalkan penghargaan jangka panjang, yang mungkin memiliki umpan balik yang tidak lengkap atau tertunda.
Lingkungan Reinforcement Learning biasanya dinyatakan dalam bentuk Markov Decision Process (MDP), karena banyak algoritma Reinforcement Learning untuk konteks ini menggunakan teknik pemrograman dinamis. Perbedaan utama antara metode pemrograman dinamis klasik dan algoritma Reinforcement Learning adalah bahwa yang terakhir tidak mengasumsikan pengetahuan model matematika yang tepat dari MDP dan menargetkan MDP besar di mana metode yang tepat menjadi tidak layak.
Reinforcement Learning diaplikasikan secara sukses pada berbagai masalah, termasuk operasi penyimpanan energi, kontrol robot, pengiriman generator fotovoltaik, permainan papan seperti backgammon, catur, Go (AlphaGo), dan sistem mengemudi otonom. Dua elemen yang membuat Reinforcement Learning powerful adalah penggunaan sampel untuk mengoptimalkan kinerja dan penggunaan pendekatan fungsi untuk menangani lingkungan besar.
Kerangka umum skenario Reinforcement Learning (RL): seorang agen mengambil tindakan dalam suatu lingkungan, yang diinterpretasikan menjadi hadiah dan representasi negara, yang kemudian dimasukkan kembali ke dalam agen.
Dalam RL, dilema eksplorasi vs eksploitasi telah dipelajari secara mendalam, terutama melalui masalah multi-armed bandit dan untuk ruang keadaan hingga MDP. Reinforcement Learning memerlukan mekanisme eksplorasi yang cerdik, karena memilih tindakan secara acak tanpa mempertimbangkan distribusi probabilitas yang diperkirakan menunjukkan kinerja yang buruk. Metode seperti ε-greedy digunakan untuk keseimbangan eksplorasi-eksploitasi, di mana dengan probabilitas 1-ε, eksploitasi dipilih (tindakan yang diyakini terbaik), dan dengan probabilitas ε, eksplorasi dipilih (tindakan dipilih secara acak).
Reinforcement Learning menawarkan pendekatan yang menarik untuk mempelajari perilaku optimal dalam lingkungan yang dinamis dan kompleks, di mana penghargaan jangka panjang harus dipertimbangkan. Dengan kemampuannya dalam mengoptimalkan kinerja dari sampel dan menangani lingkungan besar melalui pendekatan fungsi, Reinforcement Learning terus menjadi area penelitian yang penting dalam kecerdasan buatan dan memiliki banyak aplikasi praktis dalam berbagai domain.
Algoritma untuk Kontrol Pembelajaran
Dalam ranah pembelajaran mesin, khususnya dalam konteks kontrol, algoritme memainkan peran penting dalam menguraikan tindakan terbaik untuk memaksimalkan imbalan kumulatif. Bahkan ketika kita mengasumsikan bahwa keadaan tersebut dapat diamati, tantangannya terletak pada pemanfaatan pengalaman masa lalu untuk menentukan tindakan mana yang menghasilkan imbalan yang lebih tinggi dari waktu ke waktu.
Inti dari pembelajaran kontrol terletak pada gagasan optimalitas, di mana proses pengambilan keputusan agen dirangkum dalam sebuah kebijakan. Sebuah kebijakan berfungsi sebagai peta yang menentukan probabilitas pemilihan tindakan tertentu dalam keadaan tertentu. Melalui kebijakan, kita menavigasi lanskap tindakan dan keadaan yang kompleks untuk mengoptimalkan imbalan.
Untuk mengukur nilai dari berada dalam kondisi tertentu, kami menggunakan fungsi nilai keadaan. Fungsi ini memperkirakan pengembalian diskonto yang diharapkan mulai dari keadaan tertentu dan mengikuti kebijakan yang ditentukan. Pada dasarnya, fungsi ini memberikan wawasan tentang seberapa menguntungkan suatu keadaan dalam hal mencapai hasil yang diinginkan.
Perjalanan menuju kebijakan yang optimal sering kali dimulai dengan metode brute force, di mana kami dengan cermat mengeksplorasi berbagai kebijakan dan sampel pengembalian untuk melihat jalur yang paling bermanfaat. Namun, banyaknya jumlah kebijakan potensial ditambah dengan varians dalam pengembalian menimbulkan tantangan yang signifikan.
Pendekatan fungsi nilai menawarkan kerangka kerja terstruktur untuk menavigasi lanskap kebijakan. Dengan mempertahankan estimasi imbal hasil yang diharapkan, metode-metode ini berusaha mengidentifikasi jalur yang paling menjanjikan untuk memaksimalkan imbalan. Melalui iterasi dan penyempurnaan, metode-metode ini semakin mendekati solusi yang optimal.
Metode perbedaan temporal, yang berakar pada persamaan Bellman rekursif, menawarkan pendekatan yang bernuansa belajar dari pengalaman. Dengan memadukan wawasan dari transisi masa lalu dengan prediksi ke depan, metode ini mengadaptasi dan menyempurnakan kebijakan dari waktu ke waktu, mengurangi dampak dari pengembalian yang berisik.
Metode pendekatan fungsi menjembatani kesenjangan antara teori dan praktik dengan memanfaatkan pemetaan linier untuk memperkirakan nilai tindakan. Metode-metode ini menawarkan skalabilitas dan efisiensi, sehingga sangat berharga dalam menangani ruang aksi-negara yang besar.
Metode pencarian kebijakan langsung menghindari pendekatan fungsi nilai tradisional dan lebih memilih untuk menjelajahi ruang kebijakan secara langsung. Dengan memanfaatkan teknik berbasis gradien atau bebas gradien, metode-metode ini menawarkan perangkat serbaguna untuk menavigasi lanskap keputusan yang kompleks.
Algoritme berbasis model memanfaatkan model prediktif dari proses pengambilan keputusan untuk meningkatkan efisiensi pembelajaran. Dengan menyempurnakan model-model ini secara berulang, mereka menawarkan kerangka kerja terstruktur untuk memperbarui perilaku dan mengoptimalkan hasil.
Teori Algoritme Pembelajaran Kontrol yang Efisien
Dalam mengejar algoritme pembelajaran kontrol yang efisien, memahami interaksi antara eksplorasi, eksploitasi, dan penyempurnaan kebijakan adalah hal yang terpenting. Ketika kita mengungkap seluk-beluk pengambilan keputusan di lingkungan yang dinamis, algoritme ini berfungsi sebagai suar pemandu, menerangi jalan menuju strategi kontrol yang optimal.
Disadur dari: en.wikipedia.org
Teknik Industri
Dipublikasikan oleh Muhammad Ilham Maulana pada 03 April 2024
Dalam dunia pembelajaran mesin, adakalanya kita dihadapkan pada situasi di mana tidak semua data memiliki label. Inilah yang menjadi tantangan dalam paradigma pembelajaran tanpa pengawasan (unsupervised learning). Namun, dengan munculnya model bahasa besar, kebutuhan akan data berlabel dalam jumlah besar menjadi semakin tinggi. Di sinilah peran weak supervision (pengawasan lemah) menjadi relevan.
Weak supervision merupakan paradigma pembelajaran mesin yang mengombinasikan sedikit data berlabel (yang biasanya digunakan dalam pembelajaran terbimbing/supervised learning) dengan sejumlah besar data tidak berlabel (yang biasanya digunakan dalam pembelajaran tanpa pengawasan/unsupervised learning). Dengan kata lain, nilai output yang diinginkan hanya diberikan untuk sebagian dari data pelatihan. Sisa datanya tidak berlabel atau berlabel secara tidak tepat.
Kecenderungan suatu tugas menggunakan metode yang diawasi vs. tidak diawasi. Nama tugas yang mengangkangi batas lingkaran memang disengaja. Hal ini menunjukkan bahwa pembagian tugas imajinatif klasik (kiri) yang menggunakan metode tanpa pengawasan tidak jelas dalam skema pembelajaran saat ini.
Secara intuitif, weak supervision dapat diibaratkan seperti ujian, di mana data berlabel bertindak sebagai contoh soal yang dijawab oleh guru untuk membantu siswa menyelesaikan soal-soal lain yang belum terjawab (data tidak berlabel). Dalam pengaturan transduktif, soal-soal yang belum terjawab ini bertindak sebagai soal ujian. Sedangkan dalam pengaturan induktif, mereka menjadi soal-soal latihan yang akan membentuk ujian.
Teknis, weak supervision dapat dilihat sebagai melakukan pengelompokan (clustering) dan kemudian memberi label pada kelompok-kelompok tersebut dengan data berlabel, mendorong batas keputusan (decision boundary) menjauh dari wilayah dengan densitas tinggi, atau mempelajari manifold satu dimensi di mana data berada.
Asumsi yang digunakan dalam weak supervision antara lain:
Metode
Beberapa metode yang digunakan dalam weak supervision meliputi model generatif, separasi densitas rendah, regularisasi Laplacian, dan pendekatan heuristik seperti self-training dan co-training.
Salah satu pendekatan utama dalam semi-supervised learning adalah menggunakan model generatif. Model ini berusaha untuk memahami distribusi data dari masing-masing kelas. Dengan menggunakan aturan Bayes, probabilitas bahwa suatu data tertentu memiliki label tertentu adalah proporsional terhadap distribusi tersebut. Model generatif ini mengasumsikan distribusi tertentu yang dapat diatur oleh parameter tertentu. Namun, jika asumsi-asumsi tersebut tidak tepat, data yang tidak terlabel dapat mengurangi akurasi solusi, meskipun jika asumsi tersebut benar, data yang tidak terlabel dapat meningkatkan kinerja model.
Metode lain yang umum digunakan adalah pemisahan low-density. Salah satu algoritma yang populer adalah Transductive Support Vector Machine (TSVM), yang bertujuan untuk memisahkan data yang tidak terlabel dengan tepat. TSVM memilih batas keputusan yang memiliki margin maksimal terhadap semua data. Selain itu, pendekatan lain seperti Gaussian process models, information regularization, dan entropy minimization juga digunakan dalam konteks ini.
Regulasi Laplacian juga merupakan metode yang umum digunakan dalam semi-supervised learning. Metode ini menggunakan representasi grafik dari data, dimana setiap titik data dihubungkan dengan tetangganya. Tujuannya adalah untuk memaksimalkan kehalusan solusi relatif terhadap manifold data. Graph Laplacian digunakan untuk mendekati regulasi intrinsik.
Beberapa metode dalam semi-supervised learning tidak secara intrinsik dirancang untuk memanfaatkan data yang tidak terlabel, melainkan menggunakan data tersebut dalam kerangka pembelajaran yang terawasi. Salah satunya adalah self-training, dimana model pertama kali dilatih dengan data terlabel, lalu diterapkan pada data yang tidak terlabel untuk menghasilkan lebih banyak data terlabel. Metode lainnya adalah co-training, yang melibatkan beberapa klasifikasi yang dilatih pada fitur yang berbeda.
Solusi Weak supervision
Weak supervision menawarkan solusi yang menjanjikan untuk masalah pembelajaran mesin di mana data berlabel sulit atau mahal untuk diperoleh, tetapi data tidak berlabel tersedia dalam jumlah besar. Dengan mengoptimalkan penggunaan data berlabel dan tidak berlabel, kita dapat meningkatkan kinerja model dan membuka peluang untuk aplikasi yang lebih luas dalam berbagai bidang.
Disadur dari: en.wikipedia.org
Teknik Industri
Dipublikasikan oleh Muhammad Ilham Maulana pada 03 April 2024
Pembelajaran tanpa pengawasan (unsupervised learning) adalah sebuah metode dalam pembelajaran mesin di mana algoritma belajar pola-pola secara ekslusif dari data yang tidak berlabel. Tujuannya adalah melalui peniruan (mimicry), yang merupakan mode pembelajaran penting pada manusia, mesin dipaksa untuk membangun representasi yang ringkas tentang dunianya dan kemudian menghasilkan konten imajinatif darinya.
Metode lain dalam spektrum pengawasan adalah Pembelajaran Penguatan (Reinforcement Learning) di mana mesin hanya diberikan skor kinerja numerik sebagai panduan, dan Pembelajaran Lemah atau Semi-Pengawasan di mana sebagian kecil data diberi label, dan Pembelajaran Kendali Sendiri (Self-Supervision).
Tugas vs. Metode dalam Jaringan Saraf Tiruan
Tugas jaringan saraf tiruan sering dikategorikan sebagai diskriminatif (pengenalan) atau generatif (imajinasi). Meskipun tidak selalu, tugas diskriminatif cenderung menggunakan metode pembelajaran terbimbing, sedangkan tugas generatif menggunakan pembelajaran tanpa pengawasan. Namun, pemisahan ini sangat kabur. Misalnya, pengenalan objek cenderung menggunakan pembelajaran terbimbing, tetapi pembelajaran tanpa pengawasan juga dapat mengelompokkan objek ke dalam kelompok. Selain itu, seiring kemajuan, beberapa tugas menggunakan kombinasi kedua metode, dan beberapa tugas beralih dari satu metode ke metode lainnya. Sebagai contoh, pengenalan gambar awalnya sangat bergantung pada pembelajaran terbimbing, tetapi kemudian menjadi hibrida dengan menggunakan pra-pelatihan tanpa pengawasan, dan akhirnya kembali ke metode terbimbing dengan munculnya dropout, ReLU, dan learning rate adaptif.
Proses Pelatihan
Selama fase pembelajaran, jaringan tanpa pengawasan berusaha meniru data yang diberikan dan menggunakan kesalahan dalam hasil tiru-tiruan untuk memperbaiki diri sendiri (yaitu, memperbaiki bobot dan biasnya). Terkadang kesalahan diekspresikan sebagai probabilitas rendah bahwa output yang salah terjadi, atau mungkin diekspresikan sebagai keadaan energi tinggi yang tidak stabil dalam jaringan.
Berbeda dengan metode terbimbing yang mendominasi penggunaan backpropagation, pembelajaran tanpa pengawasan juga menggunakan metode lain termasuk: Aturan Pembelajaran Hopfield, Aturan Pembelajaran Boltzmann, Contrastive Divergence, Wake Sleep, Inferensi Variasional, Maximum Likelihood, Maximum A Posteriori, Gibbs Sampling, dan backpropagating reconstruction errors atau hidden state reparameterizations.
Energ
Sebuah fungsi energi adalah ukuran makroskopik dari keadaan aktivasi jaringan. Dalam mesin Boltzmann, fungsi ini memainkan peran sebagai Fungsi Biaya. Analogi dengan fisika ini terinspirasi oleh analisis Ludwig Boltzmann tentang energi makroskopik gas dari probabilitas mikroskopik gerakan partikel , di mana k adalah konstanta Boltzmann dan T adalah suhu. Dalam jaringan RBM, relasinya adalah , di mana dan bervariasi di setiap pola aktivasi yang mungkin dan . Untuk lebih jelas, , di mana adalah pola aktivasi semua neuron (terlihat dan tersembunyi). Oleh karena itu, beberapa jaringan saraf awal dinamakan Mesin Boltzmann. Paul Smolensky menyebut sebagai Harmoni. Sebuah jaringan mencari energi rendah yang berarti Harmoni tinggi.
Jenis-Jenis Jaringan
Artikel ini menyajikan diagram koneksi berbagai jaringan tanpa pengawasan, di mana detail akan diberikan dalam bagian Perbandingan Jaringan. Lingkaran mewakili neuron dan tepi di antaranya adalah bobot koneksi. Seiring perubahan desain jaringan, fitur ditambahkan untuk memungkinkan kemampuan baru atau dihilangkan untuk mempercepat pembelajaran. Misalnya, neuron berubah antara deterministik (Hopfield) dan stokastik (Boltzmann) untuk memungkinkan output yang kuat, bobot dihilangkan dalam satu lapisan (RBM) untuk mempercepat pembelajaran, atau koneksi diizinkan menjadi asimetris (Helmholtz).
Contoh gambar.
Dalam dunia pembelajaran mesin, pembelajaran tanpa pengawasan (unsupervised learning) memegang peran penting dalam mengekstraksi pola dan struktur tersembunyi dari data tanpa label. Artikel ini akan mengeksplorasi beberapa metode dan jaringan yang digunakan dalam pembelajaran tanpa pengawasan, serta memberikan gambaran tentang perkembangan historisnya.
Sejarah Singkat:
Jenis-Jenis Jaringan:
Metode Lainnya:
Dengan eksplorasi terus-menerus dalam metode pembelajaran tanpa pengawasan, kita dapat meningkatkan kemampuan kecerdasan buatan dalam mengekstraksi wawasan berharga dari data kompleks tanpa label, membuka pintu untuk penemuan dan inovasi baru di berbagai bidang.
Disadur dari: id.wikipedia.org
Teknik Industri
Dipublikasikan oleh Muhammad Ilham Maulana pada 02 April 2024
Pembelajaran terpandu (supervised learning) merupakan salah satu paradigma dalam machine learning di mana data masukan (seperti vektor fitur) dan nilai keluaran yang diinginkan (sinyal pengawasan berlabel manusia) digunakan untuk melatih sebuah model. Data pelatihan diproses untuk membangun sebuah fungsi yang memetakan data baru ke nilai keluaran yang diharapkan. Skenario optimal akan memungkinkan algoritma untuk menentukan nilai keluaran dengan benar untuk instance yang belum pernah dilihat sebelumnya.
Langkah-langkah dalam Pembelajaran Terpandu:
Dalam memilih algoritma pembelajaran terpandu, ada beberapa faktor penting yang perlu dipertimbangkan, seperti trade-off bias-varians, kompleksitas fungsi, dimensi ruang masukan, dan kebisingan dalam nilai keluaran. Trade-off bias-varians mengacu pada keseimbangan antara kemampuan model untuk mempelajari pola dengan baik (bias rendah) dan kemampuannya untuk mengeneralisasi pola tersebut pada data baru (varians rendah). Kompleksitas fungsi mengacu pada seberapa rumit fungsi yang dipelajari, semakin kompleks semakin banyak data yang dibutuhkan untuk melatihnya dengan baik. Dimensi ruang masukan mengacu pada jumlah fitur yang digunakan, semakin banyak fitur semakin sulit untuk mempelajari pola yang relevan. Kebisingan dalam nilai keluaran mengacu pada adanya kesalahan atau noise dalam data pelatihan, yang dapat menyebabkan overfitting jika tidak ditangani dengan baik.
Algoritma yang populer digunakan antara lain Support Vector Machines, Regresi Linear, Regresi Logistik, Naive Bayes, Linear Discriminant Analysis, Pohon Keputusan, K-Nearest Neighbor, Jaringan Syaraf Tiruan (Multilayer Perceptron), dan Similarity Learning. Masing-masing algoritma memiliki kelebihan dan kekurangan tersendiri, sehingga pemilihan algoritma yang tepat sangat bergantung pada karakteristik masalah dan data yang dimiliki.
Secara umum, algoritma pembelajaran terpandu bekerja dengan mencari fungsi yang meminimalkan risiko empiris (kesalahan pada data pelatihan) atau meminimalkan risiko struktural (yang juga memperhitungkan kompleksitas fungsi). Risiko empiris mengacu pada seberapa baik model dapat mempelajari pola dari data pelatihan, sedangkan risiko struktural juga memperhitungkan kemampuan model untuk mengeneralisasi pola tersebut pada data baru.
Selain itu, ada beberapa generalisasi dari masalah pembelajaran terpandu standar, seperti semi-supervised learning, active learning, structured prediction, dan learning to rank. Semi-supervised learning melibatkan penggunaan data yang sebagian berlabel dan sebagian tidak berlabel untuk melatih model. Active learning melibatkan proses interaktif di mana algoritma dapat meminta label untuk data tertentu selama proses pelatihan. Structured prediction digunakan ketika nilai keluaran yang diinginkan adalah objek kompleks seperti pohon parsing atau grafik berlabel. Learning to rank digunakan ketika masukan berupa kumpulan objek dan nilai keluaran yang diinginkan adalah peringkat dari objek-objek tersebut.
Dengan kemampuannya dalam mempelajari pola dari data berlabel, pembelajaran terpandu menjadi salah satu pendekatan penting dalam machine learning untuk membangun model yang dapat melakukan prediksi atau pengambilan keputusan berdasarkan data baru yang belum pernah dilihat sebelumnya. Aplikasinya sangat luas, mulai dari pengenalan pola, pengolahan bahasa alami, analisis sentimen, rekomendasi sistem, dan banyak lagi. Dengan memahami konsep dasar dan memilih algoritma yang tepat, pembelajaran terpandu dapat menjadi alat yang sangat kuat untuk mengekstrak pengetahuan dari data dan membantu pengambilan keputusan yang lebih baik.
Disadur dari: id.wikipedia.org/en.wikipedia.org/wiki/Supervised_learning
Teknik Industri
Dipublikasikan oleh Muhammad Ilham Maulana pada 02 April 2024
Jaringan ad hoc nirkabel, juga dikenal sebagai WANET atau MANET, mewakili pendekatan terdesentralisasi untuk komunikasi nirkabel, berbeda dari pengaturan infrastruktur tradisional. Tidak seperti jaringan yang bergantung pada router tetap atau titik akses, jaringan ad hoc dibentuk secara spontan oleh perangkat yang berpartisipasi itu sendiri. Setiap node dalam jaringan berperan dalam merutekan data untuk node lain, secara dinamis menentukan penerusan data berdasarkan konektivitas jaringan dan algoritma perutean yang digunakan.
Ciri khas dari jaringan semacam ini terletak pada kesederhanaan pengaturan dan administrasinya, yang memungkinkan perangkat untuk membuat koneksi dan bergabung dengan jaringan di mana saja. Dalam MANET, setiap perangkat bebas bergerak secara independen ke segala arah, sehingga sering terjadi perubahan pada sambungan jaringan. Akibatnya, setiap perangkat berfungsi sebagai router, meneruskan lalu lintas yang bahkan tidak terkait dengan penggunaannya sendiri.
Tantangan utama dalam MANET adalah memastikan bahwa setiap perangkat terus menjaga informasi yang diperlukan untuk perutean lalu lintas yang efektif. Seiring dengan meningkatnya skala jaringan, mempertahankan status perutean secara real-time menjadi semakin kompleks karena faktor-faktor seperti lalu lintas overhead, goodput node individu, dan bandwidth komunikasi yang terbatas.
Jaringan ini dapat beroperasi secara mandiri atau terhubung ke Internet yang lebih luas, sering kali menampilkan beberapa transceiver antar node, sehingga menghasilkan topologi yang dinamis dan otonom. Biasanya, MANET memiliki lingkungan jaringan yang dapat dirutekan yang dilapisi di atas jaringan lapisan tautan ad hoc.
Sejarah Singkat
Secara historis, konsep jaringan ad hoc nirkabel sudah ada sejak awal tahun 1970-an dengan proyek PRNET yang disponsori oleh DARPA. Namun, baru pada pertengahan tahun 1990-an dengan munculnya kartu radio 802.11 yang murah, upaya akademis dan penelitian yang signifikan dimulai. Karya perintis oleh Charles Perkins dan Chai Keong Toh di awal tahun 1990-an meletakkan dasar untuk protokol routing seperti DSDV dan ABR, yang pada akhirnya mengarah pada implementasi praktis jaringan seluler ad hoc.
Sejak saat itu, jaringan ad hoc nirkabel tetap menjadi area penelitian yang dinamis, terus berkembang untuk mengatasi tantangan mobilitas, skalabilitas, dan perutean yang efisien. Dengan kemajuan teknologi dan protokol yang terus berlanjut, jaringan ini menjanjikan untuk beragam aplikasi mulai dari operasi militer hingga konektivitas sipil di lingkungan yang terpencil atau yang berubah dengan cepat.
Aplikasi Jaringan Nirkabel Ad Hoc
Jaringan nirkabel ad hoc adalah jaringan desentralisasi yang tidak bergantung pada infrastruktur tetap seperti menara radio atau titik akses. Jaringan ini terbentuk secara dinamis ketika perangkat seperti ponsel pintar, tablet, atau kendaraan saling terhubung secara langsung tanpa perantara. Sifat ad hoc yang fleksibel dan mudah didirikan membuatnya cocok untuk berbagai aplikasi, antara lain:
Dengan mobilitas tinggi, penyebaran cepat, dan skalabilitas yang baik, jaringan ad hoc menawarkan solusi komunikasi fleksibel untuk berbagai kebutuhan di lapangan tanpa bergantung pada infrastruktur tetap.
Tantangan dalam Jaringan Ad Hoc Nirkabel: Menavigasi Kompleksitas untuk Konektivitas yang Lancar
Jaringan ad hoc nirkabel, yang dikenal karena sifatnya yang terdesentralisasi dan bergerak, menawarkan sejumlah keuntungan di berbagai aplikasi seperti bantuan bencana, komunikasi militer, dan pemantauan lingkungan. Namun, di tengah manfaat yang menjanjikan tersebut, jaringan-jaringan ini menghadapi tantangan teknis dan implementasi yang signifikan, bersamaan dengan efek samping potensial seperti polusi spektrum radio.
Keuntungan bagi Pengguna:
Kesulitan Implementasi:
Efek Samping:
Radio dan Modulasi:
Tumpukan Protokol:
Routing:
Persyaratan Teknis untuk Implementasi:
Secara ringkas, meskipun jaringan ad hoc nirkabel menawarkan potensi besar untuk berbagai aplikasi, menangani tantangan yang terkait adalah kunci untuk mewujudkan manfaatnya secara penuh. Dengan penelitian dan inovasi yang terus berlangsung, mengatasi hambatan-hambatan ini akan membuka jalan bagi solusi jaringan ad hoc yang lebih tangguh, efisien, dan dapat diskalakan di masa depan.
Kontrol Akses Media
Dalam kebanyakan jaringan ad hoc nirkabel, node-node bersaing untuk mengakses medium nirkabel bersama, yang sering kali menghasilkan tabrakan (interference). Tabrakan dapat ditangani menggunakan penjadwalan terpusat atau protokol akses kontenisi terdistribusi. Dengan menggunakan komunikasi nirkabel yang kooperatif, kekebalan terhadap interferensi ditingkatkan dengan cara node tujuan menggabungkan interferensi diri dan interferensi dari node lain untuk meningkatkan proses dekoding sinyal yang diinginkan.
Simulasi
Uji Coba Emulasi:
Model Matematika:
Keamanan Jaringan Ad Hoc Nirkabel
Sebagian besar jaringan ad hoc nirkabel rentan terhadap serangan karena kurangnya kontrol akses, yang dapat menyebabkan penggunaan sumber daya yang berlebihan atau penundaan paket yang tidak diinginkan. Untuk melindungi jaringan, diperlukan mekanisme otentikasi yang memastikan hanya node yang diotorisasi yang dapat mengakses jaringan. Namun, jaringan tetap rentan terhadap serangan pelepasan atau penundaan paket.
Dalam lingkungan yang berubah-ubah, mengamankan 'sesi' dengan setiap node secara individual tidaklah praktis. Sebagai gantinya, penggunaan kunci prabagian untuk enkripsi di lapisan link menjadi solusi umum.
Manajemen kepercayaan dalam jaringan ad hoc menghadapi tantangan karena keterbatasan sumber daya dan kompleksitas interaksi jaringan. Pendekatan yang diperlukan adalah pengembangan metrik kepercayaan komposit yang memperhitungkan berbagai aspek jaringan dan skema manajemen kepercayaan yang sesuai. Meskipun penting, pemantauan terus-menerus setiap node dalam jaringan merupakan tugas yang sulit karena ketidakkontinuan jaringan dan keterbatasan sumber daya.
Disadur dari: en.wikipedia.org/wiki/Wireless_ad_hoc_network