Teknik Industri
Dipublikasikan oleh Muhammad Ilham Maulana pada 29 April 2024
Pemodelan data merupakan proses yang sangat penting dalam rekayasa perangkat lunak, sangat penting untuk membuat sistem informasi yang efisien. Mari kita pelajari tinjauan umum tentang aspek penting ini dan pahami signifikansinya dalam organisasi modern.
Apa itu Pemodelan Data?
Pemodelan data memerlukan pembuatan representasi terstruktur dari kebutuhan data yang penting untuk mendukung proses bisnis dalam sistem informasi organisasi. Hal ini melibatkan kolaborasi antara pemodel data, pemangku kepentingan bisnis, dan pengguna sistem potensial untuk memastikan keselarasan dengan kebutuhan bisnis.
Jenis-jenis Model Data:
Seiring perjalanan pemodelan data, ada tiga jenis model data yang berbeda:
Pentingnya Pemodelan Data:
Teknik pemodelan data memastikan konsistensi dan prediktabilitas dalam mengelola sumber daya data. Memfasilitasi:
Fleksibilitas Pemodelan Data:
Pemodelan data tidak terbatas pada proyek atau fase tertentu; pemodelan data berkembang secara terus menerus untuk beradaptasi dengan perubahan kebutuhan bisnis. Ini adalah proses yang dinamis, dengan model data dianggap sebagai dokumen hidup yang mengalami revisi dari waktu ke waktu. Menyimpan model-model ini dalam repositori memudahkan pengambilan, perluasan, dan pengeditan.
Jenis-jenis Pemodelan Data:
Ada dua jenis utama pemodelan data yang muncul:
Aplikasi Praktis:
Pemodelan data tidak hanya bersifat teoritis; ini adalah alat praktis untuk merinci persyaratan bisnis untuk database tertentu. Sering disebut sebagai pemodelan basis data, model data menemukan implementasi dalam basis data yang sebenarnya.
Topik dari Pemodelan Data
Pemodelan data berfungsi sebagai elemen dasar dalam bidang rekayasa perangkat lunak, memberikan struktur dan definisi pada data yang sangat luas dalam sistem informasi. Mari selami aspek-aspek utama model data dan signifikansinya dalam kerangka organisasi.
Memahami Model Data:
Model data berfungsi sebagai cetak biru untuk mengatur dan memanfaatkan data dalam sistem informasi. Dengan mengadopsi model data yang konsisten di seluruh sistem, kompatibilitas data yang lancar dapat dicapai, memungkinkan berbagai aplikasi berbagi data dengan mudah. Namun, membangun dan memelihara sistem dan antarmuka dapat menghabiskan banyak sumber daya dan secara tidak sengaja dapat menghambat operasi bisnis jika kualitas model data yang diterapkan di bawah standar.
Skema Konseptual, Logis, dan Fisik:
ANSI menggambarkan tiga tipe utama contoh model data:
Skema ini beroperasi secara independen, sehingga memberikan fleksibilitas dalam beradaptasi terhadap perubahan teknologi tanpa mengganggu model data secara keseluruhan.
Proses Pemodelan Data:
Pemodelan data melengkapi integrasi proses bisnis, yang pada akhirnya berpuncak pada pembuatan basis data. Hal ini melibatkan penyusunan skema konseptual, logis, dan fisik, yang kemudian diterjemahkan melalui Bahasa Definisi Data untuk membuat database. Model data yang diatribusikan sepenuhnya memberikan deskripsi komprehensif untuk setiap entitas, memastikan kejelasan dan koherensi dalam organisasi data.
Metodologi Pemodelan:
Ada dua metodologi pemodelan data yang dominan:
Diagram Hubungan Entitas:
Pemodelan hubungan entitas, yang digambarkan melalui diagram hubungan entitas, menawarkan representasi konseptual dari data terstruktur. Diagram ini membantu dalam desain sistem informasi dengan menggambarkan entitas dan hubungan, memfasilitasi analisis kebutuhan dan desain database.
Merangkul Pemodelan Data Semantik:
Pemodelan data semantik melampaui batasan struktur data logis dengan memberikan pandangan konseptual tentang hubungan data dalam konteks dunia nyata. Dengan mendefinisikan makna dan keterkaitan data secara akurat, model data semantik menjembatani kesenjangan antara simbol yang disimpan dan entitas dunia nyata, sehingga meningkatkan produktivitas dan efektivitas sistem.
Intinya, pemodelan data merupakan pilar penting dalam lanskap rekayasa perangkat lunak, yang memungkinkan organisasi untuk memanfaatkan potensi penuh dari aset data mereka sambil memastikan koherensi, kompatibilitas, dan kelincahan dalam sistem informasi.
Disadur dari: en.wikipedia.org
Teknik Industri
Dipublikasikan oleh Muhammad Ilham Maulana pada 29 April 2024
Pembersihan data, atau yang sering disebut juga data cleansing, merupakan proses vital dalam pengelolaan informasi. Ini melibatkan deteksi dan koreksi data yang korup atau tidak akurat dalam kumpulan data, tabel, atau database. Proses ini juga melibatkan identifikasi dan penanganan bagian data yang tidak lengkap, salah, tidak akurat, atau tidak relevan, yang kemudian diganti, dimodifikasi, atau dihapus.
Pembersihan data bisa dilakukan secara interaktif dengan menggunakan alat pengelolaan data, atau sebagai proses batch melalui skrip atau firewall kualitas data.
Setelah melalui proses pembersihan, data haruslah konsisten dengan data set serupa lainnya dalam sistem. Ketidaksesuaian yang terdeteksi atau dihilangkan mungkin awalnya disebabkan oleh kesalahan entri pengguna, korupsi dalam transmisi atau penyimpanan, atau oleh definisi kamus data yang berbeda dari entitas yang serupa dalam toko data yang berbeda.
Proses pembersihan data sebenarnya bisa melibatkan penghapusan kesalahan ketik atau validasi dan koreksi nilai terhadap daftar entitas yang diketahui. Validasi dapat bersifat ketat (seperti menolak alamat yang tidak memiliki kode pos yang valid), atau menggunakan pencocokan string yang kasar atau mendekati (seperti memperbaiki catatan yang sebagian cocok dengan catatan yang sudah ada).
Beberapa solusi pembersihan data akan membersihkan data dengan membandingkan dengan data set yang telah divalidasi. Praktik pembersihan data umum lainnya adalah peningkatan data, di mana data dibuat lebih lengkap dengan menambahkan informasi terkait. Misalnya, dengan menambahkan nomor telepon yang terkait dengan alamat tertentu. Pembersihan data juga dapat melibatkan harmonisasi (atau normalisasi) data, yang merupakan proses penggabungan data dari "berbagai format file, konvensi penamaan, dan kolom", dan mentransformasikannya menjadi satu set data yang kohesif; contoh sederhananya adalah perluasan singkatan ("jln, jend, dsb." menjadi "jalan, jenderal, dan seterusnya").
Motivasi
Data yang tidak akurat dan tidak konsisten dapat mengarah pada kesimpulan yang salah dan pengalihan investasi, baik dalam skala publik maupun privat. Misalnya, pemerintah mungkin ingin menganalisis data sensus penduduk untuk menentukan wilayah mana yang memerlukan lebih banyak pengeluaran dan investasi dalam infrastruktur dan layanan. Dalam hal ini, akan penting untuk memiliki akses ke data yang dapat diandalkan untuk menghindari keputusan fiskal yang keliru. Di dunia bisnis, data yang tidak akurat bisa mahal. Banyak perusahaan menggunakan database informasi pelanggan yang mencatat data seperti informasi kontak, alamat, dan preferensi. Misalnya, jika alamat tidak konsisten, perusahaan akan menderita biaya pengiriman ulang surat atau bahkan kehilangan pelanggan.
Panduan Esensial untuk Pembersihan Data yang Efektif
Dalam dunia modern yang didominasi oleh data, kualitas data yang tinggi menjadi kunci untuk mendukung keputusan yang tepat dan operasi yang efisien. Namun, untuk mencapai kualitas data yang tinggi, data harus memenuhi serangkaian kriteria kualitas yang ketat. Berikut adalah beberapa kriteria kualitas data yang penting:
Validitas: Validitas mengacu pada sejauh mana data sesuai dengan aturan bisnis atau batasan yang telah ditetapkan. Ini mencakup berbagai jenis kendala data, mulai dari tipe data, rentang nilai, keharusan kolom tidak boleh kosong, hingga batasan unik dan keanggotaan set.
Akurasi: Akurasi mengukur seberapa dekat data dengan nilai sejati atau standar. Meskipun mencapai akurasi yang tinggi bisa sulit, penggunaan sumber data eksternal seperti basis data eksternal dapat membantu memverifikasi akurasi data, terutama pada data kontak pelanggan.
Kelengkapan: Kelengkapan mengukur sejauh mana semua data yang diperlukan diketahui. Mengatasi ketidaklengkapan data bisa sulit, karena tidak mungkin untuk menyimpulkan fakta-fakta yang tidak pernah dicatat sebelumnya.
Konsistensi: Konsistensi mengacu pada sejauh mana data konsisten di seluruh sistem. Ketidaksesuaian data dapat terjadi ketika dua item data dalam satu set data saling bertentangan. Memperbaiki ketidaksesuaian data membutuhkan strategi yang cermat, seperti menentukan data mana yang paling baru atau sumber data yang paling dapat diandalkan.
Keseragaman: Keseragaman mengukur sejauh mana data menggunakan unit pengukuran yang sama di semua sistem. Ini penting terutama ketika data berasal dari berbagai lokasi atau sistem yang berbeda.
Proses pembersihan data melibatkan audit data, spesifikasi alur kerja, dan pelaksanaan alur kerja. Setelah proses pembersihan selesai, hasilnya harus diperiksa untuk memastikan kebenaran. Data yang tidak dapat diperbaiki selama proses pembersihan harus diperbaiki secara manual jika memungkinkan.
Untuk mencapai kualitas data yang tinggi, organisasi harus memprioritaskan budaya data yang berkualitas dan memastikan komitmen dari level eksekutif. Langkah-langkah seperti perbaikan lingkungan entri data, integrasi aplikasi, dan perubahan proses kerja juga harus dilakukan.
Dengan demikian, menjaga kualitas data adalah hal yang sangat penting untuk keberhasilan organisasi di era digital ini. Dengan menggunakan pendekatan yang sistematis dan berkelanjutan, organisasi dapat meningkatkan kualitas data mereka, yang pada gilirannya akan mendukung pengambilan keputusan yang lebih baik dan operasi yang lebih efisien.
Proses Mengoptimalkan Kualitas Data
Di dunia yang digerakkan oleh data saat ini, memastikan data berkualitas tinggi adalah hal yang sangat penting untuk membuat keputusan yang tepat dan mendorong operasi yang efisien. Namun, untuk mencapai hal ini, diperlukan ketaatan pada serangkaian kriteria kualitas yang ketat dan menerapkan proses pembersihan data yang kuat.
Audit data melibatkan penggunaan metode statistik dan basis data untuk mengidentifikasi anomali dan kontradiksi dalam data. Paket perangkat lunak komersial menawarkan alat untuk menentukan berbagai batasan dan menghasilkan kode untuk memeriksa data dari pelanggaran. Langkah ini sangat penting dalam menentukan anomali dan memahami karakteristiknya.
Setelah mengaudit data, anomali terdeteksi dan dihapus melalui urutan operasi yang dikenal sebagai alur kerja. Menentukan alur kerja yang efektif membutuhkan pemahaman menyeluruh tentang penyebab anomali. Setelah ditentukan, alur kerja dijalankan secara efisien, bahkan pada kumpulan data yang besar, meskipun hal ini dapat menimbulkan tantangan komputasi.
Setelah eksekusi alur kerja pembersihan, hasilnya diperiksa untuk memastikan kebenarannya. Setiap data yang tidak dapat dikoreksi secara otomatis akan dikoreksi secara manual jika memungkinkan. Proses berulang ini memungkinkan penyempurnaan data lebih lanjut melalui alur kerja pembersihan otomatis tambahan.
Mencapai sumber data yang berkualitas baik membutuhkan perubahan budaya dalam organisasi. Hal ini bukan hanya tentang menerapkan pemeriksaan validasi; namun juga tentang menanamkan komitmen terhadap kualitas data di semua tingkatan. Hal ini dapat melibatkan rekayasa ulang proses, berinvestasi dalam lingkungan entri data dan integrasi aplikasi, serta mempromosikan kerja sama lintas departemen.
Teknik tambahan seperti penguraian untuk kesalahan sintaksis, transformasi data untuk memetakan data ke dalam format yang diinginkan, eliminasi duplikat, dan metode statistik untuk menganalisis variabilitas data digunakan untuk meningkatkan kualitas data.
Arsitektur sistem yang dirancang dengan baik memberikan keseimbangan antara membersihkan data yang kotor dan menjaga integritas aslinya. Hal ini melibatkan penerapan arsitektur Extract, Transform, Load (ETL) yang dapat secara efektif membersihkan data sambil mencatat peristiwa berkualitas dan mengukur/mengontrol kualitas data di data warehouse.
Kesimpulannya, mengoptimalkan kualitas data adalah proses berkelanjutan yang membutuhkan kombinasi metodologi yang kuat, teknologi canggih, dan komitmen organisasi. Dengan memprioritaskan kualitas data, organisasi dapat membuka wawasan yang berharga, meningkatkan pengambilan keputusan, dan mendorong kesuksesan bisnis di era digital.
Meningkatkan Kualitas Data
Salah satu bagian dari sistem pembersihan data adalah serangkaian filter diagnostik yang dikenal sebagai layar kualitas. Setiap layar kualitas mengimplementasikan tes dalam aliran data yang, jika gagal, akan mencatat kesalahan dalam Skema Peristiwa Kesalahan. Layar kualitas dibagi menjadi tiga kategori:
Layar Kolom. Menguji kolom secara individual, misalnya untuk nilai-nilai tak terduga seperti nilai NULL; nilai non-numerik yang seharusnya numerik; nilai di luar jangkauan; dll.
Layar Struktur. Digunakan untuk menguji integritas hubungan antara kolom (biasanya kunci asing/kunci primer) dalam tabel yang sama atau berbeda. Mereka juga digunakan untuk menguji apakah sekelompok kolom valid sesuai dengan definisi struktural yang harus diikuti.
Layar Aturan Bisnis. Tes yang paling kompleks dari ketiganya. Mereka menguji apakah data, mungkin melintasi beberapa tabel, mengikuti aturan bisnis tertentu. Contoh dapat berupa, jika seorang pelanggan ditandai sebagai tipe pelanggan tertentu, aturan bisnis yang menentukan tipe pelanggan tersebut harus diikuti.
Ketika layar kualitas mencatat kesalahan, itu bisa menghentikan proses aliran data, mengirim data yang bermasalah ke tempat lain selain sistem target, atau menandai data tersebut. Pilihan terakhir dianggap sebagai solusi terbaik karena pilihan pertama membutuhkan seseorang untuk secara manual menangani masalah setiap kali terjadi dan pilihan kedua menyiratkan bahwa data hilang dari sistem target (integritas) dan sering tidak jelas apa yang harus terjadi pada data tersebut.
Disadur dari: en.wikipedia.org
Teknik Industri
Dipublikasikan oleh Muhammad Ilham Maulana pada 29 April 2024
Baik dalam bahasa umum maupun wacana akademis, data merupakan landasan utama pemrosesan dan analisis informasi modern. Mari kita selami esensi data, manifestasinya yang beragam, dan perannya yang sangat penting dalam membentuk upaya manusia di berbagai ranah.
Mendefinisikan Data
Data, baik yang diekspresikan sebagai nilai diskrit maupun aliran kontinu, merangkum banyak sekali informasi, mulai dari statistik faktual hingga konsep abstrak. Pada intinya, data terdiri dari nilai-nilai individual yang dikenal sebagai "datum", yang secara kolektif membentuk kumpulan data yang diorganisasikan ke dalam struktur seperti tabel, memberikan konteks dan memfasilitasi interpretasi. Dari penelitian ilmiah hingga analisis ekonomi, data merembes ke hampir semua aspek aktivitas manusia, yang berfungsi sebagai bahan mentah untuk mendapatkan wawasan yang dapat ditindaklanjuti.
Pengumpulan dan Analisis
Teknik pengumpulan data, termasuk pengukuran, observasi, dan analisis, menghasilkan repositori informasi numerik atau karakter yang sangat besar. Data lapangan, yang diperoleh dari lingkungan yang tidak terkendali, dan data eksperimental, yang dihasilkan melalui eksperimen ilmiah yang terkendali, menjalani analisis yang ketat dengan menggunakan berbagai metodologi seperti penghitungan, visualisasi, dan penalaran. Sebelum dianalisis, data mentah menjalani proses pembersihan untuk memperbaiki kesalahan dan menghilangkan pencilan, memastikan integritas dan keakuratan analisis selanjutnya.
Evolusi Big Data
Kemunculan teknologi komputasi telah mengantarkan era data besar, yang ditandai dengan volume informasi yang sangat besar, sering kali dalam skala petabyte. Metode analisis data tradisional kesulitan untuk bergulat dengan kumpulan data yang begitu besar, sehingga memerlukan pendekatan inovatif. Masuklah ke dalam ilmu data, sebuah bidang yang sedang berkembang yang memanfaatkan pembelajaran mesin dan kecerdasan buatan untuk mengekstrak wawasan yang bermakna dari data besar secara efisien.
Etimologi dan Terminologi
Berakar dari kata Latin "datum," yang berarti "sesuatu yang diberikan," istilah "data" telah berkembang selama berabad-abad untuk menunjukkan informasi komputer yang dapat dikirim dan disimpan. Meskipun penggunaannya sebagai kata benda massal dalam bentuk tunggal lazim digunakan dalam bahasa sehari-hari dan bidang teknis, bentuk jamaknya tetap ada dalam konteks yang berkaitan dengan pemrosesan dan analisis data. Dualitas linguistik ini menggarisbawahi sifat data yang memiliki banyak aspek dan beragam aplikasi di berbagai disiplin ilmu.
Arti Sebuah Data, informasi, pengetahuan, dan kebijaksanaan
Data, informasi, pengetahuan, dan kebijaksanaan adalah konsep yang penting dan saling terkait dalam konteks pengelolaan dan penggunaan informasi. Data adalah kumpulan nilai diskrit atau kontinu yang menyampaikan informasi, sedangkan informasi adalah hasil analisis data yang membuatnya bermanfaat untuk pengambilan keputusan. Pengetahuan adalah kesadaran tentang lingkungan yang dimiliki oleh suatu entitas, sementara kebijaksanaan melibatkan penggunaan pengetahuan dan informasi untuk membuat keputusan yang bijaksana.
Sebelum era komputasi, data dikumpulkan dan diinterpretasikan secara manual. Namun, perkembangan teknologi telah memungkinkan pengumpulan dan analisis data secara otomatis menggunakan komputer. Data digunakan untuk mengidentifikasi pola dan informasi yang berguna untuk meningkatkan pengetahuan kita tentang berbagai fenomena. Namun, penting untuk diingat bahwa data harus diinterpretasikan dengan hati-hati untuk menghasilkan informasi yang berguna.
Komputer digunakan untuk merepresentasikan data, baik dalam bentuk analog maupun digital. Program komputer adalah koleksi data yang diinterpretasikan sebagai instruksi untuk komputer. Metadata adalah deskripsi dari data lain yang membantu dalam pengelolaan dan pemahaman informasi.
Dalam era big data saat ini, tantangan utama adalah memastikan aksesibilitas, keandalan, dan keamanan data. Ini memerlukan standar dan praktik terbaik dalam pengelolaan data, termasuk persyaratan untuk data yang dapat ditemukan, diakses, diinterpretasikan, dan digunakan kembali. Dengan memahami perbedaan antara data, informasi, pengetahuan, dan kebijaksanaan, kita dapat mengoptimalkan penggunaan informasi untuk mengambil keputusan yang lebih baik dan mencapai tujuan kita secara efektif.
Dokumen Data
Dalam dunia teknologi informasi, data merupakan inti dari segala hal yang kita lakukan. Ketika data perlu didaftarkan atau diakses, hal ini biasanya dilakukan melalui apa yang disebut sebagai dokumen data. Jenis-jenis dokumen data meliputi:
Beberapa dari dokumen-dokumen data ini, seperti repositori data, studi data, set data, dan perangkat lunak, diindeks dalam Indeks Kutipan Data, sementara paper data diindeks dalam basis data bibliografis tradisional, seperti Science Citation Index.
Pengumpulan data dapat dilakukan melalui sumber primer (peneliti adalah orang pertama yang mendapatkan data) atau sumber sekunder (peneliti mendapatkan data yang sudah dikumpulkan oleh sumber lain, seperti data yang disebarkan dalam jurnal ilmiah). Metodologi analisis data bervariasi dan meliputi triangulasi data dan perkolasi data. Yang terakhir menawarkan metode yang terartikulasi untuk mengumpulkan, mengklasifikasikan, dan menganalisis data menggunakan lima sudut analisis yang mungkin (setidaknya tiga) untuk memaksimalkan objektivitas penelitian dan memungkinkan pemahaman fenomena yang sedang diselidiki selesai mungkin: metode kualitatif dan kuantitatif, tinjauan literatur (termasuk artikel ilmiah), wawancara dengan pakar, dan simulasi komputer. Data kemudian "diperkolasi" menggunakan serangkaian langkah yang telah ditentukan untuk mengekstrak informasi paling relevan.
Umur Panjang Data dan Aksesibilitas Data
Salah satu bidang penting dalam ilmu komputer, teknologi, dan ilmu perpustakaan adalah masa pakai dan aksesibilitas data. Penelitian ilmiah menghasilkan jumlah data yang besar, terutama dalam genomika dan astronomi, tetapi juga dalam ilmu kedokteran, misalnya dalam pencitraan medis. Di masa lalu, data ilmiah telah dipublikasikan dalam makalah dan buku, disimpan di perpustakaan, tetapi lebih baru ini hampir semua data disimpan di hard drive atau disk optik. Namun, berbeda dengan kertas, perangkat penyimpanan ini mungkin menjadi tidak terbaca setelah beberapa dekade. Penerbit ilmiah dan perpustakaan telah berjuang dengan masalah ini selama beberapa dekade, dan masih belum ada solusi yang memuaskan untuk penyimpanan data jangka panjang selama berabad-abad atau bahkan untuk selama-lamanya.
Masalah lainnya adalah bahwa banyak data ilmiah tidak pernah dipublikasikan atau disimpan di repositori data seperti basis data. Dalam survei terbaru, data diminta dari 516 studi yang diterbitkan antara 2 hingga 22 tahun sebelumnya, tetapi kurang dari satu dari lima studi ini mampu atau bersedia menyediakan data yang diminta. Secara keseluruhan, kemungkinan untuk mengambil data turun 17% setiap tahun setelah publikasi. Demikian juga, survei terhadap 100 set data di Dryad menemukan bahwa lebih dari setengahnya kurang memiliki rincian untuk memperbanyak hasil penelitian dari studi-studi ini. Hal ini menunjukkan situasi yang buruk dari akses terhadap data ilmiah yang tidak dipublikasikan atau tidak memiliki cukup rincian untuk direproduksi.
Salah satu solusi untuk masalah reproduktibilitas adalah upaya untuk mensyaratkan data yang FAIR, yaitu data yang Findable, Accessible, Interoperable, and Reusable. Data yang memenuhi persyaratan ini dapat digunakan dalam penelitian berikutnya dan dengan demikian memajukan ilmu pengetahuan dan teknologi.
Disadur dari: en.wikipedia.org
Teknik Industri
Dipublikasikan oleh Muhammad Ilham Maulana pada 29 April 2024
Etika Big Data, juga dikenal sebagai etika data, merujuk pada sistematisasi, pembelaan, dan rekomendasi konsep perilaku yang benar dan salah terkait dengan data, khususnya data pribadi. Sejak awal Internet, jumlah dan kualitas data telah meningkat secara dramatis dan terus meningkat secara eksponensial. Big data menggambarkan jumlah data yang sangat besar dan kompleks sehingga perangkat lunak aplikasi pemrosesan data tradisional tidak mencukupi untuk mengatasi mereka. Inovasi terbaru dalam penelitian medis dan perawatan kesehatan, seperti sekuensing genom massal, pencitraan resolusi tinggi, catatan medis pasien elektronik, dan sejumlah perangkat kesehatan terhubung internet telah memicu banjir data yang akan mencapai rentang exabyte dalam waktu dekat. Etika data semakin relevan seiring bertambahnya jumlah data karena dampaknya yang luas.
Etika Big Data berbeda dari etika informasi karena fokus etika informasi lebih berkaitan dengan isu-isu hak kekayaan intelektual dan kekhawatiran yang berkaitan dengan pustakawan, arsiparis, dan profesional informasi, sedangkan etika Big Data lebih berkaitan dengan pengumpul dan penyebar data terstruktur atau tidak terstruktur seperti pialang data, pemerintah, dan perusahaan besar. Namun, karena sistem kecerdasan buatan atau pembelajaran mesin secara rutin dibangun menggunakan kumpulan data besar, pembahasan seputar etika data sering terkait erat dengan etika kecerdasan buatan. Lebih baru-baru ini, masalah etika Big Data juga telah diteliti dalam hubungannya dengan bidang etika teknologi dan sains lainnya, termasuk etika dalam matematika dan etika rekayasa, karena banyak bidang matematika terapan dan rekayasa menggunakan kumpulan data yang semakin besar.
Pandangan dan Implikasinya
Etika data adalah topik yang semakin mendapat perhatian di era digital saat ini, karena melibatkan prinsip-prinsip yang penting untuk melindungi hak individu dan memastikan penggunaan data yang adil dan transparan. Artikel ini akan merangkum beberapa prinsip utama yang terkait dengan etika data dan implikasinya dalam konteks yang lebih luas.
1. Kepemilikan Data
Salah satu prinsip utama dalam etika data adalah bahwa individu memiliki hak atas data pribadi mereka. Ini mencakup hak untuk mengontrol dan membatasi berbagi data pribadi mereka. Pada era internet, pertanyaan tentang kepemilikan data semakin relevan dengan adanya observasi dan pemantauan yang masif terhadap individu.
2. Transparansi Transaksi
Prinsip ini menekankan pentingnya akses transparan terhadap desain algoritma yang digunakan dalam menghasilkan data agregat dari data personal seseorang. Hal ini juga memperhatikan bagaimana bias bisa terintegrasi dalam desain algoritma, yang dapat mengakibatkan penindasan sistematis.
3. Persetujuan
Sebelum menggunakan data personal seseorang, persetujuan yang diinformasikan dan secara eksplisit dinyatakan dari pemilik data diperlukan. Ini mencakup pemahaman yang jelas tentang data apa yang akan digunakan, oleh siapa, kapan, dan untuk tujuan apa.
4. Privasi
Prinsip privasi memastikan bahwa upaya yang wajar dilakukan untuk menjaga privasi dalam transaksi data. Meskipun adanya nilai tambah dari berbagi data, penting untuk mempertimbangkan kekhawatiran privasi individu.
5. Nilai Data
Pertanyaan ekonomi muncul seputar berapa nilai data sebenarnya. Meskipun sulit untuk mengukur secara tepat, beberapa pendekatan mencoba untuk mengaitkan nilai data dengan nilai layanan yang diberikan oleh perusahaan teknologi. Ini mengangkat pertanyaan apakah layanan teknologi gratis dalam pertukaran data pribadi adalah pertukaran yang sepadan bagi konsumen.
6. Keterbukaan Data
Konsep keterbukaan data mengusulkan bahwa data harus tersedia secara bebas dan tanpa batasan yang akan menghambat penggunaannya. Langkah-langkah menuju penerbitan dataset terbuka oleh pemerintah telah didorong untuk meningkatkan transparansi dan akuntabilitas. Penting untuk diingat bahwa kesediaan untuk berbagi data bervariasi dari individu ke individu, dan faktor-faktor seperti generasi dapat mempengaruhi sikap terhadap berbagi data. Dalam rangka menghadapi tantangan etis yang kompleks ini, langkah-langkah harus diambil untuk memastikan bahwa prinsip-prinsip etika data dihormati dan dilaksanakan dengan baik dalam praktik penggunaan data. Dengan memperhatikan prinsip-prinsip ini, kita dapat membangun lingkungan yang lebih inklusif dan adil dalam pemanfaatan data di era digital.
Disadur dari: en.wikipedia.org
Teknik Industri
Dipublikasikan oleh Muhammad Ilham Maulana pada 29 April 2024
Big data, istilah yang mulai populer sejak tahun 1990-an, mengacu pada kumpulan data yang terlalu besar atau kompleks untuk diolah oleh perangkat lunak aplikasi pengolahan data tradisional. Seiring dengan perkembangan teknologi, jumlah dan kompleksitas data terus meningkat secara eksponensial, menuntut pendekatan yang baru dalam analisis dan pengelolaannya. Analisis big data menawarkan sejumlah tantangan, termasuk dalam hal menangkap, menyimpan, menganalisis, dan membagikan data. Konsep dasar big data awalnya terkait dengan tiga konsep kunci: volume, variasi, dan kecepatan. Namun, keberadaan data yang berkualitas juga menjadi aspek penting, yang dikenal sebagai veracity.
Pertumbuhan non-linear dalam kapasitas penyimpanan informasi digital global dan berkurangnya penyimpanan analog.
Penggunaan istilah "big data" saat ini cenderung merujuk pada penggunaan analitik prediktif, analisis perilaku pengguna, atau metode analisis data canggih lainnya yang mengekstrak nilai dari big data, dan jarang terkait dengan ukuran tertentu dari kumpulan data. Analisis data besar dapat menemukan korelasi baru untuk "mengidentifikasi tren bisnis, mencegah penyakit, memerangi kejahatan, dan sebagainya".
Perkembangan teknologi juga memungkinkan jumlah dan ukuran data yang tersedia untuk berkembang pesat, melalui perangkat seperti perangkat seluler, perangkat Internet of Things, peralatan pemantauan udara, log perangkat lunak, kamera, mikrofon, pembaca radio-frequency identification (RFID), dan jaringan sensor nirkabel.Tantangan utama dalam memproses dan menganalisis big data adalah kemampuan perangkat lunak dan perangkat keras yang digunakan. Relational database management systems dan perangkat lunak statistik sering kali kesulitan dalam memproses dan menganalisis big data. Oleh karena itu, sering diperlukan perangkat lunak yang berjalan secara paralel pada banyak server.
Meskipun definisi big data terus berkembang, konsep tersebut secara umum mengacu pada kumpulan data yang terlalu besar atau kompleks untuk diolah oleh perangkat lunak dan alat tradisional. Pemahaman akan pentingnya big data di era digital saat ini semakin meningkat, dengan perkiraan pertumbuhan pasar big data yang mencapai miliaran dolar. Dibandingkan dengan bisnis intelligence, big data menggunakan analisis matematis, optimisasi, dan statistik induktif untuk mengungkapkan hubungan dan ketergantungan dari kumpulan data besar dengan kepadatan informasi rendah. Ini menawarkan potensi untuk memperoleh wawasan baru, memprediksi hasil, dan mengidentifikasi tren yang mungkin tidak terdeteksi sebelumnya.
Karakteristik Penting Big Data
Big data merupakan istilah yang merujuk pada kumpulan data yang besar dan kompleks, yang mencakup berbagai karakteristik yang menentukan nilai dan potensi wawasan yang dapat diperoleh dari data tersebut. Berikut adalah beberapa karakteristik utama dari big data:
Volume Volume mengacu pada kuantitas data yang dihasilkan dan disimpan. Besarnya data menentukan nilai dan wawasan potensial, dan biasanya data dianggap sebagai big data jika ukurannya lebih besar dari terabytes dan petabytes.
Variety Variety menggambarkan jenis dan sifat data. Teknologi sebelumnya seperti RDBMS efisien dalam menangani data terstruktur. Namun, perubahan dari data terstruktur menjadi data semi-terstruktur atau tak terstruktur menantang alat dan teknologi yang ada. Big data berkembang dengan tujuan utama untuk menangkap, menyimpan, dan memproses data semi-terstruktur dan tak terstruktur yang dihasilkan dengan kecepatan tinggi dan ukuran besar. Big data mencakup teks, gambar, audio, video, dan melengkapi bagian yang hilang melalui fusi data.
Velocity Velocity merujuk pada kecepatan data yang dihasilkan dan diproses untuk memenuhi tuntutan dan tantangan yang ada. Big data seringkali tersedia secara real-time dan dihasilkan secara lebih terus-menerus dibandingkan dengan data kecil.
Veracity Veracity mengacu pada kebenaran atau keandalan data, yang mencakup kualitas dan nilai data. Big data harus tidak hanya besar dalam ukuran, tetapi juga dapat diandalkan untuk mencapai nilai dalam analisisnya. Kualitas data yang ditangkap dapat bervariasi, mempengaruhi analisis yang akurat.
Value Value adalah nilai informasi yang dapat dicapai melalui pemrosesan dan analisis dataset besar. Nilai juga dapat diukur melalui penilaian terhadap kualitas lain dari big data, serta mewakili profitabilitas informasi yang diperoleh dari analisis big data.
Selain karakteristik utama di atas, big data juga memiliki karakteristik tambahan seperti kelembagaan, keunikannya, dan skalabilitas. Dengan memahami karakteristik ini, perusahaan dapat memanfaatkan potensi big data secara lebih efektif untuk mendukung pengambilan keputusan dan inovasi di berbagai bidang industri.
Arsitektur dan Teknologi di Balik Big Data
Arsitektur big data telah berkembang seiring waktu, dimulai dari repositori data khusus yang dibangun oleh perusahaan-perusahaan dengan kebutuhan khusus. Vendor komersial telah menawarkan sistem manajemen basis data paralel untuk big data sejak tahun 1990-an. Salah satu pelopor dalam hal ini adalah Teradata Corporation, yang pada tahun 1984 memasarkan sistem pemrosesan paralel DBC 1012. Sistem Teradata adalah yang pertama dalam menyimpan dan menganalisis 1 terabyte data pada tahun 1992.
Sejak itu, konsep big data semakin berkembang, dengan teknologi dan platform seperti HPCC Systems yang dikembangkan oleh Seisint Inc. (sekarang LexisNexis Risk Solutions) pada tahun 2000. Platform ini secara otomatis membagi, mendistribusikan, menyimpan, dan mengirimkan data terstruktur, semi-terstruktur, dan tak terstruktur melintasi beberapa server. Pengguna dapat menulis alur pipa pemrosesan data dan kueri dalam bahasa pemrograman dataflow deklaratif yang disebut ECL.
Selain itu, teknologi MapReduce yang dikembangkan oleh Google pada tahun 2004 juga memainkan peran penting dalam arsitektur big data. Konsep MapReduce menyediakan model pemrosesan paralel, yang kemudian diadopsi oleh proyek sumber terbuka Apache yang dikenal sebagai "Hadoop". Seiring dengan itu, Apache Spark dikembangkan pada tahun 2012 sebagai respons terhadap keterbatasan paradigma MapReduce, dengan menambahkan pemrosesan di dalam memori dan kemampuan untuk melakukan banyak operasi. Selain itu, pendekatan seperti MIKE2.0 telah diusulkan sebagai solusi untuk mengelola big data dengan lebih efisien. Pendekatan ini mengakui perlunya revisi dalam manajemen informasi sebagai dampak dari big data.
Dalam ekosistem big data, teknologi juga memegang peran penting. Teknik analisis data seperti A/B testing, machine learning, dan pemrosesan bahasa alami menjadi kunci dalam memahami dan mengolah big data. Selain itu, teknologi-teknologi seperti business intelligence, komputasi awan, dan basis data memainkan peran vital dalam menyimpan, mengelola, dan menganalisis data besar. Visualisasi data juga menjadi aspek penting dalam memahami hasil analisis data. Dengan teknologi dan arsitektur yang semakin berkembang, big data menjadi semakin dapat diakses dan dimanfaatkan oleh berbagai industri untuk meningkatkan pengambilan keputusan dan inovasi.
Pengapliasian Big Data
Perkembangan big data telah meningkatkan permintaan akan spesialis manajemen informasi, sehingga perusahaan-perusahaan besar seperti Software AG, Oracle Corporation, IBM, Microsoft, SAP, EMC, HP, dan Dell menghabiskan lebih dari $15 miliar untuk mengakuisisi perusahaan-perusahaan yang mengkhususkan diri dalam manajemen data dan analitika. Pada tahun 2010, industri ini bernilai lebih dari $100 miliar dan tumbuh hampir 10 persen setiap tahunnya, sekitar dua kali lebih cepat daripada bisnis perangkat lunak secara keseluruhan.
Teknologi yang menggunakan data semakin populer dalam ekonomi yang berkembang. Terdapat 4.6 miliar langganan ponsel di seluruh dunia, dan antara 1 miliar hingga 2 miliar orang mengakses internet. Antara tahun 1990 dan 2005, lebih dari 1 miliar orang di seluruh dunia menjadi bagian dari kelas menengah, yang berarti lebih banyak orang menjadi lebih melek informasi, yang pada gilirannya menyebabkan pertumbuhan informasi. Kapasitas efektif dunia untuk pertukaran informasi melalui jaringan telekomunikasi adalah 281 petabyte pada tahun 1986, 471 petabyte pada tahun 1993, 2.2 exabyte pada tahun 2000, 65 exabyte pada tahun 2007, dan perkiraan menempatkan jumlah lalu lintas internet pada 667 exabyte per tahun pada tahun 2014. Sekitar sepertiga dari informasi yang tersimpan secara global berupa teks alfanumerik dan data gambar diam, yang merupakan format paling berguna untuk sebagian besar aplikasi big data. Ini juga menunjukkan potensi dari data yang belum dimanfaatkan (misalnya dalam bentuk konten video dan audio).
Meskipun banyak vendor menawarkan produk siap pakai untuk big data, para ahli mendorong pengembangan sistem yang dibuat khusus in-house jika perusahaan memiliki kemampuan teknis yang cukup. Dengan demikian, big data telah membuka peluang baru dalam berbagai industri dan menjadi kunci untuk pengambilan keputusan yang lebih cerdas dan inovasi yang lebih besar.
Disadur dari: en.wikipedia.org
Teknik Industri
Dipublikasikan oleh Dias Perdana Putra pada 26 April 2024
Teknik industri
Teknik industri adalah teknologi yang berhubungan dengan desain, pemeliharaan, dan penggunaan sistem terintegrasi yang mencakup manusia, material, informasi, peralatan, dan energi. Menunjukkan pengetahuan dan keterampilan khusus dalam matematika, fisika dan ilmu sosial, serta prinsip dan teknik desain dan analisis teknik untuk memprediksi, memprediksi, dan mengevaluasi hasil dalam sistem apa pun. Bidang teknik industri merupakan suatu sistem terpadu yang mencakup manusia, material, informasi, peralatan, dan energi. Karena industri industri tidak hanya bertumpu pada matematika dan fisika, tetapi juga pada pekerjaan sosial dan manajemen, maka landasan keilmuan industri industri bersifat multidisiplin.
Sejarah
Di Dunia
Teknik industri lahir sejak zaman Pra Yunani kuno
Saat itu, orang menggunakan batu dan tulang sebagai perkakas. Alat-alat yang digunakan terus ditingkatkan untuk meningkatkan produktivitas masalah produksi. Inilah yang terjadi selama periode ini: Teknologi industri berakar kuat pada Revolusi Industri. Revolusi Industri secara dramatis mengubah metode produksi dan membantu melahirkan konsep-konsep ilmiah masa depan. Teknologi yang muncul saat itu adalah untuk mendukung mekanisasi banyak kerajinan tradisional industri tekstil. Beberapa penemuan teknologi pada masa Revolusi Industri antara lain penemuan mesin putar oleh James Hargreaves (1765), pengembangan pompa air oleh Richard Arkweight (1769), dan mesin uap oleh James Watt.
Awal mula teknik industri dapat ditelusuri ke berbagai sumber. Frederick Winslow Taylor sering dianggap sebagai bapak industrialisme, meskipun tidak ada satu pun idenya yang orisinal. Beberapa tulisan awal, seperti The Wealth of Nations karya Adam Smith, yang diterbitkan pada tahun 1776, mungkin telah mempengaruhi perkembangan teknologi industri. Esai Thomas Malthus tentang Kependudukan diterbitkan pada tahun 1798. Prinsip Ekonomi Politik dan Perpajakan karya David Ricardo, diterbitkan pada tahun 1817; dan Prinsip Ekonomi Politik karya John Stuart Mill, yang diterbitkan pada tahun 1848. Semua karya ini mengilhami laporan liberal tentang keberhasilan dan keterbatasan Revolusi Industri. Adam Smith adalah seorang ekonom terkenal pada masanya. Ekonomi adalah istilah yang digunakan untuk menggambarkan bidang ini di Inggris sebelum munculnya industrialisasi Amerika.
Kontribusi penting dan inspiratif lainnya bagi Taylor adalah Charles W. Babbage. Babbage adalah seorang profesor matematika di Universitas Cambridge. Salah satu kontribusinya yang paling penting adalah buku On the Economy of Machines and Manufacturing, yang diterbitkan pada tahun 1832, yang membahas banyak topik terkait manufaktur. Babbage membahas konsep kurva pembelajaran, bagaimana pemisahan kerja dan proses pembelajaran mempengaruhi pembelajaran dan pengaruh pembelajaran terhadap peningkatan pemborosan. Dia juga menginginkan cara untuk mengelola sampah. Charles Babbage adalah orang pertama yang membuat komputer. Dia menyebutnya sebagai "mesin komputasi analitik" untuk memecahkan masalah matematika yang kompleks.
Pada akhir tahun 1800-an terjadi perkembangan di Amerika yang mempengaruhi terciptanya sektor industri. Henry R. Towne menekankan ilmu ekonomi teknik: bagaimana meningkatkan keuntungan perusahaan. Towne kemudian menjadi anggota American Society of Mechanical Engineers (ASME), seperti banyak pendahulunya di industri ini. Towne menekankan perlunya mengembangkan bidang yang berfokus pada sistem manufaktur. Buku Panduan Teknik Industri menyatakan bahwa “ASME adalah domain teknik industri.” Towne bekerja dengan Fredrick A. Halsey untuk membuat dan menyajikan rencana aksi untuk mengurangi limbah ASME. Tujuan dari rencana ini adalah untuk meningkatkan produktivitas pekerja tanpa berdampak negatif pada biaya produksi. Rencana tersebut juga menyatakan bahwa sebagian keuntungan dapat didistribusikan kepada karyawan dalam bentuk insentif.
Henry L. Gantt (juga anggota ASME) menekankan pentingnya seleksi dan pelatihan personel. Dia, seperti Towne dan Halsey, menerbitkan artikel tentang topik seperti upah, seleksi personel, pelatihan, sistem insentif, dan penjadwalan kerja. Dia adalah pencipta bagan Gantt, bagan yang sangat populer yang sekarang digunakan untuk menjadwalkan pekerjaan. Hingga saat ini, diagram Gantt telah digunakan dalam bidang statistik untuk membuat perkiraan yang akurat. Jenis desain lain telah dikembangkan untuk tujuan perencanaan, seperti teknik evaluasi dan peninjauan program (PERT) dan perencanaan jalur kritis (CPM).
Sejarah industrialisasi tidak akan lengkap tanpa menyebut Frederick Winslow Taylor. Taylor mungkin adalah pionir paling terkenal di dunia korporat. Ia memperkenalkan ide penggunaan organisasi untuk mengatur pekerjaan kepada seluruh anggota ASME. Dia menciptakan istilah "manajemen ilmiah" untuk menggambarkan metode yang ditetapkan melalui penelitian. Seperti banyak pekerjaan lainnya, pekerjaan ini mencakup hal-hal seperti mengoordinasikan pekerjaan dengan manajer, memilih karyawan, melatih dan memberi penghargaan kepada setiap orang yang memenuhi standar yang ditetapkan oleh perusahaan. Manajemen ilmiah mempunyai dampak yang signifikan terhadap Revolusi Industri di Amerika Serikat dan luar negeri.
Keluarga Gilbreth dikatakan telah mengembangkan studi tentang waktu dan gerak. Frank Bunker Gilbreth dan istrinya Dr. Lillian M. Gilbreth telah melakukan penelitian tentang kelelahan kognitif, pengembangan keterampilan, studi gerakan, dan studi waktu. Lillian Gilbreth memegang gelar Ph.D. Dalam bidang psikologi membantu kita memahami permasalahan manusia. Keluarga Gilbreth percaya hanya ada satu cara yang lebih baik untuk melakukannya. Salah satu gagasan pokoknya adalah mengelompokkan gerak dasar manusia menjadi 17 jenis, dengan gerak yang berguna dan tidak efektif. Mereka menyebutnya klasifikasi Therbligs (ejaan kebalikan dari kata Gilbreth). Gilbreth menyimpulkan bahwa therblig yang efektif membutuhkan waktu lebih sedikit untuk diselesaikan tetapi sulit untuk dikurangi, dan hal ini berlaku untuk therblig yang tidak efektif. Gilbreth berpendapat bahwa semua jenis pekerjaan dapat dipecah menjadi jenis pekerjaan yang lebih sederhana.
Ketika Amerika Serikat berperang dalam Perang Dunia II, pemerintah diam-diam mengirimkan ilmuwan untuk mempelajari rencana perang, teknik manufaktur, dan sistem. Para ilmuwan ini telah mengembangkan berbagai metode untuk memodelkan dan memprediksi solusi optimal. Informasi lebih lanjut akan tersedia ketika informasi ini dipublikasikan. Penelitian Tindakan lahir. Banyak hasil penelitian yang hanya bersifat teoretis dan tidak ada penerapan praktisnya di dunia nyata. Inilah sebabnya kesenjangan antara tim riset operasi (OR) dan industri teknik sangat besar. Hanya sedikit perusahaan yang terburu-buru mendirikan dan menggunakan departemen penelitian ketenagakerjaan.
Pada tahun 1948, sebuah perkumpulan baru bernama American Institute of Industrial Engineers (AIIE) dibuka untuk pertama kalinya. Saat itu, sektor industri belum mendapat tempat khusus dalam struktur perusahaan. Setelah tahun 1960an, banyak universitas mulai mengadopsi metode riset operasi dan mengintegrasikannya ke dalam kurikulum teknik industri. Kini untuk pertama kalinya metode teknik industri mempunyai dasar analisis, termasuk metode tradisional lainnya. Perkembangan terkini dalam optimasi matematis dan teknik analisis statistik baru membantu mengisi kesenjangan dalam bidang teknik industri dan pendekatan teoritis.
Kemudian, dengan berkembangnya komputer digital, permasalahan teknik industri menjadi sangat besar dan kompleks. Komputer digital dan kemampuan untuk menyimpan data dalam jumlah besar memberi para insinyur industri alat baru untuk menghitung masalah besar dengan cepat. Biasanya diperlukan waktu berminggu-minggu atau berbulan-bulan untuk melakukan penghitungan pada suatu sistem, namun dengan komputer dan pengembangan "subrutin" pemrograman, penghitungan dapat diselesaikan dalam hitungan menit dan dengan mudah direproduksi untuk kriteria masalah baru. Fungsi penyimpanan data memungkinkan Anda menyimpan hasil perhitungan sistem sebelumnya dan membandingkannya dengan informasi baru. Data ini memungkinkan para insinyur industri mempelajari sistem produksi dan responsnya ketika terjadi perubahan.
Di Indonesia
Sejarah industrialisasi di Indonesia dimulai pada tanggal 1 Januari 1971 di Institut Teknologi Bandung (ITB). Sejarah pelatihan teknik industri di ITB tidak lepas dari keadaan sebenarnya para lulusan teknik pada tahun 1950-an. Pekerjaan lulusan teknik mesin saat itu merupakan kelanjutan dari masa pendudukan Belanda, sebatas mengoperasikan dan memelihara mesin dan fasilitas produksi. Karena tidak ada toko mobil di Indonesia, semua perhiasan ini diimpor.
Jika pada saat itu banyak terdapat bengkel-bengkel yang melakukan pembangunan bangunan baja seperti yang terdapat di kota Pasuruan dan Klaten, maka pekerjaan tersebut masih mencakup pemeliharaan mesin dan hasil produksi pabrik gula. Pabrik pengolahannya berlokasi di Jawa Timur dan Tengah. Oleh karena itu, pekerjaan desain yang dilakukan oleh lulusan teknik mesin saat itu hanya sebatas merancang dan membuat suku cadang dengan mudah berdasarkan model yang ada. Ada pekerjaan serupa untuk lulusan teknik mesin di pabrik semen dan bengkel kereta api.
Sebagai insinyur mesin pada saat itu, yang bekerja di bidang manajemen permesinan dan fasilitas manufaktur, tantangan terbesar yang mereka hadapi adalah bagaimana mengelolanya secara efisien dan ekonomis. Dengan demikian, pekerjaan lulusan teknik saat itu adalah mengatur beban-beban pada mesin agar produksinya ekonomis dan mesin awet agar dapat digunakan setiap saat.
Pada masa itu, seorang kepala pabrik yang umumnya berlatar-belakang pendidikan mesin, sangat ketat dan disiplin dalam pengawasan terhadap kondisi mesin. Di pagi hari sebelum pabrik mulai beroperasi, ia keliling pabrik memeriksa mesin-mesin untuk menyakini apakah alat-alat produksi dalam keadaan siap pakai untuk dibebani suatu pekerjaan.
Pengalaman ini menunjukan bahwa pengetahuan dan kemampuan perancangan yang dipunyai oleh seorang sarjana Teknik Mesin tidak banyak termanfaatkan, tetapi mereka justru memerlukan bekal pengetahuan manajemen untuk lebih mampu dan lebih siap dalam pengelolaan suatu pabrik dan bengkel-bengkel besar.
Sekitar tahun 1955, pengalaman semacam itu disadari benar keperluannya, sehingga sampai pada gagasan perlunya perkuliahan tambahan bagi para mahasiswa Teknik Mesin dalam bidang pengelolaan pabrik.
Pada tahun yang sama, orang-orang Belanda meninggalkan Indonesia karena terjadi krisis hubungan antara Indonesia-Belanda, sebagai akibatnya, banyak pabrik yang semula dikelola oleh para administratur Belanda, mendadak menjadi vakum dari keadministrasian yang baik. Pengalaman ini menjadi dorongan yang semakin kuat untuk terus memikirkan gagasan pendidikan alternatif bidang keahlian di dalam pendidikan Teknik Mesin.
Pada awal tahun 1958, mulai diperkenalkan beberapa mata kuliah baru di Departemen Teknik Mesin, diantaranya: Ilmu Perusahaan, Statistik, Teknik Produksi, Tata Hitung Ongkos dan Ekonomi Teknik. Sejak itu dimulailah babak baru dalam pendidikan Teknik Mesin di ITB, mata kuliah yang bersifat pilihan itu mulai digemari oleh mahasiswa Teknik Mesin dan juga Teknik Kimia dan Tambang.
Sementara itu pada sekitar tahun 1963-1964 Bagian Teknik Mesin telah mulai menghasilkan sebagian sarjananya yang berkualifikasi pengetahuan manajemen produksi/teknik produksi. Bidang Teknik Produksi semakin berkembang dengan bertambahnya jenis mata kuliah. Mata kuliah seperti: Teknik Tata Cara, Pengukuran Dimensional, Mesin Perkakas, Pengujian Tak Merusak, Perkakas Pembantu dan Keselamatan Kerja cukup memperkaya pengetahuan mahasiswa Teknik Produksi.
Sejak tahun 1966 hingga 1967, mata kuliah teknik produksi terus berkembang. Banyak mata kuliah terkait teknik industri sudah mulai ditawarkan. Sistem sumber daya manusia-mesin tidak hanya didasarkan pada sejumlah perspektif produksi, namun juga pada skala yang lebih besar: perusahaan dan lingkungan. Pada saat itu, departemen mulai mengajar mata kuliah manajemen sumber daya manusia, manajemen bisnis, statistik industri, desain tata letak pabrik, riset efisiensi, riset operasi, pengendalian kualitas statistik, dan tatanan linier. Maka pada tahun 1967, nama Teknik resmi diubah menjadi Teknik Industri yang merupakan bagian dari Jurusan Teknik Mesin ITB.
Pada tahun 1968 - 1971, dimulailah upanya untuk membangun Departemen Teknik Industri yang mandiri. Upaya itu terwujud pada tanggal 1 Januari 1971.
Program Pendidikan
Program Penelitian Teknik Industri didirikan di Pennsylvania State University pada tahun 1908 dengan Profesor Diemer sebagai direktur program. Ia mengembangkan kurikulum teknik industri yang independen terhadap teknik mesin, dipimpin oleh F.W. Atas perintah Taylor, dia mengontrak Universitas Pennsylvania untuk mengajar mata kuliah teknik. Pendidikan teknologi industri di Indonesia diperkenalkan pada tahun 1958 oleh Mathias Aroef, seorang profesor ITB yang belajar di Cornell University. ITB mendirikan Jurusan Teknik Mesin pada Departemen Teknik Mesin pada tahun 1960 sebagai cikal bakal berdirinya ilmu teknik mesin.
Tokoh
Pengembangan teknik industri tidak terlepas dari pengembangan kosep-konsep yang ditujukan untuk mencari proses kerja yang efektif dan efisien dari aspek manusia dan metode kerja. Konsep-konsep tersebut dikemukakan oleh beberapa ilmuwan yang telah berjasa dalam pengembangan bidang industri.
Bidang keahlian
Di beberapa perguruan tinggi di Indonesia, ilmu Teknik Industri diklasifikasikan ke dalam tiga bidang keahlian, yaitu Sistem Manufaktur, Manajemen Industri, Sistem Industri dan Tekno Ekonomi.
Peran
Teknologi industri diintegrasikan ke dalam empat sistem: manusia, material, peralatan, dan energi. Mengacu pada semua sistem yang harus menghasilkan atau meningkatkan nilai tambah dalam bentuk barang dan jasa. Oleh karena itu, insinyur industri berperan penting dalam mengelola keempat sistem tersebut. Insinyur industri melakukan hal berikut:
Bidang keahlian
Pada dasarnya, ilmu Teknik Industri dapat dibagi ke dalam tiga bidang keahlian, yaitu Sistem Manufaktur, Manajemen Industri, dan Sistem Industri dan Tekno Ekonomi.
Ilmu Dasar
Teknik Industri mempunyai dasar keilmuan.Dasar ilmu tersebut adalah:
Sumber: id.wikipedia.org