Pelajari definisi Big Data, karakteristik utamanya (5V), contoh penerapannya dalam kehidupan sehari-hari, serta manfaatnya bagi bisnis dan organisasi.
Apa itu Big Data
Big Data, Sebuah istilah yang sering kita dengar dalam melakukan pemrosesan data dan informasi. Tapi Apa itu Big Data? Big Data adalah kumpulan data yang memiliki jumlah banyak. Big Data biasanya didapatkan dari sumber data yang berfungsi menghasilkan berbagai informasi penting yang dibutuhkan bagi suatu individu maupun organisasi untuk mengambil keputusan yang tepat.
Big Data juga berkembang menjadi sebuah bidang keilmuan yang fokus dalam mengolah data yang bersifat besar dan kompleks menjadi suatu informasi yang akhirnya mudah dimengerti oleh orang awam melalui teknik seperti visualisasi data dan sebagainya. Dalam Big Data ada beberapa tahapan yang dilakukan agar suatu data mampu memberikan insight suatu informasi yaitu melakukan pengambilan data dengan query tertentu, data cleaning, mengolah data berdasarkan tipe tipe tertentu, lalu bila data data tersebut sudah siap dilakukan pengolahan dengan menggunakan query tertentu yang menghasilkan perhitungan/membuat kolom baru dari perhitungan data baru/melakukan filtering data dengan kondisi kondisi tertentu lalu akhirnya dilakukan visualisasi untuk mendapatkan kesimpulan atau informasi tertentu.
Manfaat Big Data yaitu meningkatkan produktivitas dan efisiensi sumber daya manusia dalam merumuskan strategi bisnis. Bagi pelaku bisnis dan perusahaan, keberadaan Big Data dapat mempermudah manajemen dan analisis data.
Variasi Data dalam Big Data
Dalam Big Data “Variasi” mengacu pada berbagai bentuk data. Bentuk data dalam Big Data biasanya dibagi menjadi data terstruktur dan tidak terstruktur. Berikut adalah perbedaan dan contohnya
Data Terstruktur
Data Terstruktur adalah jenis data yang memiliki format yang terorganisir dengan baik dan biasanya tersimpan dalam tabel atau basis data yang diketahui. Data jenis ini mudah dicari dan diolah karena mengikuti model yang konsisten dengan kolom dan baris yang jelas.
Contoh Data Terstruktur:
- Data Transaksi: Informasi mengenai transaksi yang dilakukan dalam sebuah usaha, seperti penjualan harian, pembelian, atau transaksi keuangan lainnya yang dicatat secara sistematis.
- Catatan Keuangan: Data keuangan seperti laporan laba rugi, neraca, dan laporan arus kas yang terstruktur dalam format tabel yang bisa dengan mudah diakses dan dianalisis.
- Database Pelanggan: Informasi mengenai pelanggan seperti nama, alamat, nomor telepon, dan riwayat pembelian yang tersimpan dalam basis data relasional.
Data Tidak Terstruktur
Data Tidak Terstruktur adalah data yang tidak memiliki bentuk atau model yang tetap. Data ini cenderung bersifat raw dan sering kali berbentuk teks, gambar, atau video. Data jenis ini lebih sulit untuk diolah dan dianalisis karena kurangnya struktur yang jelas.
Contoh Data Tidak Terstruktur:
- Teks: Email, artikel, postingan blog, dan komunikasi lainnya yang berbentuk teks bebas.
- Data Engagement Media Sosial: Komentar, likes, shares, dan interaksi lainnya pada platform media sosial yang seringkali berbentuk teks, gambar, atau video tanpa struktur yang konsisten.
- Dokumen dan File Multimedia: Dokumen Word, PDF, gambar, audio, dan video yang tidak memiliki metadata terstruktur atau format yang seragam.
Contoh Big Data
Big Data merupakan topik yang masih dan akan terus masuk dalam pembahasan di ranah teknologi. Hampir seluruh kegiatan yang kita jalankan dalam kehidupan sehari-hari bersinggungan dengan Big Data. Berikut ini adalah Contoh Big Data dalam kehidupan sehari-hari
Suatu instansi pemerintahan di Indonesia menggunakan Big Data untuk membantu dalam mengelola basis data penduduk secara efisien. Dengan mengumpulkan dan menganalisis data populasi dari berbagai sumber seperti akta kelahiran, kartu identitas dan akta kematian suatu instansi pemerintahan dapat memastikan integritas dan akurasi dari data penduduk.
Contoh Big Data selanjutnya yaitu penerapan penggunaan Big data dalam E-Commerce. Dalam sebuah E-Commerce Big Data digunakan untuk menentukan hasil rekomendasi sebuah produk di E-commerce. Rekomendasi ini sering digunakan untuk membeli sebuah barang, dimana analisis big data dapat mengevaluasi bagaimana riwayat belanja, pola pembelian konsumen, preferensi pelanggan, dan history penelusuran untuk memberikan rekomendasi produk kepada konsumen.
Contoh Big data selanjutnya yaitu penerapannya dalam bidang Internet of Things. Perangkat elektronik seperti sensor yang terhubung dengan IoT (Internet of Things) menghasilkan suatu output data. Data ini bisa saja memiliki volume yang besar sehingga disebut Big Data.
Beberapa contoh Big Data lain yang sering kita temuan antara lain:
- Sistem rekomendasi film pada platform streaming video yang akan merekomendasikan suatu film atau acara berdasarkan pola dan riwayat menonton pengguna.
- Analisis penjualan di toko ritel skala besar yang menggunakan data transaksi dengan volume yang besar untuk mengoptimalkan persediaan dan promosi.
- Pemantauan data media sosial oleh agency Digital marketing untuk memahami sentimen konsumen terhadap produk atau merek mereka.
- Analisis pola lalu lintas di aplikasi pemetaan untuk memprediksi waktu tempuh dan rute terbaik.
Karakteristik Big Data
Karakteristik Big data menggambarkan 5 elemen atau biasa disebut dengan 5V. 5V dalam Big Data adalah konsep yang digunakan untuk menggambarkan karakteristik utama dari data besar. Karakteristik big Data yaitu meliputi Volume, Velocity, Variety, Veracity, dan Value. Kita akan coba mengambil studi kasus pada https://analysis.netray.id/meneropong-tahun-politik-2024-melalui-pemberitaan-kicauan-warganet/ dan menentukan bagaimana karakteristik Big Data didalamnya
Volume (Jumlah)
Mengacu pada jumlah data yang sangat besar yang dihasilkan dari berbagai sumber data tertentu seperti media sosial, sensor IoT, transaksi online, dll.
Misalnya, Netray mengumpulkan data 700,5 ribu twit dari 79,8 ribu akun twitter dari kata kunci “Pilpres 2024”, “Capres 2024 dan Cawapres 2024”, dengan 515,6 juta impresi dan menjangkau hingga 318,8 juta akun.
Tantangannya adalah bagaimana menyimpan dan mengelola data dalam skala besar.
Variety (Keanekaragaman)
Menggambarkan berbagai jenis data yang tersedia, baik itu terstruktur, semi-terstruktur, maupun tidak terstruktur.
Contoh:
Data terstruktur: tabel database.
Data semi-terstruktur: JSON, XML.
Data tidak terstruktur: gambar, video, teks.
Dari kasus Netray,data yang dikumpulkan oleh Netray memiliki tipe data atau yang berbeda mulai dari teks, gambar, dan video.
Tantangan: bagaimana mengintegrasikan dan memproses semua jenis data ini.
Velocity (Kecepatan)
Merujuk pada kecepatan pengaliran data atau seberapa cepat data dihasilkan, diproses, dan diolah.
Contohnya, Data Twitter mengenai perbincangan “Pilpres 2024”, “Capres 2024 dan Cawapres 2024” terus bertambah seiring waktu secara realtime
Tantangannya bagaimana memastikan data yang bergerak cepat ini tetap relevan dan akurat saat dianalisis.
Value (Nilai)
Mengacu pada manfaat atau nilai yang bisa diambil dari data tersebut.
Contohnya, Dari data yang besar dan kompleks Netray berhasil menghasilkan informasi berupa hasil visualisasi untuk memahami diskursus soal Pemilu 2024 khususnya Pilpres 2024. Hasilnya adalah berupa insight atau isu yang tengah menjadi tren berdasarkan kata kunci “Pilpres 2024”, “Capres 2024 dan Cawapres 2024”
Tantangannya bagaimana mengekstrak nilai maksimal dari data besar.
Veracity (Kebenaran/Keakuratan)
Mengacu pada keakuratan dan keandalan data.
Contoh, Data yang diambil dari twitter ini termasuk dalam jenis obrolan dukungan pelanggan, komentar media sosial, dan ulasan oleh karena itu Netray menggunakan teknik Analisis sentimen untuk menganalisis teks digital menjadi sebuah pesan positif, negatif, atau netral.
Tantangannya memastikan data yang digunakan adalah kredibel dan relevan untuk analisis.
Big Data Life Cycle
Big Data Life Cycle adalah serangkaian tahapan sistematis dalam mengolah Big Data, mulai dari pengumpulan hingga pemanfaatan data untuk menghasilkan wawasan baru yang bernilai. Big Data Life Cycle banyak digunakan diberbagai sektor, seperti kesehatan, keuangan, bisnis, pendidikan, dan teknologi yang digunakan untuk pengambilan keputusan yang berbasis data. Menurut sumber dari [1] Big Data Life Cycle umumnya dibagi menjadi beberapa tahapan yaitu
- Business Case Evaluation
- Data Indentification
- Data Acquisition & Filtering
- Data Extraction
- Data Validation & Cleansing
- Data Agregation & Representation
- Data Analysis
- Data Visualization
- Utilization of Analysis Results

Berikut adalah penjelasan singkat tahapan dalam Big Data Life Cycle
- Business Case Evaluation: Tahap ini adalah tahapan evaluasi untuk menentukan apa sebenarnya tujuan dari analisis data yang akan dilakukan.
- Data Identification: Tahapan ini berguna untuk mengidentifikasi berbagai sumber data untuk mencapai tujuan yang ditentukan.
- Data Acquisition & Filtering: Tahapan ini berfungsi untuk mengumpulkan data dari sumber. Data yang dikumpulkan kemudian akan disaring dan tersisa data yang relevan untuk digunakan.
- Data Extraction: Tahapan ini akan mengambil data dari berbagai sumber ke dalam format tertentu yang dapat dianalisis lebih lanjut.
- Data Validation & Cleansing: Tahapan ini berfungsi untuk memastikan data yang diperoleh valid. Data kemudian akan dibersihkan dari berbagai kesalahan atau inkonsistensi.
- Data Aggregation & Representation: Tahapan ini akan menggabungkan data dari berbagai sumber dan menyajikannya dalam format yang sesuai untuk analisis.
- Data Analysis: Tahapan ini adalah bagian penting dalam Big Data Life Cycle dimana akan dilakukan analisis terhadap data yang telah disiapkan untuk memperoleh wawasan baru dan insight dari sebuah data.
- Data Visualization: Tahapan ini berfungsi menampilkan hasil analisis data dalam bentuk grafik atau visual agar mudah diinterpretasi dan dipahami.
- Utilization of Analysis Results: hasil analisis Big Data akan digunakan untuk mendukung pengambilan keputusan atau strategi bisnis.
Contoh Penerapan Big Data Life Cycle
Penulis mencoba melakukan analisa Big Data Life Cycle pada topik [2] mengenai Analysis of Patterns and Trends in COVID-19 Research. Penulis mencoba menganalisa tahapan Big Data Life Cycle apa saja yang dilakukan dalam penelitian tersebut
Business Case Evaluation
Teknik-teknik seperti BERT, TF-IDF, dan LDA digunakan untuk menganalisis literatur ilmiah terkait COVID-19. Hasil analisis ini dapat memberikan wawasan tentang tren penelitian, topik-topik utama yang sedang dipelajari, pola dan tren dalam artikel ilmiah terkait COVID-19, serta sentimen umum yang terkait dengan topik-topik tersebut. Informasi ini dapat membantu bisnis dalam mengidentifikasi peluang untuk inovasi, strategi baru, atau penelitian lebih lanjut yang dapat mendukung respons mereka terhadap pandemi.
Data Indentification
Penelitian ini memanfaatkan database abstrak penelitian mengenai COVID-19. Sumber data utama berasal dari Kaggle, yang merupakan repository yang disediakan oleh berbagai lembaga dan organisasi terkemuka. Selanjutnya, pemrosesan dan pra-pemrosesan data dilakukan menggunakan berbagai teknik dan alat, seperti penghapusan stop words, dan penggunaan algoritma pemrosesan bahasa alami seperti NLTK.
Dengan menggunakan dataset ini dan teknik-teknik analisis yang tepat, penelitian ini bertujuan untuk mengungkap pola dan tren dalam artikel ilmiah terkait COVID-19, serta untuk melakukan analisis sentimen terhadap topik-topik penelitian yang muncul.
Data Acquisition
Akuisisi data adalah proses mengumpulkan data mentah dari sumbernya (data collection)
- Data diakses melalui Kaggle, sebuah platform yang menyediakan akses ke berbagai dataset terbuka dari berbagai sumber, termasuk AI2, CZI, MSR, Georgetown, NIH, dan The White House.
- Dataset yang relevan untuk proyek ini adalah kumpulan metadata dari artikel-artikel ilmiah yang berhubungan dengan COVID-19, SARS-CoV-2, dan coronavirus terkait lainnya dari sekitar 253,545 artikel, dengan sebagian besar artikel diterbitkan dalam dua tahun terakhir dan mencakup 17 bahasa yang berbeda.
- Data diunduh atau diakses melalui API Kaggle sesuai dengan kebutuhan proyek.
Data Filtering
Tahap ini masuk dalam kategori “pre-processing” dan melibatkan proses memeriksa data untuk kesalahan, ketidaklengkapan, atau inkonsistensi
- Data yang diunduh dari Kaggle kemungkinan besar memiliki format CSV atau dalam bentuk file lain yang dapat diolah.
- Proses penyaringan data dilakukan untuk menghapus data yang tidak relevan dan mempersiapkan data untuk analisis lanjutan. Langkah-langkah yang dilakukan termasuk:
- Penghapusan Artikel Tidak Relevan: Artikel dengan topik yang tidak terkait dengan COVID-19, SARS-CoV-2, atau coronavirus lainnya dihapus dari dataset. Serta artikel dengan yang tidak mencantumkan kata-kata seperti “corona”, “sars”, dan “covid” di judul juga dihapus.
- Pemilihan Abstrak: Abstrak artikel digunakan sebagai sumber teks untuk analisis. Oleh karena itu, artikel yang tidak memiliki abstrak dihapus dari dataset.
- Penghapusan Artikel Tidak Berbahasa Inggris: Artikel dalam bahasa selain bahasa Inggris dihapus untuk memudahkan analisis dan pemrosesan lanjutan.
- Penghapusan Artikel dengan Tahun Publikasi Sebelum 2019: Fokus analisis adalah pada penelitian yang terkait dengan pandemi COVID-19. Oleh karena itu, artikel dengan tahun publikasi sebelum 2019 dianggap tidak relevan dan dihapus dari dataset.
- Pembersihan Teks Abstrak: Teks abstrak diubah menjadi huruf kecil, tanda baca, angka, dan karakter khusus dihapus, dan kata-kata berhenti (stop words) dihapus untuk membersihkan data dan mempersiapkannya untuk analisis NLP.
- Pengolahan data dari analisis TF-IDF dan LDA : teks abstrak diolah dengan tokenisasi, stemming, dan lemmatisasi. Kata-kata yang sering muncul dihapus untuk menghindari bias dalam topik yang dihasilkan, dengan fokus pada penggunaan kata-kata yang spesifik dan relevan terhadap topik penelitian
Hasil dari pre-processing ini menghasilkan 57,921 artikel final dengan memfokuskan pada artikel yang sangat relevan dengan COVID-19.
Data Extraction
Pada tahap ini terdapat tahapan Exploratory Data Analysis untuk memahami karakteristik utama dari kumpulan data. Dilakukan analisis eksplorasi pada abstrak dari kumpulan artikel yang terdiri dari 57,921 artikel. Statistik deskriptif menunjukkan bahwa rata-rata abstrak memiliki panjang 198 kata dan 1164.3 karakter dengan rata-rata panjang kata per abstrak adalah 5.9 karakter
- Ekstraksi data dilakukan menggunakan Term Frequency-Inverse Document Frequency (TF-IDF), pre-trained models, khususnya BERT (Bidirectional Encoder Representations from Transformers) dan DistilBERT.
- Mengidentifikasi kata-kata yang paling relevan dalam data
- Sebagai contoh, beberapa kata dengan skor TF-IDF tinggi termasuk ‘patient’, ‘infect’, ‘disease’, dan ‘pandemic’
- Kata-kata dengan frekuensi tinggi muncul di 25%-50% artikel, frekuensi sedang di 10%-25%, dan frekuensi rendah di 0.01%-1% artikel
- Ekstraksi data dilakukan menggunakan LDA Model
- Mengidentifikasi tema-tema penting dalam literatur yang berkaitan dengan bidang kesehatan dan penelitian medis
- LDA menggunakan 2 model
- Model LDA dengan lima topik memberikan wawasan yang lebih terdiferensiasi dan tampaknya lebih berguna daripada model dengan empat topik, karena model lima topik dapat membedakan lebih banyak area subjek yang jelas. Misalnya, dalam model lima topik, topik berfokus pada aspek kesehatan, penelitian, pengobatan, genetika, dan statistik kesehatan.
- Terjadi proses bernama tokenisasi dan transformasi teks menjadi vektor numerik dengan 768 elemen
- Selanjutnya, untuk mengatasi tantangan dimensionalitas yang tinggi digunakan algoritma Uniform Manifold Approximation and Projection (UMAP) untuk mereduksi dimensi data dari 768 menjadi hanya 10 dimensi.
- Selanjutnya ada proses roses klustering, digunakan algoritma HDBSCAN sehingga menghasilkan analisis topik dari kumpulan besar dokumen teks
- BERT adalah model bahasa pre-trained yang mampu menghasilkan representasi vektor untuk teks input. Model ini dilatih pada data besar yang tidak berlabel, sehingga dapat menangkap hubungan antara kata-kata dalam konteks yang lebih luas.
- Terjadi proses bernama tokenisasi dan transformasi teks menjadi vektor numerik dengan 768 elemen
- Selanjutnya, untuk mengatasi tantangan dimensionalitas yang tinggi digunakan algoritma Uniform Manifold Approximation and Projection (UMAP) untuk mereduksi dimensi data dari 768 menjadi hanya 10 dimensi.
- Selanjutnya ada proses roses klustering, digunakan algoritma HDBSCAN sehingga menghasilkan analisis topik dari kumpulan besar dokumen teks
Data Validation & Cleansing
Dua mahasiswa kedokteran melakukan validasi kualitatif, menguji tiga ukuran klaster: 60, 30, dan 15, untuk menemukan ukuran yang optimal menggunakan algoritma HDBSCAN. Hasil menunjukkan bahwa klaster berukuran 15 memberikan interpretasi dan kegunaan tertinggi, meski terjadi ketidaksepakatan lebih tinggi tentang kegunaan klaster yang lebih besar. Studi ini menekankan pentingnya penyesuaian ukuran klaster untuk mencapai keseimbangan antara kedalaman analisis dan konsensus interpretatif.
Data Analysis
- Pengolahan Teks dan Pemodelan Bahasa Alami (NLP)
- Penggunaan teknik NLP untuk menganalisis teks abstrak dari artikel ilmiah tentang COVID-19.
- Ini mencakup proses seperti tokenisasi, pembersihan teks, dan ekstraksi fitur seperti TF-IDF.
2. Penggunaan Model Bahasa Pre-trained (BERT dan DistilBERT)
- Pemanfaatan model bahasa pre-trained seperti BERT (Bidirectional Encoder Representations from Transformers) dan DistilBERT untuk menghasilkan representasi vektor dari teks abstrak.
- Representasi vektor ini digunakan untuk analisis lanjutan seperti pengelompokan dan identifikasi topik.
3. Penggunaan Algoritma Pengelompokan (Clustering) dan Pemodelan Topik (LDA):
- Penerapan metode clustering seperti HDBSCAN untuk mengelompokkan artikel berdasarkan kemiripan dalam teks abstrak.
- Pemodelan topik seperti LDA (Latent Dirichlet Allocation) digunakan untuk mengidentifikasi topik utama dalam literatur ilmiah.
4. Analisis Sentimen dan Visualisasi Data:
- Penggunaan teknik analisis sentimen untuk memahami opini dan sentimen yang terkandung dalam artikel ilmiah.
- Penggunaan visualisasi data untuk menyajikan wawasan yang ditemukan dalam dataset COVID-19.
Data Visualization
- Visualisasi kelompok BERT : Proyeksi UMAP digunakan untuk memvisualisasi hubungan kelompok dalam data. memberikan pemahaman visual dari distribusi topik.
- Analisi Sentimen : Menggunakan textBlob untuk menganalisa polaritas sentimen dari abstrak. Data menunjukan dominasi sentimen netral pada seluruh korpus dan kelompok tertetu.
Baca Juga : Apa itu OSPF
Hubungan Business Process Management (BPM) dan Big Data
Business Process Management (BPM) adalah pendekatan sistematis yang berfungsi untuk merancang, menjalankan, memantau, dan mengoptimalkan proses bisnis dalam sebuah organisasi dengan tujuan peningkatan efisiensi. Dalam Big Data Analytics, pemrosesan data dengan volume besar ini dapat memudahkan manajemen proses bisnis yang saat ini berjalan di suatu perusahaan (Business Process Management).
Peran Big Data Analytics penting untuk mencari pola dan korelasi antar data yang dimiliki sehingga akan menghasilkan insight atau wawasan baru terkait data tersebut. Data Analytics mampu mengetahui bagaimana behaviour konsumen, melakukan prediksi tren pasar ataupun mendeteksi adanya penyalahgunaan atau penipuan dalam pemrosesan informasi.
Pemanfaatan big data analytic terhadap Business Process Management (BPM) dapat mendukung core bisnis perusahaan seperti
- Optimalisasi proses
- Proyeksi hasil bisnis
- Pemantauan real-time
- Wawasan pelanggan
- Manajemen risiko
Baca Juga : Hub adalah
Big Data Analytics dalam Bisnis Pemasaran
Pemanfaatan big data analytics dalam bisnis layanan pemasaran (marketing service) dapat membuka berbagai peluang untuk mengoptimalkan proses-proses yang ada. Beberapa proses yang dapat dioptimalkan melalui analisis big data dalam tipe bisnis ini termasuk:
Analisis Sentimen
Analisis big data dapat digunakan untuk memantau dan menganalisis sentimen pelanggan terhadap merek di media sosial dan platform online lainnya. Ini membantu memahami persepsi pelanggan tentang merek Anda dan merespons dengan cepat terhadap umpan balik yang diberikan.
Kinerja Konten
Melalui analisis big data, Anda dapat memahami kinerja konten pemasaran Anda di berbagai kanal dan platform. Ini memungkinkan Anda untuk mengoptimalkan alokasi anggaran pemasaran Anda dan fokus pada kanal yang memberikan hasil terbaik.
Pengukuran Kinerja Kampanye
Analisis big data memungkinkan Anda untuk melacak dan mengukur kinerja kampanye pemasaran Anda secara lebih detail. Anda dapat melihat metrik seperti tingkat konversi, tingkat keterlibatan, dan ROI untuk mengevaluasi efektivitas kampanye Anda dan melakukan penyesuaian yang diperlukan.
Pemodelan Prediktif
Dengan memanfaatkan big data analytics, Anda dapat melakukan pemodelan prediktif untuk memprediksi perilaku pelanggan di masa depan. Ini memungkinkan Anda untuk mengidentifikasi peluang penjualan baru, memperkirakan nilai pelanggan, dan mengoptimalkan strategi pemasaran Anda.
Analisis Sentimen
Analisis big data dapat digunakan untuk memantau dan menganalisis sentimen pelanggan terhadap merek Anda di media sosial dan platform online lainnya. Ini membantu Anda memahami persepsi pelanggan tentang merek Anda dan merespons dengan cepat terhadap umpan balik yang diberikan.
Kesimpulan
Big Data adalah kumpulan data besar dan kompleks yang memungkinkan pengambilan keputusan berbasis informasi dengan lebih efektif. Melalui tahapan analisis seperti data cleaning, pengolahan, hingga visualisasi, Big Data membantu individu maupun organisasi memahami data dan menghasilkan wawasan berharga. Dengan penerapan yang luas, mulai dari e-commerce hingga Internet of Things (IoT), Big Data menjadi pilar utama dalam transformasi digital.
Optimalkan keputusan bisnis Anda dengan solusi berbasis Big Data. Pelajari lebih lanjut tentang bagaimana teknologi ini dapat membantu bisnis Anda berkembang di era digital bersama Telkom University
Referensi
[1] Erl, T., Khattak, W., & Buhler, P. (2016). Big data fundamentals: Concepts, Drivers & Techniques. Pearson.
[2] Dornick, C., Kumar, A., Seidenberger, S., Seidle, E., & Mukherjee, P. (2021). Analysis of patterns and trends in COVID-19 research. Procedia Computer Science, 185, 302–310. https://doi.org/10.1016/j.procs.2021.05.032
Penulis : Meilina Eka A