Model Klasifikasi Multi Class
Model Klasifikasi Multi Class
Model Klasifikasi Multi Class
Model pre-trained word embedding merupakan sebuah model word embedding yang telah dilatih pada
dataset yang berukuran besar dan general, agar memiliki pemahaman semantik maupun sintaksis
yang lebih baik. Pada tahun 2018, Devlin et al. mengusulkan sebuah model, yaitu Bidirectional
Encoder Representations from Transformer (BERT) yang berhasil mendapatkan performa state-of-
the-art pada banyak studi terkait NLP. BERT menggunakan Transformer yang merupakan
mekanisme yang mempelajari hubungan kontekstual antara kata- kata dalam teks menggunakan self-
attention mechanism (Vaswani et al., 2017). Khusus untuk bahasa Indonesia, Koto et al. (2020)
berhasil mengembangkanmodel pre-trained BERT yang bernama IndoBERT.
Deep learning merupakan metode pembelajaran mesin yang terinspirasi oleh cara kerja sistem saraf
otak manusia. Sistem ini dinamakan Jaringan Syaraf Tiruan (Artificial Neural Network - ANN).
Pada model klasifikasi teks, vektor kata yang dihasilkan dari proses word embedding dapat dijadikan
sebagai input pada lapisan neural network yang diklasifikasikan berdasarkan informasi yang dipelajari.
Long Short-Term Memory (LSTM) merupakan modifikasi dari arsitektur Recurrent Neural Network
(RNN) yang dapat mengatasi masalah vanishing gradient saat memproses data sequential yang
panjang.
Telah ditemukan beberapa penelitian mengenai pengembangan model klasifikasi teks pada dataset
berbahasa Indonesia. Koto et al. (2020) melakukan fine-tuning pada model yang dia kembangkan,
yaitu IndoBERT untuk tugas analisis sentimen dan berhasil mendapatkan F1-score sebesar 84,13%.
Muhammad et al. (2021) juga mencoba mengembangkan model analisis sentimen menggunakan
Word2Vec dan Long Short-Term Memory (LSTM) dengan akurasi mencapai 85,96%. Di sisi lain,
Hilmiaji et al. (2021) mencoba mengidentifikasi emosi dari tweet berbahasa Indonesia ke dalam 5
kelas menggunakan word embedding dari library Keras dengan arsitektur CNN dan berhasil
mendapatkan F1-score sebesar 90,2%. Sedangkan Ramadhan (2021) mencoba mengklasifikasikan
berita online Indonesia berdasarkan 4 topik yang sedang populer menggunakan Word2Vec dan K-
Nearest Neighbor dengan akurasi 89,2%.
Beberapa penelitian yang telah disebutkan sebelumnya telah berhasil mengembangkan model
klasifikasi teks baik yang berbasis binary classification maupun multiclass classification, khususnya
pada dataset berbahasa Indonesia. Akan tetapi, model yang dikembangkan masih memiliki potensi
untuk ditingkatkan akurasinya dengan menerapkan model pre-trained word embedding yang memiliki
performa state-of-the-art dan mengombinasikannya dengan arsitektur neural network. Oleh karena itu,
pada penelitian ini diusulkan model klasifikasi teks yang mengombinasikan model pre-trained
IndoBERT dengan salah satu arsitektur Recurrent Neural Network (RNN), yaitu Long Short-Term
Memory (LSTM), dalam mengklasifikasikan tweet berbahasa Indonesia ke beberapa kategori sesuai
dengan konteksnya.
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
2
dengan salah satu arsitektur Recurrent Neural Network (RNN), yaitu Long Short-Term Memory
(LSTM).
Researchers in both advanced and developing economies have produced results when discussing
liquidity ratio and profitability ratio in Nigeria. Duruechi et al (2016), Bassey and Moses (2015), and
Edem (2017) all looked at liquidity management and performance from a macroeconomic viewpoint
in Nigeria, with minimal attention paid to the pharmaceutical industry. Even in a few research that
looked at other sectors, such as Kehinde (2013), and Idowu, et al, (2017), there were contradicting and
varied results.
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
3
2.2.4 Tokenizing
Tokenizing adalah prosedur pemecahan teks menjadi kata, frasa, atau bagian lain yang bermakna,
yaitu token (Uysal & Gunal, 2014). Dengan kata lain, tokenizing adalah proses segmentasi teks, yang
biasanya dilakukan dengan mempertimbangkan hanya karakter alfabet atau alfanumerik yang dibatasi
oleh karakter non-alfanumerik (tanda baca dan spasi). Metode ini bertujuan sebagai penyelidikan
kata-kata dalam sebuah kalimat. Proses tokenizing dapat dilakukan dengan menggunakan fungsi
word_tokenize yang disediakan oleh libary NLTK. Proses tokenizing pada BERT dilakukan dengan
menggunakan metode WordPiece, di mana setiap kalimat akan ditokenisasi menjadi per kata atau sub
kata.
2.2.5 Stemming
Satu kata dapat muncul dalam berbagai bentuk, namun memiliki makna semantik yang sama. Pada
kasus bahasa Indonesia, variasi bentuk kata muncul akibat adanya penambahan imbuhan (awalan dan
akhiran) pada kata dasar, seperti kata “makan” ditambah dengan awalan “me-” akan menjadi
“memakan” atau ditambah dengan akhiran “-an” akan menjadi “makanan”. Sehingga diperlukan
sebuah metode yang dapat menggabungkan berbagai bentuk kata ke dalam ruang fitur yang sama.
Salah satu metode yang dapat digunakan adalah stemming, yang bertujuan untuk mendapatkan bentuk
kata dasar dari variasi kata turunannya. Proses stemming untuk bahasa Indonesia dilakukan dengan
menggunakan library Sastrawi (Robbani, 2018).
2.3.1 BERT
Bidirectional Encoder Representations from Transformer (BERT) pertama kali diperkenalkan pada
tahun 2018 oleh Devlin et al. yang merupakan peneliti dari Google AI Language. Sesuai dengan
namanya, BERT menggunakan Transformer yang merupakan mekanisme yang mempelajari
hubungan kontekstual antara kata-kata dalam teks menggunakan self-attention mechanism (Vaswani
et al., 2017). Self-attention mechanism memungkinkan input untuk berinteraksi satu sama lain (self)
dan mencari tahu siapa yang harus diberi perhatian lebih (attention). Representasi urutan kata dari
sebuah kalimat dihitung dengan menghubungkan kata-kata yang berbeda dalam urutan yang sama
menggunakan mekanisme encoder dan decoder.
3.2.2 Word2Vec
Mikolov et al. (2013) mengusulkan model yang merepresentasikan "word to vector" sebagai arsitektur
word embedding yang ditingkatkan dari model Neural Network Language Model (NNLM).
Pendekatan Word2Vec menggunakan shallow neural network dengan dua hidden layer. Terdapat dua
arsitektur yang berbeda pada Word2Vec, yaitu Continuous Bag-of-Words (CBOW), dan Continuous
Skip-gram untuk membuat vektor berdimensi tinggi dari setiap kata.
Continuous Bag-of-Words
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
4
Pada model Continuous Bag-of-Words, representasi terdistribusi dari konteks (kata-kata di sekitarnya)
digabungkan untuk memprediksi kata di tengah. Misalnya, kata "uang" dan "nasabah" sebagai konteks
untuk kata target "bank".
Continuous Skip-gram
Arsitektur model lain yang sangat mirip dengan CBOW adalah model Continuous Skip-gram. Namun,
alih-alih memprediksi kata saat ini berdasarkan konteksnya, ia mencoba memaksimalkan klasifikasi
kata berdasarkan kata lain dalam kalimat yang sama. Skip-gram memiliki performa yang lebih baik
dari CBOW pada sebagian besar evaluasi, tapi CBOW lebih cepat untuk dilatih (Mikolov et al.,
2013).
2.6 TensorFlow
TensorFlow (TF) merupakan open source library yang sangat populer untuk pengembangan machine
learning berskala besar (Google Brain Team, 2015). TensorFlow mengemas model machine learning
dan deep learning beserta algoritmanya yang dapat digunakan untuk berbagai kebutuhan. TensorFlow
menggunakan Python sebagai front-end API-nya serta mengeksekusi aplikasinya menggunakan
bahasa pemrograman C++.
2.7 Scikit-learn
Scikit-learn merupakan machine learning library untuk bahasa pemrograman Python yang dapat
digunakan secara gratis (Cournapeau, 2007). Scikit-learn memiliki banyak fitur, seperti pemrosesan
data, berbagai algoritma klasifikasi, regresi, dan clustering, serta evaluasi model. Scikit-learn didesain
untuk dapat dioperasikan bersama library NumPy, numerical dan scientific library milik Python.
2.8 Hyperparameter
Hyperparameter adalah parameter dari algoritma pembelajaran yang tidak terpengaruh oleh algoritma
pembelajaran itu sendiri ( ron, 2017). Hyperparameter harus diatur sebelum pelatihan dan tetap
konstan selama pelatihan. Melakukan hyperparameter tuning merupakan tahapan penting dalam
membangun model machine learning maupun deep learning. Hal ini dilakukan agar didapatkan model
dengan performa optimal.
2.8.1 Epoch
Epoch merupakan hyperparameter yang menentukan berapa kali neural network melakukan proses
pelatihan terhadap seluruh dataset. Satu epoch artinya ketika seluruh dataset sudah melalui proses
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
5
pelatihan pada neural network sampai dikembalikan lagi ke awal (Digmi, 2018). Proses pelatihan
model tidak dapat dilakukan hanya dengan menggunakan satu epoch. Hal ini dikarenakan dataset
yang digunakan terbatas dan untuk mengoptimalkan grafik gradient descent perlu adanya proses
iteratif. Penentuan jumlah epoch bergantung pada keberagaman data pada dataset yang dimiliki.
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
6
ditingkatkan sebesar 1/(1 − 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡𝑎𝑠), sehingga jumlah dari semua input tidak berubah. Proses
ini dapat mencegah terjadinya overfitting dan juga mempercepat proses pelatihan.
di mana 𝑒 merupakan konstanta matematika, yang merupakan basis dari logaritma natural.
Pada LSTM layer, fungsi sigmoid digunakan sebagai activation function untuk forget gate (persamaan
(3.3)), input gate (persamaan (3.4)), dan output gate (persamaan (3.7)). Sedangkan pada output layer,
fungsi sigmoid dapat bekerja dengan baik pada tugas binary classification karena kelas target hanya
akan memiliki nilai 0 atau 1.
di mana 𝑒 merupakan konstanta matematika, yang merupakan basis dari logaritma natural.
Pada LSTM layer, fungsi tanh digunakan sebagai activation function untuk candidate cell state
(persamaan (3.5)) dan final output gate (persamaan (3.8)).
4. Linear
Linear activation function juga disebut “identitas” (dikalikan dengan 1) atau “no activation” karena
fungsi ini tidak mengubah weighted sum dari input dengan cara apa pun dan mengembalikan nilai
secara langsung.Fungsi linear secara matematis dirumuskan oleh persamaan (3.12).
𝐿(𝑥) = 𝑥 (3.12)
5. Softmax
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
7
Softmax activation function mengeluarkan nilai vektor berjumlah 1 yang dapat diinterpretasikan
sebagai probabilitas keanggotaan kelas. Fungsi ini mirip dengan fungsi argmax yang menghasilkan 0
untuk semua kelas dan 1 untuk kelas yang dipilih. Softmax merupakan "softer" version dari fungsi
argmax yang memungkinkan output dari setiap kelas memiliki nilai probabilitas yang apabila
dijumlahkan akan berjumlah 1. Fungsi softmax secara matematis dirumuskan oleh persamaan (3.13),
𝑠(𝑥) = (3.13)
∑ ( )
di mana 𝑥 merupakan vektor input, exp () merupakan fungsi eksponensial standar, 𝑥𝑖 adalah vektor
input pada elemen ke-i, 𝑥𝑗 vektor input pada elemen ke-j yang akan dijumlahkan hasil perhitungan
eksponensialnyahingga elemen ke-n, dan 𝑛 adalah jumlah kelas.
Fungsi softmax dapat bekerja dengan baik pada output layer untuk tugas multiclass classification,
karena dapat menghasilkan vektor dengan panjang sesuai dengan jumlah kelas dan dinormalisasi agar
memiliki jumlah probabilitas sama dengan 1. Vektor ini nantinya akan dibandingkan Loss Function
Cross-entropy merupakan loss function yang biasa digunakan untuk skenario tugas klasifikasi. Cross-
entropy loss juga disebut sebagai logarithmic loss, log loss, atau logistic loss. Nilai probabilitas dari
setiap kelas yang diprediksi dibandingkan dengan kelas aktual yang diinginkan, yaitu 0 atau 1 untuk
dihitung skor / loss yang menghukum probabilitas berdasarkan seberapa jauh dari nilai yang
sebenarnya. Hukumannya bersifat logaritmik yang menghasilkan skor besar untuk perbedaan besar
yang mendekati 1 dan skor kecil untuk perbedaan kecil yang mendekati 0. Cross-entropy secara
matematis dirumuskan dengan persamaan (3.14),
𝐿 ∑ 𝑡 (𝑝 ) (3.14)
di mana 𝑀 merupakan jumlah kelas, 𝑡𝑖 adalah nilai aktual dari kelas ke-i, dan 𝑝𝑖 adalah nilai
probabilitas hasil prediksi dari kelas ke-i.
Terdapat 2 metode perhitungan cross-entropy yang berbeda untuk masing- masing permasalahan
binary classification dan multiclass classification, yaitu:
1. Binary Cross-Entropy
Binary cross-entropy adalah loss function yang digunakan dalam tugas binary classification. Fungsi
ini menjawab pertanyaan dengan hanya dua pilihan (ya atau tidak, A atau B, 0 atau 1, kiri atau kanan,
dsb). Apabila jumlah M = 2, maka binary cross-entropy secara matematis dirumuskan oleh persamaan
(3.15),
𝐿 ∑ 𝑡 (𝑝 ) (3.15)
= −[�log(�) + (1 − �) log(1 − �)]
di mana 𝑡𝑖 adalah nilai aktual dari kelas ke-i dan 𝑝𝑖 adalah nilai probabilitas sigmoid hasil prediksi
dari kelas ke-i.
Sigmoid adalah satu-satunya activation function yang kompatibel dengan binary cross-entropy loss
function, karena loss function ini perlu menghitung logaritma dari 𝑝 dan (1 − 𝑝) yang hanya ada jika 𝑝
bernilai antara 0 dan 1.
2. Categorical Cross-Entropy
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
8
Categorical cross entropy adalah loss function yang digunakan dalam tugas multiclass classification.
Fungsi ini didesain untuk mengukur perbedaan antara 2 distribusi probabilitas. Jika M > 2 (multiclass
classification), dihitung loss terpisah untuk setiap kelas yang diamati dan dijumlahkan hasilnya.
Categorical cross-entropy secara matematis dirumuskan oleh persamaan (3.16),
𝐿 ∑ 𝑡 (𝑝 ) (3.16)
di mana 𝑀 merupakan jumlah kelas, 𝑡𝑖 adalah nilai aktual dari kelas ke-i, dan 𝑝𝑖 adalah nilai
probabilitas softmax hasil prediksi dari kelas ke-i.
Softmax adalah satu-satunya activation function yang disarankan untuk digunakan dengan categorical
cross-entropy loss function.
Keempat atribut tersebut akan menjadi dasar perhitungan beberapa metrikevaluasi, yaitu:
1. Accuracy
Accuracy merupakan rasio prediksi benar (positif dan negatif) dengan keseluruhan data. Metrik ini
paling umum digunakan karena mudah dihitung dan digunakan. Akan tetapi, metrik ini memiliki
kekurangan yaitu kurang akurat untuk data yang tidak seimbang. Nilai accuracy dapat diperoleh
dengan persamaan (3.17).
𝑎𝑐𝑐𝑢𝑟𝑎𝑐 (3.17)
2. Precision
Precision merupakan rasio antara True Positive (TP) dengan keseluruhan data yang diprediksi positif.
Sehingga, precision berusaha memperkecil terjadinya False Positive (FP). Nilai precision dapat
diperoleh denganpersamaan (3.18).
𝑝𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 (3.18)
3. Recall
Recall merupakan rasio antara True Positive (TP) dengan keseluruhan data yang kenyataannya bernilai
positif. Sehingga, recall berusaha memperkecil terjadinya False Negative (FN). Nilai recall dapat
diperoleh dengan persamaan (3.19).
𝑟𝑒𝑐𝑎𝑙𝑙 (3.19)
4. F1-score
F1-score merupakan harmonic mean dari precision dan recall. Nilai F1- score dapat diperoleh
dengan persamaan (3.20).
𝑠𝑐𝑜𝑟𝑒 (3.20)
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
9
3. Metode penelitian
3.1 Deskripsi Umum Model
Pada penelitian ini, diusulkan model klasifikasi teks berbasis multiclass classification pada tweet
berbahasa Indonesia yang mengombinasikan model pre-trained IndoBERT dengan salah satu
arsitektur Recurrent Neural Network (RNN), yaitu Long Short-Term Memory (LSTM). Proses
pengembangan model terdiri dari beberapa langkah utama, yaitu pembuatan dataset, text
preprocessing, pembuatan arsitektur model, pelatihan, dan evaluasi model. Adapun dataset yang
digunakan merupakan kumpulan tweet berbahasa Indonesia yang diambil dengan metode crawling
dari API Twitter. Model yang telah dikembangkan akan dibandingkan performanya dengan dua
baseline model, yaitu Word2Vec-LSTM dan fine-tuned IndoBERT.
Data yang sudah diambil melalui proses crawling akan diberi label sesuai dengan topiknya. Data yang
dikumpulkan terdapat sekitar 10.000 tweet yang akan terklasifikasi ke dalam 10 kelas, yaitu beasiswa,
bulutangkis, demokrasi, film, investasi, kecantikan, konser, pajak, sepakbola, dan wisata. Proses
pelabelan data akan dibantu oleh 3 sampai 5 teman agar mendapatkan kualitas data yang baik
serta menghindari bias.
Setelah dilakukan proses pelabelan data, dilakukan pembersihan data secara manual untuk
menghilangkan data tweet yang kurang relevan dengan kelasnya dan data tweet yang masih duplikat.
Kemudian dilakukan splitting atau pemisahan data menggunakan library scikit-learn dengan
perbandingan 70% untuk train set, 20% untuk validation set, dan 10% untuk test set. Sebagai
persiapan pelatihan model, dilakukan proses one-hot encoding yang akan merepresentasikan data
bertipe kategori sebagai vektor biner yang bernilai integer, 0 dan 1, di mana semua elemen akan
bernilai 0 kecuali satu elemen yang bernilai 1, yaitu elemen yang memiliki nilai kategori tersebut.
Dataset akan dibuat menjadi 2 skenario. Skenario pertama merupakan dataset asli yang tidak
dilakukan modifikasi. Sedangkan skenario kedua merupakan dataset yang akan dilakukan modifikasi
dengan menghilangkan kata- kata yang memiliki nilai informasi yang terlalu tinggi, di mana kata-kata
tersebut merupakan nama dari setiap kategori itu sendiri.
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
10
Gambar 4.1 Diagram Alur Pengembangan Model Klasifikasi Teks
Sedangkan pada model Word2Vec-LSTM, rancangan text preprocessing akanterlihat seperti Gambar
4.3.
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
11
Gambar 4.3 Text Preprocessing Word2Vec-LSTM
Penentuan hyperparameter merupakan langkah penting untuk mendapatkan model dengan performa
terbaik. Terdapat dua kelompok hyperparameter yang akan digunakan. Kelompok pertama
merupakan hyperparameter yang sudah ditetapkan dan tidak perlu dilakukan tuning. Sedangkan
kelompok kedua merupakan hyperparameter yang masih harus dilakukan tuning untuk mendapatkan
model dengan performa terbaik. Tabel 4.2 menunjukkan daftar hyperparameter yang akan digunakan
pada model IndoBERT-LSTM.
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
12
Metode pooling Average pooling atau max pooling
Hyperparameter yang digunakan sebagian besar mengacu pada penelitian yang telah dilakukan oleh
Muhammad et al., (2021). Tabel 4.3 menunjukkan daftar hyperparameter yang akan digunakan pada
model Word2Vec-LSTM.
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
13
Metode pooling Average pooling
Activation function Softmax
Loss function Categorical cross-entropy
Ukuran model IndoBERT yang digunakan adalah BERTBASE. Tabel 4.4 menunjukkan daftar
hyperparameter yang akan digunakan pada model fine-tuned IndoBERT.
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
14
3.3.6 Rancangan Evaluasi Model
Pengukuran performa model klasifikasi teks dilakukan berdasarkan metrik-metrik yang dihitung dari
confusion matrix. Terdapat 10 kelas yang digunakan, sehingga akan terdapat 10 kolom dan 10 baris
untuk confusion matrix. Tabel 4.5 mengilustrasikan confusion matrix untuk 10 kelas.
D FD FD FD TD FD FD FD FD FD FD
E FE FE FE FE TE FE FE FE FE FE
F FF FF FF FF FF TF FF FF FF FF
G FG FG FG FG FG FG TG FG FG FG
H FH FH FH FH FH FH FH TH FH FH
I FI FI FI FI FI FI FI FI TI FI
J FJ FJ FJ FJ FJ FJ FJ FJ FJ TJ
Confusion matrix tersebut akan digunakan sebagai dasar perhitungan metrik dalam mengevaluasi
performa model. Metrik yang akan digunakan dalam membantu mengevaluasi pelatihan model
IndoBERT-LSTM adalah validation accuracy. Sedangkan metrik yang digunakan pada proses
pengujian untuk ketiga model klasifikasi teks adalah precision, recall, dan F1-score, karena metrik ini
dapat menghindari bias pada perhitungan dengan data yang kurang seimbang.
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
15
Gambar 6.1 Sampel data dalam Dataset
Proses pelatihan model dilakukan dalam 2 skenario dataset. Skenario pertama merupakan dataset asli
yang tidak termodifikasi. Sedangkan skenario kedua merupakan dataset yang termodifikasi dengan
menghilangkan kata-kata yang memiliki nilai informasi yang terlalu tinggi dalam melakukan
klasifikasiteks, di mana kata-kata tersebut merupakan nama dari setiap kategori itu sendiri.
Tabel 6.1 menunjukkan hasil validation accuracy dari setiap skenario pelatihan model IndoBERT-
LSTM. Terlihat model pada skenario pertama dengan batch size sebesar 16, learning rate sebesar 2e-
5, dan metode pooling menggunakan average pooling berhasil mendapatkan validation accuracy
tertinggi yang mencapai 99,20%. Apabila melihat hasil pelatihan model pada skenario ke-1 dan ke-5,
model dengan jumlah batch size 16 memiliki validation accuracy yang lebih tinggi daripada jumlah
batch size 32 meskipun perbedaannya tidak terlalu signifikan. Hal ini dikarenakan batch size yang
lebih kecil lebih menimbulkan noise dan menawarkan efek regularisasi, sehingga menghasilkan
generalization error yang lebih rendah. Perbedaan learning rate juga mempengaruhi hasil pelatihan
model, di mana learning rate 2e-5 memiliki validation accuracy lebih tinggi daripada learning rate
5e-5 seperti yang terlihat pada perbandingan skenario ke-1 dan ke-3. Learning rate yang lebih besar
menyebabkan perubahan gradient descent yang lebih besar pula, sehingga menyebabkan kurang
tercapainya solusi optimal yang diinginkan. Sedangkan pada skenario penggunaan metode pooling,
metode average pooling menghasilkan validation accuracy yang lebih baik daripada metode max
pooling. Hal ini disebabkan vektor output yang dihasilkan oleh metode average pooling lebih
merepresentasikan keseluruhan rangkaian vektor yang dihasilkan oleh layer sebelumnya dengan cara
mengambil rata-ratanya, di mana pada metode max pooling hanya diambil vektor tertinggi yang
belum tentu dapat merepresentasikan keseluruhan rangkaian vektor.
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
16
Gambar 6.2 Plot Akurasi Pelatihan Model IndoBERT-LSTM (1)
Grafik perkembangan akurasi hasil pelatihan model IndoBERT-LSTM dengan skenario terbaik pada
dataset yang tidak termodifikasi dapat dilihat pada Gambar 6.2. Terlihat pada epoch pertama model
ini telah mencapai validation accuracy di atas 95% dan puncaknya berada pada epoch ke-4 dengan
validation accuracy sebesar 99,20%. Pada epoch selanjutnya, model tidak lagi mengalami
peningkatan akurasi, sehingga pelatihan model berhenti pada epoch ke-9. Total waktu yang
dibutuhkan untuk melatih model IndoBERT-LSTM pada dataset yang tidak termodifikasi sekitar 30
menit. Model juga terlihat tidak mengalami overfit.
Model IndoBERT-LSTM skenario terbaik dengan validation accuracy sebesar 99,20% disimpan agar
dapat diuji dengan melakukan prediksi pada data test yang belum pernah ditemui sebelumnya. Dari
hasil prediksi tersebut, dibuat confusion matrix seperti yang terlihat pada Gambar 6.3. Dapat dilihat
bahwa model dapat mengklasifikasikan data test ke setiap kelas dengan sangat baik. Terdapat 4 kelas
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
17
yang diprediksi dengan benar 100% dan kelas lain hanya mengalami sedikit kesalahan. Kelas dengan
kesalahan terbanyak adalah kelasinvestasi yang diprediksi sebagai kelas pajak sebanyak 2 kali.
Kesalahan-kesalahan prediksi tersebut bisa terjadi karena adanya kata-kata yang secara kontekstual
memiliki arti yang sama namun digunakan pada beberapa kelas, atau karena tidak adanya kata-kata
dengan nilai informasi yang tinggi pada tweet tersebut yang dapat dijadikan tumpuan oleh model
dalam melakukan klasifikasi.
Dari confusion matrix tersebut dapat dihitung nilai macro-average dari precision sebesar 98,92%,
recall sebesar 98,90%, dan F1-score sebesar 98,90%. Terlihat model IndoBERT-LSTM menunjukkan
performa yang sangat baik dalam mengklasifikasikan dataset yang tidak termodifikasi.
Pelatihan model IndoBERT-LSTM pada dataset yang telah termodifikasi dilakukan dengan
menggunakan skenario kombinasi hyperparameter terbaik yang telah didapatkan pada pelatihan model
dengan dataset yang belum termodifikasi. Grafik perkembangan akurasi hasil pelatihan model pada
dataset yang telah termodifikasi dapat dilihat pada Gambar 6.4. Terlihat adanya perkembangan di
mana pada epoch pertama model ini mendapatkan validation accuracy di atas 80% dan puncaknya
berada pada epoch ke-7 dengan validation accuracy sebesar 92%. Pada epoch selanjutnya, model
tidak lagi mengalami peningkatan akurasi, sehingga pelatihan model berhenti pada epoch ke-12. Total
waktu yang dibutuhkan untuk melatih model IndoBERT-LSTM pada dataset yang telah
termodifikasi sekitar 45 menit. Model sedikit mengalami overfit namun masih terbilang wajar karena
perbedaan antara validation accuracy dengan training accuracy tidak terlalu signifikan.
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
18
Gambar 6.5 Confusion Matrix Pengujian Model IndoBERT-LSTM (2)
Model IndoBERT-LSTM yang telah dilatih pada dataset yang telah termodifikasi dengan validation
accuracy 92% disimpan agar dapat diuji dengan melakukan prediksi pada data test yang juga sudah
termodifikasi dan belum pernah ditemui sebelumnya. Dari hasil prediksi tersebut, dibuat confusion
matrix seperti yang terlihat pada Gambar 6.5. Terlihat model bisa mengklasifikasikan data test ke
setiap kelas dengan cukup baik walaupun masih mengalami beberapa kesalahan. Kelas dengan
kesalahan terbanyak adalah kelas sepakbola yang diprediksi sebagai kelas bulutangkis sebanyak 6 kali.
Kelas lain dengan kesalahan cukup banyak adalah kelas bulutangkis yang diprediksi sebagai kelas
konser dan kelas pajak yang diprediksi sebagai kelas konser sebanyak 5 kali.
Dapat dilihat jumlah kesalahan prediksi pada dataset yang telah termodifikasi yang didapatkan
menjadi lebih banyak jika dibandingkan dengan kesalahan pada dataset yang tidak termodifikasi. Hal
ini wajar terjadi karena dengan dihapusnya kata-kata dengan nilai informasi yang tinggi, membuat
model menjadi lebih sulit dalam memahami konteks dan melakukan klasifikasi pada tweet tersebut.
Dari confusion matrix tersebut dapat dihitung nilai macro-average dari precision sebesar 92,99%,
recall sebesar 92,80%, dan F1-score sebesar 92,83%. Meskipun telah dilakukan modifikasi pada
dataset, model IndoBERT-LSTM tetap berhasil mendapatkan nilai di atas 90% untuk ketiga metrik
tersebut.
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
19
Gambar 6.6 Plot Akurasi Pelatihan Model Word2Vec-LSTM (1)
Model Word2Vec-LSTM dengan validation accuracy sebesar 99,20% disimpan agar dapat diuji
dengan melakukan prediksi pada data test yang belum pernah ditemui sebelumnya. Dari hasil
prediksi tersebut, dibuat confusion matrix seperti yang terlihat pada Gambar 6.7. Dapat dilihat bahwa
model dapat mengklasifikasikan data test ke setiap kelas dengan sangat baik. Terdapat 3 kelas yang
diprediksi dengan benar 100% dan kelas lain hanya mengalami sedikit kesalahan. Kelas dengan
kesalahan terbanyak adalah kelas demokrasi yang diprediksi sebagai kelas kecantikan dan kelas
sepakbola serta kelas kecantikan yang diprediksi sebagai kelas sepakbola dan sebaliknya dengan
jumlah kesalahan sebanyak 2 kali.
Dari confusion matrix tersebut dapat dihitung nilai macro-average dari precision sebesar 98,22%,
recall sebesar 98,20%, dan F1-score sebesar 98,20%. Terlihat model Word2Vec-LSTM menunjukkan
performa yang sangat baik dalam mengklasifikasikan dataset yang tidak termodifikasi.
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
20
4.3.2 Hasil pada Dataset Termodifikasi
Pelatihan model baseline Word2Vec-LSTM juga dilakukan pada dataset yang telah termodifikasi.
Grafik perkembangan akurasi hasil pelatihan model Word2Vec-LSTM pada dataset yang telah
termodifikasi dapat dilihat pada Gambar 6.8. Pada epoch pertama model ini mendapatkan validation
accuracy di atas 70% dan terus mengalami peningkatan di mana puncaknya berada pada epoch ke-10
dengan validation accuracy sebesar 90,10%. Pada epoch selanjutnya, model tidak lagi mengalami
peningkatan akurasi dan berhenti pada epoch ke-15. Total waktu yang dibutuhkan untuk melatih
model Word2Vec-LSTM pada dataset yang telah termodifikasi sekitar 3 menit. Akan tetapi, walaupun
model berhasil mendapatkan validation accuracy yang cukup tinggi, model ini terlihat mengalami
overfit yang cukup jelas jika dibandingkan dengan grafik perkembangan training accuracy.
Model Word2Vec-LSTM yang telah dilatih pada dataset yang telah termodifikasi dengan validation
accuracy 90,10% disimpan agar dapat diuji dengan melakukan prediksi pada data test yang juga
sudah termodifikasi dan belum pernah ditemui sebelumnya. Dari hasil prediksi tersebut, dibuat
confusion matrix seperti yang terlihat pada Gambar 6.9. Kelas dengan kesalahan terbanyak adalah
kelas bulutangkis yang diprediksi sebagai kelas konser sebanyak 7 kali. Kelas lain dengan kesalahan
cukup banyak adalah kelas wisata yang diprediksi sebagai kelas konser sebanyak 6 kali.
Dari confusion matrix tersebut dapat dihitung nilai macro-average dari precision sebesar 88,53%,
recall sebesar 88,30%, dan F1-score sebesar 88,32%. Terlihat model Word2Vec-LSTM belum
cukup baik dalam mengklasifikasikan dataset yang telah termodifikasi, di mana nilai dari ketiga
metrik evaluasipengujian tidak mencapai 90%.
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
21
Gambar 6.9 Confusion Matrix Pengujian Model Word2Vec-LSTM (2)
Model fine-tuned IndoBERT dengan validation accuracy sebesar 99,15% disimpan agar dapat diuji
dengan melakukan prediksi pada data test yang belum pernah ditemui sebelumnya. Dari hasil prediksi
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
22
tersebut, dibuat confusion matrix seperti yang terlihat pada Gambar 6.11. Dapat dilihat bahwa model
dapat mengklasifikasikan data test ke setiap kelas dengan sangat baik. Terdapat 4 kelas yang
diprediksi dengan benar 100% dan kelas lain hanya mengalami sedikit kesalahan. Kelas dengan
kesalahan terbanyak adalah kelas bulutangkis yang diprediksi sebagai kelas sepakbola, kelas
demokrasi yang diprediksi sebagai kelas pajak, dan kelas investasi yang diprediksi sebagai kelas pajak
dengan jumlah kesalahan sebanyak 2 kali.
Dari confusion matrix tersebut dapat dihitung nilai macro-average dari precision sebesar 98,54%,
recall sebesar 98,50%, dan F1-score sebesar 98,50%. Terlihat model fine-tuned IndoBERT
menunjukkan performa yang sangat baik dalam mengklasifikasikan dataset yang tidak termodifikasi.
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
23
Gambar 6.12 Plot Akurasi Pelatihan Model Fine-tuned IndoBERT (2)
Model fine-tuned IndoBERT yang telah dilatih pada dataset yang telah termodifikasi dengan
validation accuracy 92,25% disimpan agar dapat diuji dengan melakukan prediksi pada data test yang
juga sudah termodifikasi dan belum pernah ditemui sebelumnya. Dari hasil prediksi tersebut, dibuat
confusion matrix seperti yang terlihat pada Gambar 6.13. Terlihat model bisa mengklasifikasikan data
test ke setiap kelas dengan cukup baik walaupun masih mengalami beberapa kesalahan. Kelas dengan
kesalahan terbanyak adalah kelas konser yang diprediksi sebagai kelas bulutangkis dan kelas pajak
yang diprediksi sebagai kelas demokrasi dengan jumlah kesalahan sebanyak 7 kali. Kelas lain dengan
kesalahan cukup banyak adalah kelas sepakbola yang diprediksi sebagai kelas bulutangkis sebanyak 6
kali.
Dari confusion matrix tersebut dapat dihitung nilai macro-average dari precision sebesar 92,36%,
recall sebesar 92,10%, dan F1-score sebesar 92,14%. Meskipun telah dilakukan modifikasi pada
dataset, model fine-tuned IndoBERT tetap berhasil mendapatkan nilai di atas 90% untuk ketiga metrik
tersebut.
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
24
Tabel 6.2. Dapat dilihat bahwa model IndoBERT-LSTM dengan skenario kombinasi hyperparameter
terbaik berhasil mendapatkan nilai tertinggi di setiap metrik, baik pada dataset yang tidak
termodifikasi maupun padadataset yang telah termodifikasi.
Tabel 6.2 Hasil Evaluasi pada Pengujian Ketiga Model Klasifikasi Teks
F1- Waktu
Dataset Model Precision Recall Epoch
score Pelatihan
IndoBERT-
98,92% 98,90% 98,90% 9 ± 30 menit
LSTM
Tidak Word2Vec-
Termodifikasi 98,22% 98,20% 98,20% 16 ± 3 menit
LSTM
Fine-tuned
98,54% 98,50% 98,50% 11 ± 40 menit
IndoBERT
IndoBERT-
92,99% 92,80% 92,83% 12 ± 45 menit
LSTM
Termodifikasi Word2Vec-
88,53% 88,30% 88,32% 15 ± 3 menit
LSTM
Fine-tuned
92,36% 92,10% 92,14% 15 ± 55 menit
IndoBERT
Jika diperhatikan dari kompleksitas waktunya, total epoch yang dibutuhkan oleh model IndoBERT-
LSTM memang lebih sedikit dari model Word2Vec-LSTM. Akan tetapi, waktu yang dibutuhkan
untuk menyelesaikan 1 epoch pada model IndoBERT-LSTM cukup lama, yaitu sekitar 3 - 4 menit,
dibandingkan dengan model Word2Vec-LSTM yang hanya membutuhkan beberapa detik saja.
Sehingga, total waktu pelatihan dari model Word2Vec-LSTM masih jauh lebih cepat dibandingkan
model IndoBERT-LSTM. Hal ini dikarenakan IndoBERT perlu mempelajari konteks dari setiap kata
dalam suatu kalimat, sedangkan Word2Vec tidak terikat pada konteks dan hanya melakukan pairing
kata pada vocabulary.
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
25
4.5.2 Perbandingan Penggunaan Metode Pengklasifikasi
Model IndoBERT-LSTM juga mengalami peningkatan jika dibandingkan dengan model baseline
fine-tuned IndoBERT meskipun peningkatannya tidak terlalu signifikan. Dilihat dari hasil perhitungan
F1-score, model IndoBERT- LSTM berhasil mengalami peningkatan sebanyak 0,40% pada dataset
yang tidak termodifikasi dan 0,69% pada dataset yang telah termodifikasi. Apabila dilakukan
perbandingan hasil confusion matrix pada dataset yang telah termodifikasi, jumlah kesalahan
prediksi yang dihasilkan oleh model IndoBERT-LSTM lebih sedikit jika dibandingkan dengan model
fine-tuned IndoBERT meskipun tidak terjadi di setiap kelas. Dilihat dari persebaran kesalahan
prediksinya, kedua model sama-sama terfokus pada kelas yang secara kontekstual cukup berdekatan
dengan kelas yang sesungguhnya.
Model IndoBERT-LSTM dapat bekerja lebih baik dibandingkan model fine-tuned IndoBERT
dikarenakan LSTM memiliki feedback connection yang memungkinkan untuk mempertahankan
informasi dalam memori dari waktu ke waktu dengan jangka waktu yang lama. Hal ini yang membuat
LSTM dapat memproses seluruh rangkaian token dan memberikan pembelajaran yang lebih baik,
dibandingkan dengan feedforward neural network standar yang hanya dapat memproses token
tunggal.
Jika diperhatikan dari kompleksitas waktunya, total epoch yang dibutuhkan oleh model IndoBERT-
LSTM lebih sedikit dari model fine-tuned IndoBERT. Waktu yang dibutuhkan untuk menyelesaikan 1
epoch hampir sama untuk kedua model, yaitu sekitar 3 – 4 menit. Karena total epoch dari model
IndoBERT-LSTM lebih sedikit, maka total waktu pelatihan model ini juga lebih cepat dibandingkan
dengan model fine-tuned IndoBERT. Hal ini menunjukkan proses pelatihan pada model IndoBERT-
LSTM mampu mendapatkan validation accuracy tertinggi dengan lebih cepat.
5. Kesimpulan
Pada penelitian ini telah dibahas mengenai model klasifikasi teks berbasis multiclass classification
pada tweet berbahasa Indonesia yang diberi nama IndoBERT-LSTM. Adapun kesimpulan yang dapat
diambil dari penelitian yang telah dilakukan yaitu:
1. Berdasarkan hasil pengujian dan perbandingan, kombinasi model pre- trained IndoBERT dan
Long Short-Term Memory (LSTM) terbukti dapat memberikan pemahaman yang lebih baik dalam
mengklasifikasikan teks, baik pada dataset yang tidak termodifikasi maupun dataset yang telah
termodifikasi.
2. Model IndoBERT-LSTM dengan skenario kombinasi hyperparameter terbaik (batch size sebesar
16, learning rate sebesar 2e-5, dan menggunakan average pooling) berhasil mendapatkan F1-score
sebesar 98,90% pada dataset yang tidak termodifikasi (peningkatan 0,70% dari model Word2Vec-
LSTM dan 0,40% dari model fine-tuned IndoBERT) dan 92,83% pada dataset yang telah
termodifikasi (peningkatan 4,51% dari model Word2Vec-LSTM dan 0,69% dari model fine-tuned
IndoBERT).
3. Peningkatan performa model IndoBERT-LSTM dari model fine-tuned IndoBERT tidak terlalu
signifikan.
4. Total waktu pelatihan model Word2Vec-LSTM masih jauh lebih cepat, yaitu sekitar 3 menit untuk
kedua dataset, dibandingkan dengan model IndoBERT-LSTM yang membutuhkan waktu sekitar
30 dan 45 menit. Akan tetapi, model IndoBERT-LSTM masih lebih cepat jika dibandingkan
dengan model fine-tuned IndoBERT yang membutuhkan waktu sekitar 40 dan 55 menit.
5.1 Saran
Pada penelitian ini telah dikembangkan model klasifikasi teks berbasis multiclass classification pada
tweet berbahasa Indonesia dengan kombinasi IndoBERT dan Long Short-Term Memory (LSTM).
Oleh sebab itu, saran untuk penelitian-penelitian berikutnya bisa mengombinasikan IndoBERT
dengan metode pengklasifikasi yang lebih bervariasi, seperti Convolutional Neural Network (CNN),
Bidirectional Long Short-Term Memory (Bi-LSTM), dsb, atau dengan melatih model pada multiclass
dataset berbasis emosi atau sentimen karena memiliki tingkat pemahaman bahasa yang lebih sulit.
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
26
Referensi
Alammar, J. (2018a, June 27). The Illustrated Transformer – Jay Alammar – Visualizing machine
learning one concept at a time. https://jalammar.github.io/illustrated-transformer/
Alammar, J. (2018b, December 3). The Illustrated BERT, ELMo, and co. (How NLP Cracked
Transfer Learning)–Jay Alammar–Visualizing machine learning one concept at a time.
http://jalammar.github.io/illustrated-bert/
Alwehaibi, A., Bikdash, M., Albogmi, M., & Roy, K. (2021). A study of the performance of
embedding methods for Arabic short-text sentiment analysis using deep learning approaches.
Journal of King Saud University-Computer and Information Sciences.
Aydoğan, M., & Karci, A. (2020). Improving the accuracy using pre-trained word embeddings on
deep neural networks for Turkish text classification. Physica A: Statistical Mechanics and Its
Applications, 541, 123288. https://doi.org/10.1016/j.physa.2019.123288
Ayo, F. E., Folorunso, O., Ibharalu, F. T., & Osinuga, I. A. (2020). Machine learning techniques for
hate speech classification of twitter data: State-of-The-Art, future challenges and research
directions. Computer Science Review, 38, 100311. https://doi.org/10.1016/j.cosrev.2020.100311
Brownlee, J. (2021, January 18). How to Choose an Activation Function for Deep Learning.
https://machinelearningmastery.com/choose-an-activation-function-for-deep-learning/
Cai, R., Qin, B., Chen, Y., Zhang, L., Yang, R., Chen, S., & Wang, W. (2020). Sentiment analysis
about investors and consumers in energy market based onBERT-BILSTM. IEEE Access, 8,
171408–171415. https://doi.org/10.1109/ACCESS.2020.3024750
Chauhan, N. S. (2021, August 2). Loss Functions in Neural Networks.
https://www.theaidream.com/post/loss-functions-in-neural-networks
Chaumond, J., Delangue, C., & Wolf, T. (2016). huggingface (Hugging Face).
https://huggingface.co/huggingface
Cournapeau, D. (2007). scikit-learn: machine learning in Python—scikit-learn 1.1.1 documentation.
https://scikit-learn.org/stable/#
Devlin, J., Chang, M.-W., Lee, K., Google, K. T., & Language, A. I. (2018). BERT: Pre-training of
Deep Bidirectional Transformers for Language Understanding. http://arxiv.org/abs/1810.04805
Digmi, I. (2018, January 25). Memahami Epoch Batch Size Dan Iteration - JournalToday.
https://imam.digmi.id/post/memahami-epoch-batch-size-dan-iteration/
ron, A. (2017). Hands-on machine learning with Scikit-Learn and TensorFlow: concepts, tools,
and techniques to build intelligent systems. O’Reilly Media, Inc.
Google Brain Team. (2015, November 9). TensorFlow. https://www.tensorflow.org/
Goyal, A., Gupta, V., & Kumar, M. (2021). A deep learning-based bilingual Hindi and Punjabi named
entity recognition system using enhanced word embeddings. Knowledge-Based Systems,
107601. https://doi.org/10.1016/j.knosys.2021.107601
Gupta, V., & Lehal Professor, G. S. (2009). A Survey of Text Mining Techniques and Applications.
www.alerts.yahoo.com
Hilmiaji, N., Lhaksmana, K. M., & Purbolaksono, M. D. (2021). Identifying Emotion on Indonesian
Tweets using Convolutional Neural Networks. Jurnal RESTI (Rekayasa Sistem Dan Teknologi
Informasi), 5(3), 584–593. https://doi.org/10.29207/RESTI.V5I3.3137
Hochreiter, S., & Schmidhuber, J. (1997). Long Short-Term Memory. Neural Computation, 9(8),
1735–1780. https://doi.org/10.1162/NECO.1997.9.8.1735
Keras Team. (2015, March 27). Dropout layer.
https://keras.io/api/layers/regularization_layers/dropout/
Koto, F., Rahimi, A., Lau, J. H., & Baldwin, T. (2020). IndoLEM and IndoBERT: A Benchmark
Dataset and Pre-trained Language Model for Indonesian NLP. 757–770.
https://doi.org/10.18653/v1/2020.coling-main.66
Kowsari, K., Meimandi, K. J., Heidarysafa, M., Mendu, S., Barnes, L., & Brown,
D. (2019). Text Classification Algorithms: A Survey. Information 2019, Vol. 10, Page 150, 10(4),
150. https://doi.org/10.3390/INFO10040150
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
27
Mikolov, T., Chen, K., Corrado, G., & Dean, J. (2013). Efficient Estimation of Word Representations
in Vector Space. 1st International Conference on Learning Representations, ICLR 2013 -
Workshop Track Proceedings. https://arxiv.org/abs/1301.3781v3
Muhammad, P. F., Kusumaningrum, R., & Wibowo, A. (2021). Sentiment Analysis Using Word2vec
And Long Short-Term Memory (LSTM) For Indonesian Hotel Reviews. Procedia Computer
Science, 179, 728–735. https://doi.org/10.1016/J.PROCS.2021.01.061
Nguyen, Q. T., Nguyen, T. L., Luong, N. H., & Ngo, Q. H. (2020). Fine-Tuning BERT for Sentiment
Analysis of Vietnamese Reviews. Proceedings – 2020 7th NAFOSTED Conference on
Information and Computer Science, NICS 2020, 302–307.
https://doi.org/10.1109/NICS51282.2020.9335899
Pahwa, B., Kasliwal, N., Scholar, R., Vidyapith, B., & Taruna, R. S. (2018). Sentiment Analysis-
Strategy for Text Pre-Processing Indianization and customization for Indian consumers View
project Aspect level sentiment analysis View project Sentiment Analysis-Strategy for Text Pre-
Processing Bhumika Pahwa. Article in International Journal of Computer Applications, 180(34),
975–8887. https://doi.org/10.5120/ijca2018916865
Putra, J. W. G. (2020). Pengenalan Pembelajaran Mesin dan Deep Learning.
Rahman, D. (2019). deryrahman/word2vec-bahasa-indonesia: Word2Vec untuk bahasa Indonesia
dari korpus Wikipedi https://github.com/deryrahman/word2vec-bahasa-indonesia
Ramadhan, N. G. (2021). Indonesian Online News Topics Classification using Word2Vec and K-
Nearest Neighbor. Jurnal RESTI (Rekayasa Sistem Dan Teknologi Informasi), 5(6), 1083–1089.
https://doi.org/10.29207/RESTI.V5I6.3547
Rao, A., & Spasojevic, N. (2016). Actionable and Political Text Classification using Word
Embeddings and LSTM. https://arxiv.org/abs/1607.02501v2
Robbani, H. A. (2018, September 24). GitHub - har07/PySastrawi: Indonesian stemmer. Python port
of PHP Sastrawi project. PySastrawi.https://github.com/har07/PySastrawi
Sharma, A. K., Chaurasia, S., & Srivastava, D. K. (2020). Sentimental Short Sentences Classification
by Using CNN Deep Learning Model with Fine Tuned Word2Vec. Procedia Computer Science,
167, 1139–1147. https://doi.org/10.1016/J.PROCS.2020.03.416
Sun, Z., Zemel, R., & Xu, Y. (2021). A computational framework for slang generation. Transactions
of the Association for Computational Linguistics, 9, 462–478.
https://doi.org/10.1162/TACL_A_00378/1921784/TACL_A_00378.PDF
Sutanto, T. (2020). nlptm-01. Tau-Data Indonesia. https://tau-data.id/d/nlptm- 01.html
Uysal, A. K., & Gunal, S. (2014). The impact of preprocessing on text classification. Information
Processing & Management, 50(1), 104–112. https://doi.org/10.1016/J.IPM.2013.08.006
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł. ukasz, &
Polosukhin, I. (2017). Attention is All you Need. In I. Guyon, U. v Luxburg, S. Bengio, H.
Wallach, R. Fergus, S. Vishwanathan, & R. Garnett (Eds.), Advances in Neural Information
Processing Systems (Vol. 30). Curran Associates, Inc.
https://proceedings.neurips.cc/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdf
Wang, Z., Huang, Z., & Gao, J. (2020). Chinese Text Classification Method Based on BERT Word
Embedding. ACM International Conference Proceeding Series, 66–71.
https://doi.org/10.1145/3395260.3395273
Wu, Y., Schuster, M., Chen, Z., Le, Q. v., Norouzi, M., Macherey, W., Krikun, M., Cao, Y., Gao,
Q., Macherey, K., Klingner, J., Shah, A., Johnson, M., Liu, X., Kaiser, Ł., ouws, S., Kato, Y.,
Kudo, T., Kazawa, H., … Dean, J. (2016). Google’s Neural Machine Translation System:
Bridging the Gap between Human and Machine Translation.
https://arxiv.org/abs/1609.08144v2
2022 | Jurnal Ilmu Siber dan Teknologi Digital (JISTED) / Vol1 No1, 1-28
28