People Innovation Excellence
 
Feature Image

Mekanisme Atensi (Attention Mechanism) pada Teks

Mekanisme atensi (attention mechanism) merupakan algoritma yang membantu model neural network supaya lebih baik performanya dengan berfokus pada local feature yang memiliki hubungan lebih kuat ketika model melakukan pelatihan. Peran mekanisme atensi ini diilustrasikan pada gambar 1. Konsep dasar mekanisme atensi adalah dengan memberikan weighted access pada setiap timestep untuk memperkuat kemampuan model dalam memproses sequential data. Teknik atensi ini dicetuskan pertama kali untuk atensi visual pada pemrosesan image dimana latar belakangnya adalah permasalahan kapasitas yang terbatas untuk memproses informasi.

Gambar 1. Visualisasi Mekanisme Atensi pada Teks

Neural network memiliki permasalahan ketika harus menghafalkan sebuah data sekuensial yang panjang. Hal ini dapat digambarkan pada machine translation task. Analoginya adalah seperti ketika manusia hendak melakukan penerjemahan dari satu Bahasa ke Bahasa lain untuk sebuah kalimat yang panjang. Penerjemahan akan dilakukan secara bertahap dari anak kalimat pertama, anak kalimat kedua, dan seterusnya. Mekanisme seperti ini yang menjadi solusi ketika neural network hendak menerjemahkan sebuah kalimat yang panjang, yaitu dengan mekanisme atensi.

Gambar 2. Permasalahan Long Sequence

Machine translation menjadi salah satu field dimana mekanisme atensi digunakan untuk tipe data teks dengan memfokuskan translasi pada bagian tertentu pada kalimat aslinya. Penelitian terkait yang sudah pernah dilakukan mengusulkan 2 pendekatan atensi, yaitu pendekatan global dan local. Perbedaan dari 2 kelas ini adalah letak model atensinya. Ketika penempatan model atensi diletakkan pada semua posisi data sumber maka model merupakan global attentional model, dan sebaliknya maka model merupakan local attentional model.

Mekanisme atensi sudah pernah digunakan untuk sistem tanya jawab otomatis menggunakan kombinasi antara local dan global view. Disebutkan bahwa hasilnya lebih baik dari state-of-the-art pada InsuranceQA. Penggabungan beberapa arsitektur deep learning yang menarik karena memberikan hasil yang lebih baik pada banyak task, ditambah lagi dengan adanya eksperimen klasifikasi teks menggunakan Attention-based RNN yang menurut dugaan penulisnya berhasil melebihi semua traditional baseline system. Arsitektur attention-based RNN yang diusulkan terlihat pada gambar 4.

Gambar 4. Attention-based Recurrent Neural Network

Referensi:

  1. Bahdanau, D., Cho, K., dan Bengio, Y. (2014). Neural machine translation by jointly learning to align and translate. arXiv preprint arXiv:1409.0473.
  2. Desimone, R. dan Duncan, J. (1995). Neural mechanisms of selective visual attention. Annual review of neuroscience, 18(1):193–222.
  3. Britz, D. (2016). Attention and Memory in Deep Learning and NLP. http://www.wildml.com/2016/01/attention-and-memory-in-deep-learning-and-nlp/
  4. Ng, A. (2018). Sequence to         sequence          http://cs230.stanford.edu/files/C5M3.pdf
  5. Luong, M.-T., Pham, H., dan Manning, C. D. (2015). Effective approaches to attention-based neural machine translation. arXiv preprint arXiv:1508.04025.
  6. Bachrach, Y., Zukov-Gregoric, A., Coope, S., Tovell, E., Maksak, B., dan McMurtie, C. (2017). An attention mechanism for answer selection using a combined global and local view. arXiv preprint arXiv:1707.01378.
  7. Du, C. dan Huang, L. (2018). Text classification research with attention-based recurrent neural networks. International Journal of Computers Communications & Control, 13(1):50-61.

Published at :
Written By
Dr. Derwin Suhartono, S.Kom., M.T.I
Head of Program of Computer Science | School of Computer Science

Periksa Browser Anda

Check Your Browser

Situs ini tidak lagi mendukung penggunaan browser dengan teknologi tertinggal.

Apabila Anda melihat pesan ini, berarti Anda masih menggunakan browser Internet Explorer seri 8 / 7 / 6 / ...

Sebagai informasi, browser yang anda gunakan ini tidaklah aman dan tidak dapat menampilkan teknologi CSS terakhir yang dapat membuat sebuah situs tampil lebih baik. Bahkan Microsoft sebagai pembuatnya, telah merekomendasikan agar menggunakan browser yang lebih modern.

Untuk tampilan yang lebih baik, gunakan salah satu browser berikut. Download dan Install, seluruhnya gratis untuk digunakan.

We're Moving Forward.

This Site Is No Longer Supporting Out-of Date Browser.

If you are viewing this message, it means that you are currently using Internet Explorer 8 / 7 / 6 / below to access this site. FYI, it is unsafe and unable to render the latest CSS improvements. Even Microsoft, its creator, wants you to install more modern browser.

Best viewed with one of these browser instead. It is totally free.

  1. Google Chrome
  2. Mozilla Firefox
  3. Opera
  4. Internet Explorer 9
Close