AI Umum

TOXCL: Kerangka Kecerdasan Buatan Terpadu untuk Mendeteksi dan Menjelaskan Ujaran Beracun Implisit

Di media sosial, ujaran beracun dapat menyebar dengan cepat, menargetkan individu dan kelompok yang terpinggirkan. Meskipun ujaran kebencian yang eksplisit relatif mudah ditandai, ujaran beracun implisit yang mengandalkan stereotip dan bahasa berkode daripada penghinaan langsung merupakan tantangan yang lebih sulit. Bagaimana kita melatih sistem AI untuk tidak hanya mendeteksi ujaran beracun yang terselubung ini, tetapi juga menjelaskan mengapa ujaran tersebut berbahaya?

Kerangka TOXCL

Para peneliti di Nanyang Technological University, Singapura, National University of Singapore, dan Institute for Infocomm Research telah mengatasi masalah ini secara langsung dengan kerangka kerja baru yang disebut ToXCL, yang gambaran umumnya ditunjukkan pada Gambar 2. Tidak seperti sistem sebelumnya yang menggabungkan deteksi dan penjelasan ke dalam satu tugas pembuatan teks, ToXCL menggunakan pendekatan multi-modul, memecah masalah menjadi beberapa langkah.

Modul-modul TOXCL

  • Target Group Generator: Model pembuatan teks yang mengidentifikasi kelompok minoritas yang berpotensi menjadi sasaran dalam sebuah postingan tertentu.
  • Encoder-Decoder Model: Pertama-tama mengklasifikasikan postingan sebagai beracun atau tidak beracun menggunakan encoder-nya. Jika ditandai sebagai beracun, decoder kemudian menghasilkan penjelasan mengapa postingan tersebut bermasalah dengan bantuan informasi kelompok sasaran.
  • Teacher Classifier: Meningkatkan keterampilan deteksi encoder dengan meneruskan keahliannya ke encoder selama pelatihan, meningkatkan kemampuan klasifikasinya.
  • Conditional Decoding Constraint: Memastikan decoder hanya menghasilkan penjelasan untuk postingan yang diklasifikasikan sebagai beracun, menghilangkan keluaran yang kontradiktif.

Kinerja TOXCL

Pada dua tolok ukur utama ujaran beracun implisit, ToXCL mengungguli tolok ukur tercanggih dan bahkan melampaui model yang berfokus semata-mata pada deteksi atau penjelasan. Penilai manusia menilai keluarannya lebih tinggi untuk kebenaran, kefasihan, dan pengurangan bahaya dibandingkan dengan sistem terkemuka lainnya.

Kesimpulan

TOXCL menandai langkah mengesankan menuju sistem AI yang dapat mengidentifikasi ujaran kebencian terselubung dan mengartikulasikan dampak buruknya. Saat teknologi ini berkembang lebih jauh, kita juga harus bergulat dengan potensi risiko seputar penguatan bias atau menghasilkan ujaran beracun itu sendiri. Namun dengan hati-hati, teknologi ini menawarkan jalan untuk memberdayakan suara-suara yang terpinggirkan dan mengekang ujaran yang menindas secara daring.