AI Umum

Bonito: Model AI Sumber Terbuka untuk Generasi Tugas Bersyarat

Pendahuluan

Kemajuan terbaru dalam teknologi bahasa telah merevolusi adaptasi Model Bahasa Besar (LLM), memanfaatkan kumpulan data domain yang luas atau bahkan hanya beberapa contoh tugas tertentu. LLM menunjukkan kemampuan zero-shot yang luar biasa hanya dengan mempelajari cara memprediksi token berikutnya dalam skala besar. Dengan menyempurnakan model-model ini pada kumpulan data penyetelan instruksi yang berisi banyak tugas, masing-masing terdiri dari instruksi masukan dan respons yang diinginkan, model umumnya meningkatkan kemampuannya untuk merespons instruksi yang belum pernah dilihat sebelumnya.

Keterbatasan LLM

Kumpulan data seperti Public Pool of Prompts (P3), Natural Instructions, dan Dolly-v2 berfokus pada teks dari Web, kumpulan data bahasa alami klasik. Namun, LLM memiliki keterbatasan jika digunakan dalam domain yang digeneralisasi. Bagaimana model bahasa dapat diadaptasi untuk mengikuti instruksi dalam domain khusus tanpa data beranotasi?

Bonito: Model Generasi Tugas Bersyarat

Peneliti dari Brown University telah mengusulkan Bonito, model sumber terbuka untuk generasi tugas bersyarat untuk mengubah teks pengguna yang tidak beranotasi menjadi kumpulan data penyetelan instruksi khusus tugas. Bonito meningkatkan kinerja model yang telah dilatih sebelumnya dan disetel instruksi di luar dasar penyempurnaan diri standar, yang dicontohkan oleh peningkatan F1 yang luar biasa sebesar 22,1 poin dalam kinerja zero-shot yang kuat saat diterapkan pada Mistral-Instruct-v2 dan variannya. Ini menggarisbawahi potensi bahkan model khusus tugas untuk meningkatkan lebih jauh melalui pembelajaran pada tugas yang dihasilkan Bonito.

Pelatihan dan Evaluasi

Bonito dilatih dengan menyempurnakan Mistral-7B, model bahasa dekoder sumber terbuka, pada kumpulan data CTGA. Untuk meningkatkan kinerja model, pelatihan dengan lebih banyak instruksi sintetis pada kumpulan data seperti PubMedQA dan Vitamin C dilakukan. Eksperimen tambahan dilakukan dengan meminta model sumber terbuka yang sudah jadi seperti Zephyr-7B-β dan Mistral 7B-Instruct-v0.2 dan GPT-4 untuk menghasilkan tugas dan menemukan bahwa mereka sering dapat meningkatkan model yang telah dilatih sebelumnya tetapi masih kesulitan untuk meningkatkan kinerja model lebih lanjut ketika mereka disetel instruksi.

Hasil

Biasanya, model yang telah dilatih sebelumnya dilatih untuk mengikuti instruksi pada campuran pelatihan skala besar seperti P3 dan koleksi FLAN. Bonito meningkatkan dasar penyempurnaan diri rata-rata 33,1 poin F1 pada model yang telah dilatih sebelumnya dan 22,9 poin F1 pada model yang disetel instruksi. Penggunaan P3 untuk membuat meta-templat dan melatih Bonito untuk menghasilkan tugas NLP dalam domain khusus diperhitungkan. Juga, untuk membangun kumpulan data, SQuAD dan monSenseQA telah digunakan, dan total 39 kumpulan data akan dimasukkan dalam CTGA. Akhirnya, Bonito pada PubMedQA mencapai kinerja puncak 47,1 poin F1 setelah 10.000 langkah.

Kesimpulan

Bonito, model sumber terbuka untuk generasi tugas bersyarat yang mengubah teks tidak beranotasi menjadi kumpulan data penyetelan instruksi, berhasil menunjukkan bahwa pelatihan dengan penyetelan instruksi sintetis dengan kumpulan data dalam domain khusus merupakan alternatif yang kuat untuk penyempurnaan diri. Namun, penting untuk dicatat bahwa ketika berhadapan dengan teks tidak beranotasi yang terbatas, mengadaptasi model bahasa target dapat menyebabkan penurunan kinerja.