AI Umum

LAB: Metode AI Baru untuk Mengatasi Tantangan Skalabilitas dalam Pelatihan Model Bahasa Besar

Pendahuluan

Model bahasa besar (LLM) telah merevolusi aplikasi pemrosesan bahasa alami (NLP). Namun, fase penyetelan instruksi dan penyetelan halus model untuk tugas tertentu memerlukan sumber daya yang tinggi dan sangat bergantung pada anotasi manusia dan model berpemilik seperti GPT-4. Persyaratan ini menghadirkan tantangan dalam hal biaya, skalabilitas, dan akses ke data pelatihan berkualitas tinggi.

LAB: Metodologi Penyetelan Instruksi Baru

Untuk mengatasi tantangan ini, peneliti dari IBM dan MIT telah memperkenalkan LAB (Large-scale Alignment for chatbots), sebuah metodologi baru untuk penyetelan instruksi. LAB memanfaatkan proses pembuatan data sintetis yang dipandu taksonomi dan kerangka penyetelan multi-fase untuk mengurangi ketergantungan pada anotasi manusia yang mahal dan model berpemilik. Pendekatan ini bertujuan untuk meningkatkan kemampuan LLM dan perilaku mengikuti instruksi tanpa kelemahan dari lupa yang parah, menawarkan solusi yang hemat biaya dan dapat diskalakan untuk melatih LLM.

Komponen Utama LAB

LAB terdiri dari dua komponen utama:

  • Metode Pembuatan Data Sintetis Berbasis Taksonomi: Taksonomi mengorganisir tugas menjadi cabang pengetahuan, keterampilan dasar, dan keterampilan komposisi, memungkinkan kurasi dan pembuatan data yang ditargetkan. Pembuatan data sintetis dipandu oleh taksonomi untuk memastikan keragaman dan kualitas data yang dihasilkan.
  • Kerangka Pelatihan Multi-Fase: Kerangka pelatihan multi-fase terdiri dari fase penyetelan pengetahuan dan penyetelan keterampilan, dengan buffer pemutaran ulang untuk mencegah lupa yang parah.

Hasil Empiris

Hasil empiris menunjukkan bahwa model yang dilatih dengan LAB mencapai kinerja yang kompetitif di beberapa tolok ukur dibandingkan dengan model yang dilatih dengan data sintetis beranotasi manusia tradisional atau yang dihasilkan GPT-4. LAB dievaluasi oleh enam metrik berbeda, termasuk MT-Bench, MMLU, ARC, HellaSwag, Winograde, dan GSM8k, dan hasilnya menunjukkan bahwa model yang dilatih dengan LAB berkinerja kompetitif dalam berbagai tugas pemrosesan bahasa alami, mengungguli model sebelumnya yang disetel dengan Gpt-4 atau data beranotasi manusia. LABRADORITE-13B dan MERLINITE-7B, yang disejajarkan menggunakan LAB, mengungguli model yang ada dalam hal kemampuan chatbot sambil mempertahankan kemampuan pengetahuan dan penalaran.

Kesimpulan

LAB menawarkan solusi hemat biaya dan dapat diskalakan untuk meningkatkan kemampuan LLM tanpa lupa yang parah dengan memanfaatkan pembuatan data sintetis yang dipandu taksonomi dan kerangka pelatihan multi-fase. Metode yang diusulkan mencapai kinerja mutakhir dalam kemampuan chatbot sambil mempertahankan kemampuan pengetahuan dan penalaran. LAB merupakan langkah maju yang signifikan dalam pelatihan LLM yang efisien untuk berbagai aplikasi.