AI Umum

Peningkatan Penalaran Matematika LLM dengan CoT-Influx: Pendekatan Pembelajaran Mesin Baru

Pengantar

Model Bahasa Besar (LLM) telah merevolusi Kecerdasan Buatan (AI) dengan kemampuannya yang luas karena banyaknya informasi yang telah dipelajari dan dilatih. Namun, masih ada area yang belum atau kurang dieksplorasi yang terkadang memerlukan peningkatan. Salah satunya adalah kemampuan penalaran matematika. Model-model ini, terutama yang lebih kecil seperti LLaMA, menghadapi tantangan dalam penalaran matematika, yang merupakan komponen penting dari kemampuan kognitif AI.

Pendekatan Rantai Pikiran (CoT)

Komunitas penelitian terus berupaya mengoptimalkan perintah Rantai Pikiran (CoT) dan menyempurnakan LLM untuk meningkatkan keterampilan penalaran mereka. Namun, potensi penuh pembelajaran sedikit contoh masih perlu dieksplorasi.

Penelitian terbaru telah meningkatkan kemampuan penalaran LLM dengan menyempurnakan perintah CoT dan berinovasi pada data pelatihan berbasis CoT. Metode kompresi perintah telah dieksplorasi untuk mengatasi tantangan contoh sedikit contoh yang terbatas, tetapi metode tersebut harus menyelesaikan masalah secara efektif. Metode pengambilan perintah mengoptimalkan kinerja tugas dengan memilih contoh sedikit contoh berkualitas tinggi, tetapi metode tersebut kurang optimal untuk penalaran matematika dan tidak memperhitungkan redundansi token. Akurasi penalaran LLaMA2-7B menurun ketika jumlah contoh CoT melebihi batas token. LLM dengan kemampuan berbeda menyukai contoh CoT dengan kompleksitas yang bervariasi, tetapi metode pengambilan saat ini tidak mempertimbangkan hal ini.

CoT-Influx: Pendekatan Baru

Sebuah tim peneliti dari Universitas Hong Kong dan Microsoft telah mengusulkan CoT-Influx. Pendekatan baru ini memperkenalkan penggunaan pembelajaran sedikit contoh yang lebih efektif untuk meningkatkan kemampuan penalaran matematika LLM. Memanfaatkan mekanisme pemangkasan kasar ke halus, CoT-Influx bertujuan untuk memaksimalkan masukan contoh CoT yang efektif dan ringkas dalam batasan jendela konteks yang ada. Pendekatan ini memungkinkan contoh CoT yang lebih bermanfaat dan memastikan bahwa setiap contoh terdiri dari token informatif.

Metodologi

Pengembangan CoT-Influx melibatkan pembuatan kumpulan data penalaran matematika khusus, MRD3, yang menampilkan masalah yang mencakup berbagai tingkat kesulitan dan langkah penalaran. Kumpulan data ini adalah dasar untuk melatih pemangkas khusus yang dirancang untuk tugas penalaran matematika. Pemangkas beroperasi dalam dua tahap penting—awalnya memilih contoh CoT yang penting dari kumpulan yang luas dan kemudian memangkas token yang berlebihan agar sesuai dengan batasan jendela konteks asli.


Dengan mengadopsi strategi pemangkasan dua fase ini, CoT-Influx secara efektif menggandakan kapasitas jendela konteks untuk contoh CoT yang berguna tanpa menimbulkan biaya komputasi atau kompleksitas tambahan.

Hasil

Efektivitas CoT-Influx dibuktikan melalui pengujian yang ketat, yang menunjukkan peningkatan signifikan dalam kemampuan pemecahan matematika LLM. Diterapkan pada berbagai model LLaMA pada lima kumpulan data matematika, CoT-Influx menghasilkan peningkatan akurasi yang signifikan. Sorotan utama adalah model LLaMA2-70B dengan CoT-Influx yang melampaui GPT-3.5 dan model yang lebih besar pada kumpulan data GSM8K sebesar 2,5%. Selain itu, pada kumpulan data lain seperti AddSub dan Multiarith, CoT-Influx memungkinkan model untuk mencapai kinerja terbaik, menggarisbawahi peran pentingnya dalam memajukan kemampuan penalaran matematika LLM.

Kesimpulan

Studi ini memperkenalkan CoT-Influx, sebuah metode yang secara signifikan meningkatkan kemampuan penalaran matematika LLM seperti LLaMA. Dengan memangkas dan memanfaatkan contoh terkait matematika secara efisien, CoT-Influx memungkinkan model-model ini mencapai akurasi yang lebih tinggi pada kumpulan data yang menantang, seperti GSM8K, AddSub, dan Multiarith. Kemajuan ini menandai langkah maju yang signifikan dan membuka kemungkinan baru untuk menerapkan LLM untuk memecahkan masalah matematika yang kompleks, menunjukkan arah yang menjanjikan untuk penelitian masa depan dalam penalaran AI dan efisiensi pembelajaran.