AI Teknologi Informasi

5 Poin Penting dari AI Summit NY 2023

Berikut adalah sorotan dari AI Summit kami, yang mencatatkan keramaian rekor dan sesi yang penuh sesak

AI Summit New York tahun ini, yang merupakan konferensi yang diselenggarakan oleh divisi induk dari AI Business, mencatatkan keramaian rekor dengan banyak sesi yang penuh sesak.

Alasannya jelas: AI Generatif menjadi topik hangat di komunitas teknologi, dengan pengembang, ilmuwan data, dan manajer bisnis berusaha memahami bagaimana cara terbaik mengaplikasikannya di perusahaan mereka.

Jika Anda melewatkan acara tersebut, berikut adalah poin-poin kunci:

  1. OpenAI dan perusahaan hyperscaler memprediksi semua perusahaan akan menggunakan AI generatif dalam 10 tahun.

“Saya pikir itu akan 100%,” kata Adam Goldberg, anggota tim GTM, ChatGPT Enterprise, di OpenAI. “Dua hingga tiga tahun ke depan akan menjadi liar. Anda akan melihat organisasi yang secara agresif mengubah proses bisnis mereka dalam berbagai bentuk dan ukuran, dan apakah mereka membangun sesuatu atau membeli sesuatu … (akan ada) perubahan material bagi setiap organisasi yang menggunakannya secara signifikan.”

Sy Choudhury, direktur pengembangan bisnis, kemitraan AI di Meta, setuju, menambahkan bahwa perusahaan-perusahaan sedang bereksperimen dengan model yang lebih kecil yang cenderung kurang mahal.

Salman Taherian, pemimpin kemitraan AI generatif (EMEA) untuk AWS, mengatakan bahwa ia melihat tiga tren yang akan datang: model generatif akan menjadi lebih kecil, lebih efisien dan menawarkan kinerja yang lebih baik; akan ada lebih banyak model yang disesuaikan secara khusus untuk industri; dan penggunaan berbagai model bahasa besar (LLM) secara kombinasi.

Taherian mengutip ramalan Gartner yang mengatakan bahwa $3 triliun akan dihabiskan untuk AI selama empat tahun ke depan dan AI generatif akan menangkap sepertiga dari pengeluaran tersebut.

Hitesh Wadhwa, pemimpin bisnis dan penjualan di Google Cloud, duta besar GenAI, berkata “sekarang adalah era AI. Seperti Anda tidak melihat siapa pun yang tidak menggunakan internet atau tidak menggunakan ponsel (hari ini), delapan tahun dari sekarang, tidak mungkin melihat tidak ada yang menggunakan AI.”

  1. AI Generatif akan tetap dalam tahap ‘co-pilot’ untuk sementara waktu sampai risikonya ditangani dengan memadai.

“Ada masalah kepercayaan” di antara pemimpin top dalam penggunaan model bahasa besar dengan risiko terkait keamanan, masalah hak cipta, halusinasi, dan lainnya, kata Lucinda Linde, ilmuwan data senior di Ironside, sebuah konsultan teknologi.

Gaurav Dhama, direktur pengembangan produk − AI di Mastercard, melihat AI generatif tetap dalam tahap co-pilot – membantu manusia daripada otonom – “untuk waktu yang lama,” terutama untuk perusahaan di industri yang diatur ketat seperti layanan keuangan. Artinya, manusia akan tetap terlibat dalam proses untuk sementara waktu.

Terutama dalam menulis kode, AI generatif dapat memperkenalkan kerentanan keamanan. “Kami menggunakannya dengan hati-hati dan keterampilan programmer yang menggunakannya harus lebih tinggi,” tambah Dhama.

  1. Model multimodal dalam AI generatif akan meningkatkan teknologi.

Kanika Narang, ilmuwan penelitian AI senior di Meta, mengatakan apa yang akan datang untuk model bahasa besar adalah multimodalitas.

“Saya sangat bersemangat tentang ini,” katanya. Selama pra-pelatihan, model menyelaraskan berbagai modalitas seperti gambar, video, audio bersama dengan bahasa. “Ini dapat digunakan untuk menggerakkan banyak aplikasi” seperti menjawab pertanyaan visual.

Sebagai contoh, unggah gambar minuman beralkohol dan minta model untuk tidak hanya mengidentifikasinya tetapi juga resep apa yang dapat digunakannya, katanya.

Contoh lain adalah ketika seorang pesepeda meminta AI untuk arahan, model dapat memahami bahwa Anda sedang bersepeda dan mengidentifikasi jalur yang ramah sepeda untuk digunakan.

Aplikasi lainnya termasuk yang di bidang kesehatan di mana analisis pencitraan medis menghasilkan pelaporan dan diagnosis pasien yang lebih holistik, kata Narang.

  1. Drama OpenAI menekankan pentingnya menggunakan berbagai model.

Lucinda Linde, ilmuwan data senior di Ironside, mengatakan pemecatan dan perekrutan kembali CEO OpenAI Sam Altman menunjukkan pentingnya menggunakan berbagai model, bukan hanya dari OpenAI – untuk menghindari ketergantungan berlebihan pada satu perusahaan.

Saat ini, 95% kode AI generatif yang ditulis menggunakan teknologi OpenAI, katanya. Alasan lain untuk menggunakan berbagai model: Beberapa model melakukan beberapa hal dengan lebih baik daripada yang lain.

Sementara itu, OpenAI terus melihat permintaan yang kuat untuk produk-produknya. Adam Goldberg, anggota tim GTM OpenAI untuk ChatGPT Enterprise, mengatakan OpenAI bekerja sama dengan “segelintir” klien untuk membuat model khusus untuk mereka dan ada daftar tunggu “beberapa ratus” lainnya.

Goldberg mengatakan toko GPT akan hadir di Q1. GPT adalah versi khusus ChatGPT yang dapat dibangun perusahaan untuk tujuan tertentu. Toko GPT akan menjadi pasar untuk GPT, mirip dengan toko aplikasi. Setelah Q1, pengguna akan dapat menjual GPT yang mereka buat.

Namun, ia tidak memiliki tanggal untuk kapan OpenAI akan membuka kembali layanan ChatGPT Plus mereka untuk pelanggan baru. Pendaftaran ditutup setelah mendapatkan “permintaan yang benar-benar luar biasa” setelah konferensi pengembang mereka, sehingga mereka menangguhkan langganan daripada mempertaruhkan pengalaman yang buruk bagi semua pengguna, katanya.

  1. Perusahaan mengambil langkah pengamanan lebih awal dalam AI daripada dalam revolusi teknologi lainnya.

Perusahaan membawa tim hukum mereka sejak tahap bukti konsep dalam proyek AI untuk mengidentifikasi risiko, menurut Salman Taherian, pemimpin kemitraan AI generatif (EMEA) untuk AWS. Ini adalah “jauh lebih awal dari yang kami miliki sebelumnya dalam AI/ML,” katanya.

Tim komunikasi juga dibawa masuk lebih awal juga untuk menangani setiap konsekuensi PR dari AI yang berperilaku buruk. “Ini dunia yang berbeda sekarang,” kata Sy Choudhury, direktur pengembangan bisnis, kemitraan AI di Meta.

Perusahaan juga proaktif dalam cara lain. Sebagai contoh, Meta, sebagai bagian dari praktik AI yang bertanggung jawab, menempatkan prompt melalui empat model Llama untuk keamanan dan kinerja sebelum output dihasilkan.

Jika pengguna mengetik prompt ke WhatsApp, satu model Llama digunakan untuk memahami maksud pengguna. Selanjutnya, itu pergi ke model keamanan Llama untuk memeriksa apakah prompt itu sah atau mencoba menipu AI generatif. Ketiga, itu pergi ke model yang menjawab prompt. Terakhir, model keempat membersihkan jawaban untuk membuatnya “tajam dan bagus,” kata Choudhury.