AI Teknologi Informasi

Menggunakan Kecerdasan Buatan dengan Tanggung Jawab: Amerika Serikat Memimpin Upaya Pengembangan Standar Sistem Manajemen AI ISO/IEC 42001

Sebuah standar internasional baru memberikan panduan bagi berbagai organisasi untuk menggunakan sistem kecerdasan buatan (AI) secara bertanggung jawab: ISO/IEC 42001, Sistem Manajemen Kecerdasan Buatan, yang dikembangkan oleh International Organization for Standardization / International Electrotechnical Commission (ISO/IEC) Joint Technical Committee (JTC) 1, Teknologi Informasi, Subcommittee (SC) 42, Kecerdasan Buatan. Amerika Serikat memiliki peran utama dalam JTC 1, dengan American National Standards Institute (ANSI), anggota Amerika Serikat untuk ISO, bertugas sebagai sekretariat.

Meskipun AI semakin banyak digunakan di berbagai sektor yang memanfaatkan teknologi informasi, teknologi ini juga membawa risiko bagi organisasi yang memerlukan mekanisme pengaturan yang hati-hati. ISO/IEC 42001:2023 memberikan panduan kepada sistem manajemen AI untuk mengatasi kompleksitas teknologi ini, memberikan kerangka kerja untuk mengelola risiko dan peluang sambil mendukung penggunaan AI yang bertanggung jawab. Standar ini menentukan persyaratan dan memberikan panduan untuk mendirikan, melaksanakan, menjaga, dan terus meningkatkan sistem manajemen AI dalam konteks organisasi apa pun—tanpa memandang ukuran, jenis, dan karakteristiknya—yang menyediakan atau menggunakan produk atau layanan yang memanfaatkan sistem AI.

Standar ini berfokus pada pendekatan “Plan-Do-Check-Act” dalam mendirikan, melaksanakan, menjaga, dan terus meningkatkan AI; sistem ini mendukung peningkatan kualitas, keamanan, jejak, transparansi, dan kehandalan aplikasi AI. Pada akhirnya, tujuan dari standar ini adalah membantu organisasi mencapai manfaat maksimum dari AI, sambil meyakinkan pemangku kepentingan bahwa sistem yang mengintegrasikan AI sedang dikembangkan, diatur, dan digunakan dengan tanggung jawab.

“ISO/IEC 42001:2023 adalah standar internasional AI yang pertama kali dalam jenisnya yang akan memungkinkan sertifikasi, meningkatkan kepercayaan konsumen terhadap sistem AI, dan memungkinkan adopsi AI yang bertanggung jawab secara luas,” kata Wael William Diab, ketua SC 42. “Pendekatan baru ini mengambil pendekatan sistem manajemen yang terbukti dan mengadaptasikannya ke AI. Standar ini dapat diterapkan secara luas di berbagai domain aplikasi dan akan membantu mengungkap manfaat masyarakat dari AI sambil sekaligus mengatasi masalah etika dan kepercayaan.”

Standar ini dikembangkan oleh pemangku kepentingan yang mewakili berbagai kepentingan, termasuk perwakilan dari sektor publik dan swasta, regulator, ahli teknologi, peneliti, akademisi, dan lainnya. SC 42 terdiri dari 63 negara, dengan lebih dari sepertiga dari negara-negara berkembang. Banyak anggota SC 42 memiliki pemangku kepentingan yang akan menjadi pengguna utama AI—menciptakan lingkungan pengembangan standar yang seimbang yang melibatkan baik pengguna maupun pengembang teknologi ini.