Gubernur California, Amerika Serikat, Gavin Newsom mengesahkan peraturan terbaru yang memaksa pengembang AI besar seperti OpenAIChatGPT, Google, Meta, Nvidia, dan Anthropic mengungkapkan strategi pengurangan risiko terkait dengan teknologi.
California menjadi negara bagian pertama di Amerika Serikat yang menerapkan aturan khusus terkait bahaya kecerdasan buatan. Undang-undang ini dikenal sebagai SB 53.
SB 53 mengharuskan perusahaan yang memiliki pendapatan di atas US$ 500 juta untuk mengevaluasi dan mengungkapkan risiko terkait kecerdasan buatan, termasuk potensi kehilangan kendali terhadap sistem canggih serta penggunaan yang salah dalam pengembangan senjata biologis.
Perusahaan yang melanggar bisa dikenai denda maksimal sebesar 1 juta dolar AS atau 16,6 miliar rupiah (kurs 16.684 rupiah per dolar AS) untuk setiap pelanggaran.
“California telah membuktikan bahwa kami mampu membuat aturan untuk melindungi masyarakat sambil memastikan industri AI terus berkembang,” kata Newsom, dilaporkan oleh Reuters, Selasa (30/9).
Regulasi tersebut muncul di tengah sedikitnya undang-undang federal mengenai kecerdasan buatan. Newsom menekankan bahwa jika nantinya ditetapkan standar nasional, California akan menyesuaikan aturannya tanpa mengurangi standar tinggi yang ditetapkan oleh SB 53.
Meskipun diapresiasi sebagai kerangka yang mengimbangi inovasi dan keamanan publik, beberapa pihak berpendapat bahwa aturan ini berpotensi menyebabkan ‘patchwork regulation’ atau situasi di mana setiap negara bagian membuat peraturan yang berbeda, sehingga memberatkan startup.
Di sisi lain, sejumlah anggota Kongres, baik dari Partai Demokrat maupun Republik, sedang mengkaji standar nasional guna menghindari ketidakjelasan aturan antar negara bagian.
Aturan AI di Indonesia
Di Indonesia, Kementerian Komunikasi dan Digital (Komdigi) sedang menyelesaikan Peta Jalan (Roadmap) AI yang direncanakan segera diperkenalkan.
Menurut Direktur Jenderal Ekosistem Digital Komdigi Edwin Hidayat, roadmap tersebut terdiri dari dua dokumen utama, yaitu:
- Panduan Putih Roadmap AI yang memandu perkembangan AI secara teknis dan strategis, dengan empat bidang utama, yaitu:
- Memperkuat pembangunan
- Membangun kapasitas inovasi
- Mengurangi risiko
- Memastikan kehidupan inklusif
- Etika dalam pengembangan kecerdasan buatan yang menjamin pemanfaatan AI sesuai dengan nilai-nilai nasional, konstitusi, serta prinsip pembangunan berkelanjutan. Bagian ini menekankan pada transparansi, pertanggungjawaban, keamanan data, inklusivitas, dan keberlanjutan.
“Tujuannya, setiap algoritma di Indonesia perlu efisien, adil, dan tidak memihak,” ujar Edwin dalam acara AI Innovation Summit di Jakarta Selatan pada bulan September lalu.
Ketua Tim Infrastruktur AI, Teknologi Baru, Data, dan Keamanan Siber Komdigi Muhamad Ridwan menyampaikan bahwa kementerian baru telah merilis aturan terkait AI berupa Buku Putih Kecerdasan Artifisial, yang berisi kerangka ekosistem AI nasional.
“Kerangka acuan (buku putih) ini dibuat untuk mempercepat inovasi sambil memastikan penerapan AI berlangsung secara etis, inklusif, dan berkelanjutan,” ujar Ridwan.
Empat bidang utama arah kebijakan adalah:
- Peningkatan partisipasi berbagai pihak, guna memperkuat kerja sama antara pemerintah pusat, daerah, sektor industri, akademisi serta masyarakat.
- Pengembangan inovasi, guna menciptakan lingkungan yang mendukung perkembangan startup, penelitian, serta pemanfaatan teknologi terbaru.
- Peningkatan kemampuan teknologi, penelitian, dan kreativitas, guna mendorong penelitian lokal serta penguatan kemampuan sumber daya manusia.
- Pengurangan risiko, guna menjaga masyarakat dari kemungkinan dampak etis, hukum, atau sosial yang ditimbulkan oleh kecerdasan buatan
Menteri Komunikasi dan Informatika Meutya Hafid sebelumnya menyatakan bahwa roadmap kecerdasan buatan tidak akan berisi satu regulasi yang tebal, tetapi akan dibagi menjadi beberapa pilar kebijakan sesuai dengan sektor yang terdampak, seperti industri, bisnis, pengembangan teknologi, dan etika.
Salah satu aspek yang perlu diatur terlebih dahulu adalah etika penggunaan AI. Etika AI merujuk pada prinsip-prinsip moral dan tanggung jawab yang menentukan bagaimana kecerdasan buatan dikembangkan serta dimanfaatkan, agar tidak merugikan masyarakat.
Prinsip-prinsip etika yang akan diatur meliputi kejelasan penggunaan teknologi AI, keamanan serta tanggung jawab dari para pengembang, perlindungan informasi pribadi hingga pencegahan adanya prasangka atau ketidakadilan dalam sistem kecerdasan buatan.
“Beberapa petunjuk, kemungkinan besar aturan pertamanya berkaitan dengan etika AI,” kata Meutya saat mengunjungi Balai Pengawasan Spektrum Frekuensi Radio Kategori I Makassar di Kabupaten Gowa, Sulawesi Selatan, pada Juni (16/6).
Menteri Komunikasi dan Informatika Meutya Hafid menyampaikan bahwa salah satu isu yang mendesak adalah maraknya penyebaran konten yang dimanipulasi menggunakan teknologi AI di media sosial. Hal ini mendorong pemerintah untuk menetapkan aturan etika dalam penggunaan teknologi tersebut.






















