Bahaya dihadapi pengguna dengan AI dan apa perlu dilakukan mengenainya

Gambar: putilov denis/Adobe Stock via CSIS

Hari Hak Pengguna Sedunia ialah kempen Pertubuhan Bangsa-Bangsa Bersatu (PBB) yang disambut setiap tahun pada 15 Mac sejak 1983 dan tumpuan tahun ini adalah pada tema “AI yang Adil dan Bertanggungjawab untuk Pengguna”.

Ini adalah tumpuan utama yang tepat kerana kecerdasan buatan (Artificial Intelligence – AI) menjadi sangat meluas dalam kehidupan kita dan masyarakat kita. Sebenarnya AI wujud sejak sekian lama tetapi baru-baru ini dengan peningkatan penggunaan AI oleh pengguna setiap hari, kita menyedari betapa bersepadunya AI dalam kehidupan kita dan betapa kita bergantung kepadanya.

Ia hanya praktikal untuk mengakui bahawa AI berada di sini untuk kekal. Memandangkan kita tidak boleh menjauhkan diri daripada AI, maka menjadi penting bagi kita untuk mengenal pasti bahaya dan masalah yang dihadapi oleh orang ramai kerana penggunaan AI supaya ia boleh diurus dan/atau diperbetulkan.

Pada tahun lepas istilah “scamdemic” dicipta memandangkan negara kita mengalami peningkatan besar dalam penipuan, ini termasuk penduduk tempatan yang ditipu atau penipu yang beroperasi di Malaysia untuk menipu orang di luar negara. Senjata terbaharu dalam senjata penipu ini ialah penggunaan deepfakes yang dihasilkan oleh AI untuk menipu orang.  Deepfakes ini termasuk suara palsu seseorang yang mangsa kenali sama ada meminta untuk meminjam wang untuk kecemasan atau malah mereka diculik dan dipindahkan wang sebagai wang tebusan ke dalam akaun bank penculik (penipu).

Isu lain ialah “halusinasi” yang dialami oleh beberapa Model Bahasa Besar (Large Language Models – LLM) apabila menjawab soalan yang ditanya oleh orang sebenar. Untuk konteks ini, ChatGPT, salah satu aplikasi paling terkenal yang meletakkan AI di barisan hadapan dalam fikiran semua orang ialah LLM, ia adalah kategori khusus AI generatif. Apabila seseorang bertanya kepada LLM soalan yang tidak dapat dijawab, ia akan mula mencipta jawapan dengan “fakta” palsu dan juga boleh memberikan petikan palsu. Ini bukan sahaja berbahaya untuk pelajar yang mungkin menggunakan aplikasi yang serupa dengan ChatGPT sebagai pengganti enjin carian biasa untuk penyelidikan dan banyak lagi, tetapi juga untuk orang biasa yang mencari sesuatu perubatan, undang-undang, dan sebagainya.

Terdapat juga kekurangan ketelusan mengenai apa maklumat yang dikumpul oleh sistem AI dan cara AI itu berfungsi dan membuat keputusan. Seperti semua perkara, pengguna mempunyai hak untuk mengetahui bagaimana cara model AI tertentu berfungsi dan bagaimana cara ia mempengaruhi mereka dan orang di sekeliling mereka.

Maklumat salah juga merupakan satu lagi isu besar. Sebagai contoh, maklumat salah boleh digunakan untuk menyebarkan ketakutan atau mungkin juga untuk mempengaruhi pengundi ke arah tertentu. Algoritma AI digunakan untuk menyasarkan individu tertentu berdasarkan sejarah carian mereka tanpa mengira sama ada maklumat yang ditolak itu betul atau tidak. Ini berbahaya kerana penyebaran maklumat salah boleh menentukan keputusan perkara seperti pemilihan pemimpin.

Pengiklanan yang disasarkan adalah salah satu masalah yang wujud sejak sekian lama. Walau bagaimanapun, baharu sekarang pengguna lebih sedar mengenai AI bahawa mereka sedar isu pengiklanan yang disasarkan sebenarnya merupakan pelanggaran besar terhadap privasi mereka kerana sejumlah besar data peribadi mereka sedang dikumpulkan dan dijual kepada syarikat pihak ketiga supaya mereka boleh menyasarkan iklan mereka dan produk mereka kepada pengguna.

Memandangkan semua faktor yang boleh menjadikan AI berbahaya kepada pengguna, kita perlu mempunyai penyelesaian untuk mengatasi bahaya ini.

Masalah AI bukanlah unik untuk Malaysia tetapi adalah sesuatu yang dialami di seluruh dunia. EU telah menghasilkan Akta AI, perundangan yang akan mengawal model dan aplikasi AI berdasarkan potensi risiko yang ditimbulkan kepada orang ramai. Peraturan yang lebih ketat akan digunakan untuk aplikasi yang lebih berisiko dan sistem AI yang mempunyai “risiko yang tidak boleh diterima” akan diharamkan sama sekali.

Pada Januari tahun ini kerajaan Malaysia mengumumkan bahawa mereka sedang dalam proses mewujudkan tadbir urus AI dan kod etika yang perlu dilakukan menjelang tahun ini. Kod etika ini kemudiannya akan digunakan untuk mewujudkan peraturan AI Malaysia.

Persatuan Pengguna Pulau Pinang (CAP) menggesa kerajaan untuk menggubal undang-undang AI yang serupa dengan Akta AI EU. Bagi pengguna untuk berasa selamat mempunyai AI dalam kehidupan mereka, syarikat pembangunan AI perlu telus dan bertanggungjawab terhadap sistem AI mereka. Peraturan yang lebih ketat diperlukan untuk memastikan hak asasi manusia dilindungi.

 

 

Mohideen Abdul Kader
Presiden
Persatuan Pengguna Pulau Pinang (CAP)

Kenyataan Akhbar, 15 Mac 2024