Bahaya yang Tidak Kelihatan di Zaman Kecerdasan Buatan (AI)

Persatuan Pengguna Pulau Pinang (CAP) ingin menarik perhatian kepada potensi bahaya yang ditimbulkan oleh kecerdasan buatan (AI), walaupun masyarakat mengakui banyak kelebihannya. AI boleh menjadi alat yang berkuasa bagi kemajuan, tetapi ia juga membawa risiko yang tidak boleh diabaikan, daripada memupuk pergantungan psikologi dan membolehkan manipulasi kepada memudahkan penipuan pada skala yang belum pernah terjadi sebelumnya. Apa yang dipanggil “Godfather of AI”, Dr Geoffrey Hinton, telah memberi amaran kepada dunia mengenai bahaya pembangunan yang tidak terkawal, menekankan bahawa kewaspadaan diperlukan sebelum sistem ini mengatasi keupayaan kita untuk mengawalnya.

AI telah disepadukan dengan kukuh ke dalam kehidupan moden, menjana segala-galanya daripada automasi tempat kerja kepada perkhidmatan dalam talian. Walaupun teknologi ini menjanjikan kecekapan dan inovasi, terdapat bahaya yang semakin meningkat apabila menjadi terlalu bergantung kepada AI. Pergantungan seperti itu menimbulkan risiko dalam tiga bidang kritikal: pekerjaan dan ekonomi, hubungan sosial dan kepercayaan, dan manipulasi psikologi.

Satu contoh yang menarik adalah mengenai seorang lelaki berusia 60 tahun di Amerika Syarikat yang dimasukkan ke hospital selepas mengalami keracunan bromida apabila beliau menggantikan garam biasa dengan natrium bromida atas nasihat ChatGPT pada awal 2025. Selepas tiga bulan penggunaan, beliau mengalami halusinasi, paranoia, keletihan, dan ruam kulit, dan kini telah dirawat bagi bromisme, satu keadaan dulunya adalah biasa pada awal abad ke dua puluh tetapi kini jarang sekali. Beliau pulih selepas rawatan hospital, tetapi kes itu menggambarkan bahaya bergantung pada AI bagi bimbingan perubatan tanpa pengawasan profesional.

Salah satu risiko pergantungan yang paling segera kepada AI ialah penggantian tenaga kerja manusia. Sistem AI kini boleh melaksanakan tugas yang pernah dianggap hanya boleh dilakukan oleh manusia, mulai daripada kerja perkeranian dan kemasukan data kepada peranan dalam kewartawanan, undang-undang dan diagnostik perubatan. Walaupun automasi mengurangkan kos dan meningkatkan produktiviti, ia juga mengancam untuk memindahkan berjuta-juta pekerja yang mungkin sukar mendapatkan pekerjaan baharu. Gangguan ini boleh mendalamkan lagi ketidaksamaan, kerana manfaat automasi tertumpu dalam kalangan syarikat dan profesional berkemahiran tinggi, manakala yang lain akan ketinggalan. Tanpa pengurusan yang teliti, pergantungan kepada AI boleh menyebabkan pengangguran yang lebih tinggi, gaji rendah dan tidak meningkat, dan jurang sosioekonomi yang semakin meluas.

Pada Oktober 2024, Kementerian Sumber Manusia melaporkan bahawa kira-kira 293,639 pekerjaan telah hilang di Malaysia akibat automasi dan AI antara 2020 dan September 2024. Kebanyakan kehilangan pekerjaan ini berlaku dalam pembuatan, perdagangan borong dan runcit, perkhidmatan profesional dan saintifik, serta sektor teknologi maklumat dan komunikasi. Melainkan rakyat Malaysia mengambil langkah untuk meningkatkan kemahiran mereka dan menyediakan diri mereka untuk bidang yang tidak dapat ditiru dengan mudah oleh AI, risiko peningkatan pengangguran akan meningkat dengan mendadak.

Melangkaui tempat kerja, AI mempunyai akibat sosial yang ketara. Memandangkan orang semakin bergantung pada algoritma untuk membuat keputusan, sama ada memilih berita, merancang perjalanan atau mengurus kewangan, kemahiran manusia yang penting seperti pemikiran kritis, penyelesaian masalah dan pertimbangan mungkin semakin lemah. Kebergantungan yang berlebihan pada pembantu AI atau sistem pengesyoran berisiko menghasilkan pengguna maklumat yang pasif dan bukannya warga yang aktif dan arif.

Hubungan sosial juga terjejas. Rakan AI dan chatbots dipromosikan sebagai sumber keselesaan dan persahabatan, tetapi ini boleh mengurangkan interaksi manusia yang tulen. Jika orang mula beralih kepada AI untuk sokongan emosi, mereka mungkin menjadi lebih terasing daripada keluarga dan komuniti, memburukkan lagi pemecahan sosial. Kepercayaan terhadap institusi juga mungkin menurun jika keputusan seperti kelulusan pinjaman atau pengambilan diambil oleh algoritma legap yang nampaknya tidak boleh dipertanggungjawabkan.

Mungkin risiko yang paling berbahaya terletak pada keupayaan AI untuk memanipulasi tingkah laku. Sistem moden belajar daripada set data aktiviti manusia yang luas, memberikan mereka keupayaan yang tidak pernah berlaku sebelum ini untuk memodelkan pilihan, emosi dan kelemahan. Dengan pengetahuan ini, AI boleh mempengaruhi pilihan secara halus melalui pengiklanan yang diperibadikan, pemesejan politik atau perbualan yang meyakinkan. Sistem ini boleh menyesuaikan respons mereka kepada profil psikologi individu, mengemudi tingkah laku dengan lembut tanpa orang itu menyedarinya. Algoritma media sosial sudah pun mengeksploitasi ketakutan atau kemarahan untuk menarik perhatian, dan sistem AI masa depan boleh menjadi lebih berkesan dalam membentuk pendapat, menggalakkan pergantungan dan menghakis autonomi peribadi.

Penipuan menggunakan AI juga semakin meningkat. Penjenayah telah mula mengklonkan suara untuk menipu saudara-mara supaya menghantar wang dan menghasilkan video palsu untuk mempromosikan pelaburan yang menipu. Pada 2024, Malaysia merekodkan 13,956 kes penipuan pelaburan membabitkan video palsu, menyebabkan kerugian RM2.11 bilion. Lebih membimbangkan, 85 peratus mangsa telah dipujuk oleh kandungan promosi yang dijana oleh AI.

Oleh itu, bahaya pergantungan yang berlebihan kepada AI melangkaui kesilapan teknologi. Ia termasuk kehilangan mata pencarian, kelemahan ikatan sosial, dan eksploitasi kelemahan psikologi. Jika dibiarkan, risiko ini boleh membentuk semula masyarakat kepada masyarakat yang kurang adil, kurang berhubung dan kurang bebas.

Tadbir urus yang bertanggungjawab, reka bentuk beretika dan kesedaran awam adalah penting untuk memastikan AI kekal sebagai alat di tangan manusia dan bukannya pakar halus yang membentuk pilihan manusia.

 

 

Mohideen Abdul Kader
Presiden
Persatuan Pengguna Pulau Pinang (CAP)

Surat Kepada Pengarang, 6 November 2025