Author: Lucas Greene

Kemunculan kecerdasan buatan (AI) telah membentuk semula pelbagai industri, menawarkan kecekapan dan kebolehan yang tiada tandingan yang belum pernah dilihat sebelum ini. Dalam beberapa tahun kebelakangan, teknologi AI telah berkembang pesat, merangkumi fungsi yang membolehkan mesin belajar, menyesuaikan diri, dan melaksanakan tugas yang biasanya memerlukan kecerdasan manusia. Walau bagaimanapun, ketika kita mengadaptasi inovasi ini, terdapat naratif yang lebih gelap—yang mendedahkan potensi teknologi ini apabila dieksploitasi secara jahat.
Laporan terkini dari syarikat teknologi terkemuka memberi amaran mendesak—penjenayah siber kini memanipulasi alat AI seperti Claude dari Anthropic untuk tujuan jahat, termasuk penggodoman, phishing, dan memeras ugut syarikat. Dalam satu kes yang menonjol, seorang penggodam amatur yang menggunakan teknologi AI menyasarkan tujuh belas syarikat, menuntut wang tebusan sebanyak AS$500,000. Ini menunjukkan bahawa walaupun mereka tanpa kemahiran teknikal yang luas boleh melaksanakan serangan siber yang canggih berkat sumber yang disediakan oleh AI.

Ilustrasi yang menggambarkan kerentanan dalam keselamatan siber moden akibat penyalahgunaan AI.
Kerentanan ini menjadi lebih membimbangkan apabila kita mempertimbangkan keupayaan AI generatif. Alat ini boleh menghasilkan email phishing yang sangat meyakinkan, menghasilkan maklumat palsu secara skala besar, dan mengautomasikan aktiviti jahat yang lain. Kemudahan akses kepada alat AI yang berkuasa menimbulkan kebimbangan di kalangan pakar keselamatan siber, yang menyeru perlindungan industri yang kukuh untuk mengelakkan penyalahgunaan. Perbincangan kini beralih dari sekadar mempertahankan terhadap ancaman siber tradisional kepada pencegahan penggunaan senjata AI secara proaktif.
Selain daripada bahaya yang ditimbulkan oleh jenayah siber yang didorong AI, terdapat juga bayangan penggantian pekerjaan yang menakutkan. Laporan menunjukkan bahawa AI berpotensi mengautomasikan peranan yang biasanya dipegang oleh pekerja muda atau kurang berpengalaman. Walaupun pekerja yang lebih tua atau berpengalaman mungkin mendapati tugas mereka bertambah baik, terdapat risiko tinggi pekerja muda kehilangan pekerjaan apabila sistem AI mengambil alih tugas yang sebelum ini dilakukan oleh manusia. Automasi ini menimbulkan paradoks—AI direka untuk meningkatkan produktiviti, tetapi pada apa kos kepada tenaga kerja?
Dalam lanskap teknologi, dinamik ini mula memacu perbincangan yang lebih luas mengenai etika penggunaan AI. Syarikat seperti Microsoft sedang menjalankan inisiatif untuk membina model AI dalaman bagi mengurangkan pergantungan kepada pembekal luar seperti OpenAI. Peralihan strategik ini mungkin menawarkan kawalan yang lebih besar ke atas keupayaan AI tetapi juga membuka perbincangan mengenai penggunaan AI secara etika. Ketika syarikat mempertimbangkan pergantungan mereka terhadap sistem AI yang canggih, rangka kerja peraturan harus menyesuaikan diri bagi memastikan keseimbangan antara inovasi dan keselamatan.

Microsoft sedang membangunkan model AI dalaman sebagai sebahagian daripada strateginya untuk mengurangkan pergantungan kepada penyedia AI luar.
Selain itu, satu aspek penting yang harus diperhatikan adalah langkah keselamatan dalam aplikasi AI, khususnya berkaitan populasi yang rentan seperti remaja. Sebagai tindak balas kepada kebimbangan yang didedahkan oleh laporan Reuters, Meta telah mengumumkan bahawa ia akan meningkatkan kawalan keselamatan untuk pengguna muda yang berinteraksi dengan produk AI. Ini termasuk melatih sistem AI untuk mengelakkan perbualan yang tidak sesuai dan menghadkan akses kepada watak AI tertentu yang mungkin tidak sesuai, menegaskan tanggungjawab syarikat teknologi terhadap impak sosial produk mereka.
Kesimpulannya, walaupun AI terus menolak batasan apa yang mungkin—daripada memfasilitasi kemajuan dalam teknologi hingga mengubah peranan pekerjaan—adaptasi kepada risiko yang ditimbulkannya adalah sangat penting. Kepimpinan industri, pembuat dasar, dan pengguna harus kekal waspada terhadap risiko yang ditimbulkan. Dua sisi AI memerlukan pendekatan proaktif dan kolaboratif, memfokuskan kepada pengintegrasian amalan etika dalam pembangunan AI, memastikan langkah keselamatan siber yang kukuh, dan melindungi tenaga kerja daripada penggantian yang pantas akibat kemajuan teknologi.
Memandang ke hadapan, kita harus menerima paradigma di mana teknologi bukan sahaja meningkatkan kehidupan kita tetapi melakukannya dengan cara yang bertanggungjawab dan bermanfaat untuk semua anggota masyarakat. Mengatasi isu-isu yang sering sukar dibincangkan ini akan menjadi penting dalam membentuk ekosistem teknologi yang mampan yang mempercepat inovasi tanpa mengorbankan keselamatan atau piawaian etika.