TechnologyAI PolicySociety
September 15, 2025

Perbatasan AI pada 2025: Dari Cip Tepi ke Deepfake Politik dan Tugas Pengurusan Kecerdasan Buatan

Author: Alexandra Reed

Perbatasan AI pada 2025: Dari Cip Tepi ke Deepfake Politik dan Tugas Pengurusan Kecerdasan Buatan

AI berada di persimpangan pada tahun 2025. Selepas bertahun-tahun terobosan yang tersimpan di makmal penyelidikan, teknologi ini kini menyentuh kehidupan seharian dalam cara yang belum pernah terjadi sebelumnya: pada peranti yang kita bawa, pekerjaan yang kita lakukan, kandungan yang kita ambil, dan malah naratif politik yang beredar dalam talian. Di seluruh laman teknologi, forum dasar, dan bilik mesyuarat syarikat, perbualan tertumpu pada seberapa pantas keupayaan berkembang, risiko-risiko yang diciptakan, dan bagaimana masyarakat mungkin mengarahkan alat berkuasa ini ke arah manfaat luas dan nyata. Ciri ini menggabungkan tema daripada beberapa rangkaian liputan—pengkomputeran tepi dan AI pada peranti, tadbir urus korporat dan dinamika pasaran, keselamatan dan etika, pendidikan, serta penggunaan dunia sebenar yang sudah mengubah cara orang bekerja dan berfikir.

Trend yang membimbangkan dalam ranah politik menunjukkan bagaimana AI boleh membentuk wacana dengan cara yang paling mengelirukan. The Daily Beast baru-baru ini mendokumentasikan fenomena yang digambarkan sebagai MAGA yang menyiarkan video Charlie Kirk yang dijana AI daripada kubur. Dalam kes itu, suara sintetis dan rakaman yang kelihatan nyata digabungkan dengan mesej yang disesuaikan, menghasilkan satu gelung kandungan yang boleh tersebar dengan cepat di seluruh platform. Asasnya bukan sekadar teknikal—peniruan suara, video berjenis deepfake, dan model bahasa yang boleh meniru rentak dan struktur hujah—tetapi juga sosial dan politik: siapa yang memperkuat bahan seperti itu, siapa yang mengesahkannya, dan siapa yang memikul tanggungjawab apabila ia menyesatkan. Seperti kebanyakan keupayaan yang didorong AI, risiko ini bukan sekadar kegagalan teknikal tetapi manipulasi kepercayaan, kehilangan kepercayaan dalam ekosistem maklumat, dan lapisan baharu kerumitan bagi pembela kebenaran serta wartawan yang berusaha memberi konteks kepada apa yang nyata.

Gambar statik yang menggambarkan kandungan berasaskan AI yang dijana dan beredar dalam talian selepas kematian seorang tokoh awam.

Gambar statik yang menggambarkan kandungan berasaskan AI yang dijana dan beredar dalam talian selepas kematian seorang tokoh awam.

Melangkaui politik, soalan yang lebih luas tentang siapa yang mengawal pengetahuan yang dijana AI dan siapa yang diberi pampasan untuknya tetap belum jelas. Laporan Gizmodo mengenai saman Rolling Stone terhadap Google berhubung ringkasan gambaran AI yang dijana menonjolkan isu undang-undang dan etika teras: apabila model memproses dan menyusun semula bahan berhak cipta, di mana hak-hak pengarang bermula dan berakhir? Kes ini menjadi lambang bagi perbahasan yang lebih luas mengenai penggunaan adil, atribusi, dan ekonomi data yang melatih sistem-sistem yang menjalankan AI moden. Penerbit, platform, dan penyelidik sedang merundingkan model pampasan, pelesenan, dan tanggungjawab yang baru apabila kurasi bantuan AI menjadi lebih meluas. Ketegangan antara aksesibiliti dan akuntabiliti ini bukan pertikaian nifus—ia adalah soalan struktural mengenai bagaimana masyarakat menghargai semula, mengagihkan semula, dan melindungi karya kreatif dalam era automasi pintar.

Keperluan pendidikan dalam dunia yang dioptimumkan AI semakin dibincangkan oleh pemimpin yang mengakui kelajuan perubahan akan melampaui pendidikan tradisional jika institusi gagal menyesuaikan diri. Demis Hassabis, CEO DeepMind, berhujah untuk merangka semula pembelajaran itu sendiri: kemampuan untuk belajar bagaimana belajar mungkin kemahiran yang paling penting pada era AI yang cepat menyesuaikan diri dengan tugas baharu. Konsep ini mempunyai implikasi praktikal terhadap kurikulum, latihan guru, dan ekosistem pembelajaran sepanjang hayat. Jika mesin mempercepat kadar perubahan, pelajar dan pekerja mungkin memerlukan strategi untuk pembelajaran kendiri, pemodelan masalah, dan literasi merentasi disiplin yang membolehkan mereka membimbing, mengkritik, dan menggunakan AI dengan bertanggungjawab seiring dengan perkembangan. Matlamatnya bukan untuk menggantikan pembelajaran manusia tetapi untuk membangunkan satu set kemahiran meta yang membolehkan manusia kekal relevan dengan perubahan pesat dalam apa yang boleh dilakukan sistem pintar.

Ketidakstabilan tenaga kerja dan cabaran tadbir urus berada di teras wacana AI 2025. OpenAI dan pihak lain menekankan bahawa AI akan mengubah banyak pekerjaan, mewujudkan permintaan untuk peranan baharu dalam keselamatan, dasar, dan pengawasan, walaupun sebahagian tugas rutin akan diotomatisasi. Pemimpin seperti Sam Altman mendorong peraturan yang berfikir secara teliti dan pertumbuhan inklusif, berhujah bahawa masyarakat perlu melabur dalam retraining dan sokongan sosial untuk meredakan kesan kepada pekerja semasa peralihan. Perdebatan dasar merangkumi privasi, ujian keselamatan, ketelusan algoritma, dan akauntabiliti terhadap keputusan yang dipandu AI. Soalan penting ialah bagaimana menyelaraskan insentif korporat dengan kepentingan awam: adakah syarikat akan melabur dalam ketahanan untuk pekerja dan komuniti, atau jalan pintas demi kelajuan dan skala akan mendorong pelaksanaan yang lebih berisiko? Keseimbangan antara inovasi dan perlindungan kekal sebagai ketegangan utama era ini.

The hardware and platform layers of AI are no longer peripheral—they are central to how quickly and widely AI can be deployed. Qualcomm’s leadership in edge AI is emblematic of a broader push to move processing closer to data sources. Snapdragon-powered devices promise faster, more private AI inference on-device, reducing reliance on cloud servers and latency that previously hindered real-time applications. As hardware enables more sophisticated models to run on phones, sensors, and embedded systems, the architecture of AI ecosystems shifts toward distributed intelligence. The consequence is not merely faster apps; it is new patterns of data governance, with less raw data being sent to central servers and more decisions made locally. This evolution raises questions about standardization, developer tooling, and the economic model for on-device AI.

LANL’s Venado supercomputer powering OpenAI models for advanced scientific simulations.

LANL’s Venado supercomputer powering OpenAI models for advanced scientific simulations.

Sempadan antara penyelidikan AI dan keselamatan awam digambarkan secara jelas melalui penggunaan di makmal nasional. Penggunaan model O-series OpenAI pada Venado superkomputer—dipacu oleh perkakasan NVIDIA Grace Hopper—menunjukkan bagaimana AI boleh mempercepat kajian saintifik berisiko tinggi, daripada simulasi nuklear hingga pemodelan iklim. Namun ini juga meningkatkan pengawasan terhadap keselamatan data, risiko kegunaan dua hala, dan rangka kerja tadbir urus yang memastikan AI digunakan secara bertanggungjawab dalam persekitaran sensitif. Integrasi ini menghubungkan keupayaan algoritma abstrak dengan hasil konkrit, menawarkan kitaran eksperimen lebih pantas sambil menuntut audit yang ketat, kawalan akses, dan tadbir urus yang telus untuk mencegah akibat yang tidak diingini. Ketika AI menjadi alat penemuan dalam penyelidikan yang dibiayai kerajaan, pengurusan serta pelindungannya menjadi sama pentingnya dengan penemuan-penemuannya.

Tema utama dalam kajian AI kontemporari adalah struktur kawalan dan modal yang sedang berubah dalam bidang ini. Empire of AI karya Karen Hao menawarkan kritikan yang bernuansa tentang bagaimana misi bukan untung berkembang menjadi sebuah perusahaan bernilai berbilion dolar dengan pengaruh yang luas. Buku ini berhujah untuk pendekatan yang lebih adil, telus, dan berfokus pada keselamatan dalam pembangunan AI—yang mengagihkan manfaat secara lebih meluas sambil membatasi kos sosial pertumbuhan pesat dan eksponensial. Kritikan ini tidak menolak inovasi; ia menuntut tadbir urus dan akauntabiliti yang seiring dengan skala. Perbincangan ini bukan bersifat teoretikal: ia membentuk jangkaan pelabur, perbincangan dasar, dan pilihan reka bentuk yang dilakukan juruteknik tentang asal-usul data, keselamatan model, dan hak pengguna.

Sentimen mengenai trajektori pasaran AI tetap diperdebatkan secara intens. Bret Taylor, pengerusi lembaga OpenAI, telah berhujah bahawa sektor ini berada dalam gelembung—satu pemerhatian yang menekankan volatiliti ketika ini: pelaburan besar-besaran dan janji-janji berani, disambut dengan kemajuan sebenar di dunia nyata yang tidak menentu, kadang tidak rata. Namun perbincangan juga mengakui bahawa gelembung adalah hasil semula jadi teknologi terkemuka: ia menandakan keterujaan, mengambil risiko, dan kesediaan untuk membiayai eksperimen berani. Pengambilan praktikalnya ialah seruan untuk pembangunan yang berdisiplin: ujian yang ketat, hasil yang terukur, dan penerapan yang berwaspada terhadap keselamatan walaupun kadar inovasi meningkat. Ringkasnya, perumpamaan gelembung bukan satu keputusan tetapi bingkai untuk mengimbangi aspirasi dengan akauntabiliti.

Teknologi pengguna sedang disuntik dengan AI dalam cara yang semakin jelas kelihatan. Meta Connect 2025 yang akan datang menimbulkan antibersangkaan untuk Hypernova, rangkaian kaca mata pintar yang kemungkinan akan menggabungkan keupayaan AR dengan pembantu AI dan ciri metaverse. Jangkaannya ialah peranti boleh pakai akan beralih daripada peranti pasif kepada rakan bicara berasaskan konteks yang boleh mentafsir persekitaran, membimbing keputusan, dan membolehkan jenis interaksi baharu dalam kehidupan seharian. Walaupun visi metaverse yang sangat diperkasakan AI menjanjikan produktiviti dan hiburan, ia juga membangkitkan kebimbangan mengenai privasi, kedaulatan data, dan jejak ekologi ekosistem maya yang meluas. Pertaruhan industri terhadap AI yang boleh dipakai menunjukkan bahawa tahap seterusnya demokratisasi AI tidak terletak di makmal sahaja tetapi juga dalam poket orang ramai.

Satu aliran serentak dalam ekonomi buruh AI berkait dengan pengurusan anotasi dan penandaan data—bahagian yang kadang-kadang tidak kelihatan bagi kebanyakan sistem AI yang diawasi. Laporan bahawa xAI milik Elon Musk memberhentikan ratusan penanda anotasi kerana ia beralih kepada pakar domain khusus mencerminkan corak yang lebih luas di mana kerja kurasi manual rutin menjadi sasaran untuk meningkatkan kecekapan atau dialihkan kepada peranan yang mahir dan khusus. Walaupun langkah seperti itu boleh menyelaraskan sistem AI lebih rapat dengan tugas dunia sebenar, ia juga menimbulkan soalan mengenai hak pekerja, pampasan, dan kos sosial perubahan drastik tenaga kerja. Pembuat dasar, penyelidik, dan pemimpin industri mendesak perancangan yang telus mengenai latihan semula, lantai gaji, dan laluan peralihan bagi pekerja yang pendapatan mereka bergantung pada rantai data-ke-model.

Jalur cerita AI pada 2025 menunjukkan bahawa kemajuan akan diukur bukan sahaja dengan keupayaan baharu tetapi dengan tadbir urus yang menjadikan keupayaan itu selamat, adil, dan mudah diakses. Kesimpulannya ialah AI bukan lagi sekumpulan kejayaan terpencil tetapi ekosistem sosio-teknikal yang memerlukan kerjasama antara syarikat teknologi, universiti, kerajaan, dan masyarakat sivil. Laluan yang tepat adalah peraturan yang seimbang yang menyokong inovasi bertanggungjawab, pelaburan besar dalam modal insan untuk menanggung gangguan, dan komitmen bersama untuk membangun AI yang meningkatkan potensi manusia sambil melindungi daripada kemudaratan. Jika semua pihak berkepentingan memainkan peranan mereka—penyelia penyelidikan, pembuat dasar, pengendali platform, dan pekerja—era AI boleh berkembang sebagai kisah kemajuan inklusif dan tahan lama bukannya gelembung rapuh yang spekulatif.

Meta Connect 2025 preview: Hypernova smart glasses and AI-enabled metaverse experiences.

Meta Connect 2025 preview: Hypernova smart glasses and AI-enabled metaverse experiences.