TechnologyCybersecurity
August 30, 2025

Ang Tumataas na Banta ng Panggamit ng AI para sa Masama: Mula sa Pagkawala ng Trabaho hanggang sa Cybercrime

Author: Lucas Greene

Ang Tumataas na Banta ng Panggamit ng AI para sa Masama: Mula sa Pagkawala ng Trabaho hanggang sa Cybercrime

Ang pag-usbong ng artipisyal na intelihensiya (AI) ay muling bumago sa iba't ibang industriya, na nag-aalok ng walang katulad na kahusayan at kakayahan na hindi pa nakikita dati. Sa mga nagdaang taon, ang mga teknolohiyang AI ay mabilis na umunlad, na naglalaman ng mga kakayahan na nagpapahintulot sa mga makina na matuto, mag-adapt, at gumanap ng mga tungkulin na karaniwang nangangailangan ng katalinuhan ng tao. Gayunpaman, habang niyayakap natin ang mga inobasyong ito, may isang madilim na kwento—isa na nagbubunyag ng potensyal ng mga teknolohiyang ito kapag sinasamantala nang masama.

Ang mga ulat mula sa mga nangungunang kumpanya sa teknolohiya ay nagsisilbing babala—ang mga cybercriminal ay ngayon nagsasanay ng AI tools tulad ng Claude ni Anthropic para sa masama, kabilang na ang hacking, phishing, at panghihingi ng pera mula sa mga korporasyon. Sa isang kahanga-hangang kaso, isang baguhang hacker na gumagamit ng AI technology ang target ang pitong labing-septong kumpanya, na humihingi ng ransom na umaabot sa $500,000. Ipinapakita nito kung paano kahit yung walang malawak na kasanayang teknikal ay maaaring magsagawa ng mga sopistikadong cyberattack salamat sa mga mapagkukunan na ibinibigay ng AI.

Isang ilustrasyon na nagpapakita ng mga kahinaan sa modernong cybersecurity dahil sa pagsasamantala sa AI.

Isang ilustrasyon na nagpapakita ng mga kahinaan sa modernong cybersecurity dahil sa pagsasamantala sa AI.

Lalong lumalala ang mga kahinaan kapag isinaalang-alang ang kakayahan ng generative AI. Ang mga tool na ito ay maaaring makabuo ng mga phishing email na kapani-paniwala, makabuo ng disimpormasyon sa malaking scale, at mag-automate ng iba pang malisyosong gawain. Ang kadalian ng pag-access sa makapangyarihang AI tools ay nagdudulot ng alarma sa mga eksperto sa cybersecurity, na nananawagan para sa matibay na mga hakbang sa buong industriya upang maiwasan ang pang-aabuso. Ang pag-uusap ay lumipat na mula sa simpleng pagtatanggol laban sa tradisyong cyber threats patungo sa proactive na pagpigil sa armas ng AI.

Kasabay nito, ang mga panganib na dulot ng AI-driven cybercrime ay may kasamang nakabibinging banta ng pagbabawas ng trabaho. Isang ulat ang nagsasabing maaaring i-automate ng AI ang mga tungkulin na pangunahing pinangungunahan ng mga mas bata o mas may karanasan na manggagawa. Habang ang mas matatandang empleyado ay maaaring makatagpo ng kanilang mga tungkulin na mas suportado, nananatiling mataas ang panganib na mawalan ng trabaho ang mga kabataang manggagawa habang inaagaw ng mga AI system ang mga gawain na dati ay ginagawa ng tao. Nagpapakita ang automation na ito ng isang paradox—ang AI ay dinisenyo upang mapataas ang produktibo, ngunit anong halaga ang maaaring ibigay nito sa workforce?

Sa landscape ng teknolohiya, nagsisimula nang magsilbing mas malawak na diskusyon ang mga dinamiko na ito tungkol sa etika ng deployment ng AI. May mga kumpanya tulad ng Microsoft na nagsasagawa ng mga inisyatibo upang magtatag ng sariling mga AI model upang mabawasan ang pag-asa sa mga panlabas na provider tulad ng OpenAI. Ang stratehikong pagbabagong ito ay maaaring magbigay ng mas malaking kontrol sa kakayahan ng AI ngunit nagbubukas din ng diskusyon tungkol sa etikal na paggamit ng AI. Habang nag-iisip ang mga kumpanya tungkol sa kanilang pag-asa sa mga makabagong sistema ng AI, kailangang sumabay ang regulatory frameworks upang masiguro ang balanseng paraan ng inobasyon at kaligtasan.

Ang Microsoft ay nagsusulong ng sariling mga AI model bilang bahagi ng kanilang stratehiya upang mabawasan ang pag-asa sa mga panlabas na AI provisions.

Ang Microsoft ay nagsusulong ng sariling mga AI model bilang bahagi ng kanilang stratehiya upang mabawasan ang pag-asa sa mga panlabas na AI provisions.

Bukod pa rito, isang mahalagang aspeto na nararapat suriin ay ang pagpapahalaga sa mga hakbang pangkaligtasan sa aplikasyon ng AI, partikular na sa mga bulnerableng populasyon tulad ng mga kabataan. Bilang tugon sa mga alalahanin na ipinakita ng ulat ng Reuters, inanunsyo ng Meta na pahuhusayin nito ang mga proteksyon para sa mga mas batang gumagamit na nakikipag-ugnayan sa mga produktong AI. Kasama dito ang pagsasanay sa mga sistema ng AI upang iwasan ang hindi angkop na mga pag-uusap at limitahan ang access sa ilang mga AI character na maaaring hindi angkop, na nagbibigay-diin sa responsibilidad ng mga tech giants sa societal impact ng kanilang mga produkto.

Sa pagtatapos, habang patuloy na nilalakad ng AI ang mga hangganan ng kung ano ang posible—mula sa pagpapabuti ng mga teknolohiya hanggang sa pagbabago ng mga tungkulin sa trabaho—napakahalaga para sa mga lider sa industriya, mga policymaker, at mga gumagamit na manatiling maingat sa mga panganib na dulot nito. Ang dobleng panig ng AI ay nangangailangan ng isang proactive at kolaboratibong approach, na nakatuon sa integrasyon ng mga etikal na gawi sa pag-develop ng AI, pagpapanatili ng mga matibay na hakbang sa cybersecurity, at ang pagbibigay proteksyon sa workforce mula sa mabilis na pagbabawas ng trabaho bilang resulta ng teknolohikal na pag-unlad.

Sa pag-asa sa hinaharap, kailangan nating yakapin ang isang paradigma kung saan ang teknolohiya ay hindi lamang nagpapabuti sa ating buhay kundi ginagawa ito sa isang responsableng paraan at kapaki-pakinabang sa lahat ng kasapi ng lipunan. Ang pagtugon sa mga mahahalagang isyung ito ay magiging susi sa paghubog ng isang sustainable na ekosistema ng teknolohiya na nagsusulong ng inobasyon nang hindi isinasakripisyo ang kaligtasan o mga pamantayan sa etika.