Ang Mga Panganib ng Paggamit ng AI

Ang Artificial Intelligence (AI) ay nagdudulot ng maraming benepisyo ngunit naglalaman din ng maraming panganib kapag ito ay inaabuso o ginagamit nang walang kontrol. Mula sa mga isyu sa seguridad ng datos, maling impormasyon, paglabag sa copyright hanggang sa panganib ng pagpapalit ng manggagawa, ang AI ay may mga hamon na kailangang tukuyin at pamahalaan nang epektibo. Ang pag-unawa sa mga panganib ng paggamit ng AI ay tumutulong sa mga indibidwal at negosyo na gamitin ang teknolohiya nang ligtas at napapanatili.

Ang Artificial Intelligence (AI) ay ngayon ay bahagi na ng lahat mula sa mga katulong sa smartphone at mga feed sa social media hanggang sa pangangalaga ng kalusugan at transportasyon. Ang mga teknolohiyang ito ay nagdudulot ng hindi pangkaraniwang mga benepisyo, ngunit may kasamang malalaking panganib at hamon.

Mahalagang Babala: Nagbabala ang mga eksperto at pandaigdigang institusyon na kung walang wastong mga etikal na patnubay, maaaring ulitin ng AI ang mga pagkiling at diskriminasyon sa totoong mundo, magdulot ng pinsala sa kapaligiran, banta sa mga karapatang pantao, at palalimin ang umiiral na mga hindi pagkakapantay-pantay.

Sa artikulong ito, tuklasin natin kasama ang INVIAI ang mga panganib ng paggamit ng AI sa lahat ng larangan at uri ng AI – mula sa mga chatbot at algorithm hanggang sa mga robot – batay sa mga pananaw mula sa mga opisyal at internasyonal na sanggunian.

Pagkiling at Diskriminasyon sa mga Sistema ng AI

Isang pangunahing panganib ng AI ay ang pagtibay ng pagkiling at hindi patas na diskriminasyon. Ang mga modelo ng AI ay natututo mula sa datos na maaaring sumasalamin sa mga makasaysayang pagkiling o hindi pagkakapantay-pantay; bilang resulta, maaaring tratuhin ng isang sistema ng AI ang mga tao nang iba batay sa lahi, kasarian, o iba pang katangian sa mga paraang nagpapatuloy ng kawalang-katarungan.

Ang hindi gumaganang pangkalahatang AI ay maaaring magdulot ng pinsala sa pamamagitan ng mga desisyong may pagkiling kaugnay ng mga protektadong katangian tulad ng lahi, kasarian, kultura, edad, at kapansanan.

— International AI Safety Report
Aktwal na Epekto: Ang mga may pagkiling na algorithm na ginagamit sa pagkuha ng empleyado, pagpapautang, o pagpapatupad ng batas ay nagdulot na ng hindi pantay na mga resulta na hindi patas na nakakaapekto sa ilang mga grupo.

Pinapayuhan ng mga pandaigdigang katawan tulad ng UNESCO na kung walang mga hakbang para sa katarungan, nanganganib ang AI na "ulit-ulitin ang mga pagkiling at diskriminasyon sa totoong mundo, magpalala ng mga hati, at banta sa mga pangunahing karapatang pantao at kalayaan". Mahalagang matiyak na ang mga sistema ng AI ay sinanay gamit ang magkakaibang, kinatawan na datos at sinusuri para sa pagkiling upang maiwasan ang awtomatikong diskriminasyon.

Pagkiling sa Pagkuha ng Empleyado

Maaaring magdiskrimina ang mga AI recruitment tools laban sa ilang demograpiko

Diskriminasyon sa Pagpapautang

Maaaring hindi patas na tanggihan ng mga financial algorithm ang mga pautang batay sa mga protektadong katangian

Hindi Pagkakapantay-pantay sa Pagpapatupad ng Batas

Maaaring palalimin ng predictive policing ang umiiral na mga pagkiling sa pagpapatupad ng batas

Pagkiling at Diskriminasyon sa mga Sistema ng AI
Pagkiling at Diskriminasyon sa mga Sistema ng AI

Mga Panganib ng Maling Impormasyon at Deepfake

Ang kakayahan ng AI na gumawa ng napaka-tunay na teksto, larawan, at video ay nagdulot ng takot sa pagbaha ng maling impormasyon. Ang Generative AI ay maaaring gumawa ng kapani-paniwalang pekeng balita, pekeng larawan, o deepfake na mga video na mahirap makilala mula sa tunay.

Pandaigdigang Babala sa Panganib: Itinukoy ng Global Risks Report 2024 ng World Economic Forum ang "manipulated at peke na impormasyon" bilang pinakamalubhang panandaliang panganib sa buong mundo, na binabanggit na ang AI ay "pinapalakas ang manipulated at distorted na impormasyon na maaaring magdulot ng destabilization sa mga lipunan."

Sa katunayan, ang maling impormasyon at disinformation na pinapalakas ng AI ay isa sa "pinakamalalaking hamon sa proseso ng demokrasya" – lalo na sa bilyun-bilyong tao na boboto sa mga darating na halalan. Ang synthetic media tulad ng deepfake na mga video at AI-cloned na mga boses ay maaaring gamitin upang magpalaganap ng propaganda, magpanggap bilang mga pampublikong personalidad, o gumawa ng panlilinlang.

Deepfake na mga Video

Napaka-tunay na pekeng mga video na maaaring magpanggap bilang sinuman, na posibleng gamitin para sa panlilinlang o pampulitikang manipulasyon.

Pagkopya ng Boses

Mga AI-generated na replika ng boses na maaaring gayahin ang pagsasalita ng sinuman para sa mapanlinlang na layunin.

Nagbabala ang mga opisyal na maaaring gamitin ng mga malisyosong aktor ang AI para sa malawakang kampanya ng disinformation, na nagpapadali upang punuin ang mga social network ng pekeng nilalaman at maghasik ng kaguluhan. Ang panganib ay isang mapanlinlang na kapaligiran ng impormasyon kung saan hindi mapagkakatiwalaan ng mga mamamayan ang kanilang nakikita o naririnig, na sumisira sa pampublikong diskurso at demokrasya.

Mga Panganib ng Maling Impormasyon at Deepfake sa AI
Mga Panganib ng Maling Impormasyon at Deepfake sa AI

Mga Banta sa Privacy at Malawakang Pagsubaybay

Ang malawakang paggamit ng AI ay nagdudulot ng seryosong mga alalahanin sa privacy. Kadalasan, nangangailangan ang mga sistema ng AI ng napakalaking dami ng personal na datos – mula sa ating mga mukha at boses hanggang sa ating mga gawi sa pamimili at lokasyon – upang gumana nang epektibo. Kung walang matibay na mga proteksyon, maaaring magamit o abusuhin ang datos na ito.

Babala ng UNESCO: Hindi dapat gamitin ang mga sistema ng AI para sa social scoring o malawakang pagsubaybay. Ang ganitong paggamit ay malawakang itinuturing na hindi katanggap-tanggap na panganib.

Halimbawa, ang facial recognition at predictive algorithms ay maaaring magdulot ng malawakang pagsubaybay, sinusubaybayan ang bawat galaw ng mga indibidwal o niraranggo ang kanilang pag-uugali nang walang pahintulot.

Facial Recognition

Patuloy na pagsubaybay sa mga indibidwal sa mga pampublikong lugar

  • Pagsubaybay sa pagkakakilanlan
  • Pagsusuri ng pag-uugali

Predictive Analytics

Pagsusuri ng AI na naglalantad ng mga personal na detalye

  • Kalagayan sa kalusugan
  • Paniniwalang pampulitika

Social Scoring

Pagraranggo sa mga mamamayan batay sa mga pattern ng pag-uugali

  • Pagraranggo sa kredito
  • Pagsunod sa lipunan

Ang privacy ay isang karapatang mahalaga sa proteksyon ng dignidad ng tao, awtonomiya, at kakayahan na dapat igalang sa buong siklo ng buhay ng isang sistema ng AI.

— Mga Ahensya ng Proteksyon ng Datos

Kung ang pag-unlad ng AI ay mas mabilis kaysa sa mga regulasyon sa privacy, maaaring mawalan ng kontrol ang mga indibidwal sa kanilang sariling impormasyon. Dapat tiyakin ng lipunan na may matibay na pamamahala sa datos, mga mekanismo ng pahintulot, at mga teknik na nagpoprotekta sa privacy upang hindi maging kasangkapan ang mga teknolohiyang AI sa walang kontrol na pagsubaybay.

Mga Banta sa Privacy at Malawakang Pagsubaybay
Mga Banta sa Privacy at Malawakang Pagsubaybay

Mga Pagkabigo sa Kaligtasan at Hindi Inaasahang Pinsala

Habang ang AI ay maaaring mag-automate ng mga desisyon at pisikal na gawain nang may superhuman na kahusayan, maaari rin itong magkamali sa hindi inaasahang paraan, na nagdudulot ng totoong pinsala. Ipinagkakatiwala natin ang AI sa mga responsibilidad na kritikal sa kaligtasan – tulad ng pagmamaneho ng sasakyan, pag-diagnose sa mga pasyente, o pamamahala ng mga power grid – ngunit hindi ito perpekto.

Ang mga glitch, maling datos sa pagsasanay, o hindi inaasahang mga sitwasyon ay maaaring magdulot ng mapanganib na pagkakamali ng AI. Maaaring maling makilala ng AI ng self-driving car ang isang pedestrian, o magrekomenda ang medical AI ng maling paggamot na maaaring magdulot ng panganib sa buhay.

Autonomous Vehicles

Maling pagkilala sa mga pedestrian o hadlang na nagdudulot ng aksidente

Medical AI

Maling diagnosis o rekomendasyon sa paggamot na may panganib sa buhay

Pamamahala ng Power Grid

Pagkabigo ng sistema na nagdudulot ng malawakang blackout o pinsala sa imprastruktura

Dapat iwasan at tugunan ang hindi gustong pinsala (mga panganib sa kaligtasan), pati na rin ang mga kahinaan sa pag-atake (mga panganib sa seguridad) sa buong siklo ng buhay ng mga sistema ng AI upang matiyak ang kaligtasan at seguridad ng tao, kapaligiran, at ekosistema.

— International AI Guidelines
Mahalagang Prinsipyo: Hindi dapat ipasa sa mga sistema ng AI ang mga desisyon tungkol sa buhay at kamatayan. Mahalaga ang pagpapanatili ng human oversight sa mga aplikasyon na may mataas na panganib.

Sa madaling salita, dapat masusing subukan, bantayan, at buuin ang mga sistema ng AI na may mga fail-safe upang mabawasan ang posibilidad ng mga pagkakamali. Ang labis na pagtitiwala sa AI ay maaari ring maging mapanganib – kung ang mga tao ay bulag na nagtitiwala sa mga awtomatikong desisyon, maaaring hindi sila makialam sa tamang oras kapag may mali.

Kaya't mahalaga ang human oversight. Sa mga aplikasyon na may mataas na panganib (tulad ng pangangalaga sa kalusugan o transportasyon), ang mga huling desisyon ay dapat manatiling nasa ilalim ng paghuhusga ng tao. Ang pagpapanatili ng kaligtasan at pagiging maaasahan ng AI ay isang tuloy-tuloy na hamon na nangangailangan ng maingat na disenyo at kultura ng responsibilidad mula sa mga developer ng AI.

Mga Pagkabigo sa Kaligtasan at Hindi Inaasahang Pinsala sa AI
Mga Pagkabigo sa Kaligtasan at Hindi Inaasahang Pinsala sa AI

Pagkawala ng Trabaho at Pang-ekonomiyang Kaguluhan

Ang pagbabago ng AI sa ekonomiya ay may dalawang mukha. Sa isang banda, maaaring pataasin ng AI ang produktibidad at lumikha ng ganap na bagong mga industriya; sa kabilang banda, nagdudulot ito ng panganib na mapalitan ang milyun-milyong manggagawa sa pamamagitan ng automation.

Maraming trabaho – lalo na ang mga may paulit-ulit na gawain o madaling suriin na datos – ang nanganganib na mapalitan ng mga algorithm at robot ng AI.

Nakababahalang Proyeksyon: Inaakala ng World Economic Forum na maaaring mapalitan ang siyamnapu't dalawang milyong trabaho pagsapit ng 2030 dahil sa AI at mga kaugnay na teknolohiya.
Kasalukuyang Manggagawa

Tradisyunal na Trabaho

  • Paulit-ulit na gawain
  • Mga tungkulin sa pagsusuri ng datos
  • Mga posisyon sa manwal na paggawa
  • Batayang serbisyo sa customer
Ekonomiyang Pinapatakbo ng AI

Mga Bagong Kasanayan na Kailangan

  • Kasanayan sa pakikipagtulungan sa AI
  • Malikhain sa paglutas ng problema
  • Teknikal na pamamahala ng AI
  • Serbisyong nakatuon sa tao

Bagaman maaaring lumikha rin ang ekonomiya ng mga bagong tungkulin (posibleng mas marami pang trabaho kaysa sa mawawala sa pangmatagalan), magiging mahirap ang paglipat para sa marami. Ang mga trabahong makukuha ay madalas na nangangailangan ng ibang, mas advanced na kasanayan o nakatuon sa ilang mga tech hub, kaya maraming mga nawalan ng trabaho ang maaaring mahirapang makahanap ng bagong pagkakataon.

Ang hindi pagtutugma sa pagitan ng mga kasanayan ng mga manggagawa at mga kinakailangan ng mga bagong tungkulin na pinapatakbo ng AI ay maaaring magdulot ng mas mataas na kawalan ng trabaho at hindi pagkakapantay-pantay kung hindi ito matutugunan. Totoo, nagbabala ang mga tagagawa ng patakaran at mananaliksik na ang mabilis na pag-unlad ng AI ay maaaring magdulot ng "pagkagulo sa pamilihan ng paggawa, at mga hindi pagkakapantay-pantay sa kapangyarihang pang-ekonomiya" sa sistematikong antas.

Epekto sa Kasarian

Mas mataas na bahagi ng mga trabahong hawak ng mga kababaihan ang nanganganib sa automation

Mga Umuunlad na Bansa

Mas mataas ang panganib ng automation para sa mga manggagawa sa mga umuunlad na bansa

Kung walang mga maagap na hakbang (tulad ng mga programa sa muling pagsasanay, edukasyon sa mga kasanayan sa AI, at mga social safety net), maaaring palawakin ng AI ang mga agwat sa sosyo-ekonomiya, na lumilikha ng ekonomiyang pinapatakbo ng AI kung saan ang mga may-ari ng teknolohiya ang nakikinabang nang husto.

Mahalaga ang paghahanda sa manggagawa para sa epekto ng AI upang matiyak na ang mga benepisyo ng automation ay malawakang mapapakinabangan at maiwasan ang panlipunang kaguluhan mula sa malawakang pagkawala ng trabaho.

Pagkawala ng Trabaho at Pang-ekonomiyang Kaguluhan sa AI
Pagkawala ng Trabaho at Pang-ekonomiyang Kaguluhan sa AI

Malisyosong Paggamit, Panlilinlang, at Mga Banta sa Seguridad

Ang AI ay isang makapangyarihang kasangkapan na maaaring gamitin para sa mabubuting layunin o sa masasamang gawain. Ang mga cybercriminal at iba pang masasamang aktor ay ginagamit na ang AI upang palakasin ang kanilang mga pag-atake.

Halimbawa, maaaring gumawa ang AI ng mga highly personalized na phishing email o voice message (sa pamamagitan ng pagkopya ng boses ng isang tao) upang linlangin ang mga tao na ibigay ang sensitibong impormasyon o magpadala ng pera. Maaari rin itong gamitin upang i-automate ang pag-hack sa pamamagitan ng mabilis na paghahanap ng mga kahinaan sa software o gumawa ng malware na nagbabago upang makaiwas sa pagtuklas.

AI-Powered Phishing

Mga lubhang personalized na mapanlinlang na email na ginagawa sa malawakang paraan

Automated Hacking

Mga sistema ng AI na mabilis makahanap ng mga kahinaan kaysa sa mga hacker na tao

Adaptive Malware

Malisyosong software na nagbabago upang makaiwas sa pagtuklas

Maaaring gamitin ng mga malisyosong aktor ang AI para sa malawakang disinformation at operasyon ng impluwensya, panlilinlang, at scam.

— U.K. Government-Commissioned Report

Itinuturing ng Center for AI Safety ang malisyosong paggamit ng AI bilang isang pangunahing alalahanin, na binabanggit ang mga senaryo tulad ng paggamit ng mga sistema ng AI ng mga kriminal para sa malawakang panlilinlang at cyberattacks.

Ang bilis, lawak, at sopistikasyon na hatid ng AI ay maaaring malampasan ang tradisyunal na depensa – isipin ang libu-libong AI-generated na scam calls o deepfake na mga video na target ang seguridad ng isang kumpanya sa isang araw lamang.

Mga Lumalabas na Banta: Ginagamit ang AI upang mapadali ang pagnanakaw ng pagkakakilanlan, panliligalig, at paggawa ng mapanganib na nilalaman tulad ng non-consensual deepfake pornography o propaganda para sa mga extremistang grupo.

Habang nagiging mas accessible ang mga kasangkapan ng AI, bumababa ang hadlang para isagawa ang mga malisyosong gawain na ito, na posibleng magdulot ng pagtaas ng krimen na pinalakas ng AI.

Nangangailangan ito ng mga bagong pamamaraan sa cybersecurity at pagpapatupad ng batas, tulad ng mga sistema ng AI na maaaring matukoy ang deepfakes o kakaibang pag-uugali at mga na-update na legal na balangkas upang panagutin ang mga lumalabag. Sa esensya, dapat nating asahan na anumang kakayahan na ibinibigay ng AI sa mga benepisyaryo, maaari rin itong ibigay sa mga kriminal – kaya dapat maghanda nang naaayon.

Malisyosong Paggamit, Panlilinlang, at Mga Banta sa Seguridad sa AI
Malisyosong Paggamit, Panlilinlang, at Mga Banta sa Seguridad sa AI

Militarisasyon at Mga Autonomous na Sandata

Marahil ang pinaka-nakakatakot na panganib ng AI ay lumilitaw sa konteksto ng digmaan at pambansang seguridad. Mabilis na iniintegrate ang AI sa mga sistemang militar, na nagdudulot ng posibilidad ng autonomous na mga sandata ("killer robots") at AI-driven na paggawa ng desisyon sa labanan.

Maaaring mas mabilis tumugon ang mga teknolohiyang ito kaysa sa tao, ngunit ang pagtanggal ng kontrol ng tao sa paggamit ng nakamamatay na puwersa ay puno ng panganib. May panganib na ang sandatang kontrolado ng AI ay maaaring pumili ng maling target o magpalala ng mga labanan sa hindi inaasahang paraan.

Pandaigdigang Pag-aalala: Itinuturing ng mga internasyonal na tagamasid ang pag-armas ng AI para sa gamit militar bilang lumalaking banta.

Mga Mali sa Pagpili ng Target

Maaaring maling makilala ng mga sandatang AI ang mga sibilyan bilang mga combatant

  • Maling positibong pagkilala
  • Mga biktima sa sibilyan

Paglala ng Labanan

Maaaring palalain ng mga autonomous na sistema ang mga sitwasyon lampas sa intensyon ng tao

  • Mabilis na mga siklo ng tugon
  • Hindi kontroladong paglala

Kung magmamadali ang mga bansa na lagyan ng matatalinong sandata ang kanilang mga arsenal, maaaring magdulot ito ng destabilizing arms race. Bukod dito, maaaring gamitin ang AI sa cyber warfare upang awtomatikong atakihin ang kritikal na imprastruktura o magpalaganap ng propaganda, na nagbubura ng linya sa pagitan ng kapayapaan at labanan.

Ang pag-unlad ng AI sa digmaan, kung nakatuon lamang sa kamay ng iilan, ay maaaring ipataw sa mga tao nang walang kanilang pahintulot kung paano ito gagamitin, na sumisira sa pandaigdigang seguridad at etika.

— United Nations

Ang mga autonomous na sistema ng sandata ay nagdudulot din ng mga legal at moral na dilema – sino ang mananagot kung aksidenteng pumatay ang isang AI drone ng mga sibilyan? Paano sumusunod ang mga sistemang ito sa internasyonal na batas pangkawanggawa?

Ang mga hindi nasagot na tanong na ito ay nagdulot ng panawagan para sa pagbabawal o mahigpit na regulasyon ng ilang AI-enabled na sandata. Malawakang tinatanggap na mahalaga ang pagpapanatili ng human oversight sa anumang AI na maaaring gumawa ng mga desisyon tungkol sa buhay at kamatayan. Kung wala ito, ang panganib ay hindi lamang mga trahedyang pagkakamali sa larangan ng digmaan kundi pati na rin ang pagguho ng responsibilidad ng tao sa digmaan.

Militarisasyon at Mga Autonomous na Sandata sa AI
Militarisasyon at Mga Autonomous na Sandata sa AI

Kakulangan sa Transparency at Pananagutan

Karamihan sa mga advanced na sistema ng AI ngayon ay gumagana bilang "black boxes" – madalas na hindi malinaw ang kanilang panloob na lohika kahit sa kanilang mga tagalikha. Ang kakulangan sa transparency na ito ay nagdudulot ng panganib na ang mga desisyon ng AI ay hindi maipaliwanag o mapagtatalunan, na isang seryosong problema sa mga larangan tulad ng hustisya, pananalapi, o pangangalaga sa kalusugan kung saan ang explainability ay maaaring isang legal o etikal na kinakailangan.

Kung tinanggihan ng AI ang isang tao ng pautang, nag-diagnose ng sakit, o nagpasya kung sino ang mapapalaya mula sa bilangguan, natural na nais nating malaman kung bakit. Sa ilang mga modelo ng AI (lalo na ang mga kumplikadong neural networks), mahirap magbigay ng malinaw na paliwanag.

Parole, sentensiya, at mga legal na hatol na ginawa ng mga hindi malinaw na sistema ng AI

Mga Serbisyong Pinansyal

Pag-apruba ng pautang at mga desisyon sa kredito nang walang malinaw na paliwanag

Pangangalaga sa Kalusugan

Mga diagnosis at rekomendasyon sa paggamot mula sa hindi maipaliwanag na AI

Ang kakulangan sa transparency ay maaari ring pumigil sa epektibong pagtutol sa mga desisyon batay sa mga resulta ng mga sistema ng AI, at maaaring lumabag sa karapatan sa patas na paglilitis at epektibong remedyo.

— UNESCO

Sa madaling salita, kung hindi maintindihan ng mga gumagamit o regulator kung paano gumagawa ng desisyon ang AI, halos imposibleng panagutin ang sinuman para sa mga pagkakamali o pagkiling na lumilitaw.

Gap sa Pananagutan: Maaaring iwasan ng mga kumpanya ang responsibilidad sa pamamagitan ng pagsisi sa "algorithm," at maaaring walang magawa ang mga apektadong indibidwal.

Upang labanan ito, hinihikayat ng mga eksperto ang paggamit ng explainable AI, masusing pag-audit, at mga regulasyong nangangailangan na ang mga desisyon ng AI ay masubaybayan sa awtoridad ng tao.

Sa katunayan, iginiit ng mga pandaigdigang etikal na patnubay na dapat "laging posible na italaga ang etikal at legal na pananagutan" para sa kilos ng mga sistema ng AI sa isang tao o organisasyon. Dapat manatiling huling responsable ang mga tao, at ang AI ay dapat tumulong sa halip na palitan ang paghuhusga ng tao sa mga sensitibong usapin. Kung hindi, nanganganib tayong lumikha ng mundo kung saan ang mahahalagang desisyon ay ginagawa ng mga hindi maintindihang makina, na isang resipe para sa kawalang-katarungan.

Kakulangan sa Transparency at Pananagutan sa Paggamit ng AI sa Lugar ng Trabaho
Kakulangan sa Transparency at Pananagutan sa Paggamit ng AI sa Lugar ng Trabaho

Konsentrasyon ng Kapangyarihan at Hindi Pagkakapantay-pantay

Ang rebolusyon ng AI ay hindi pantay-pantay na nangyayari sa buong mundo – ilang malalaking korporasyon at bansa lamang ang nangingibabaw sa pag-unlad ng advanced na AI, na may sariling mga panganib.

Ang mga makabagong modelo ng AI ay nangangailangan ng napakalaking datos, talento, at computing resources na tanging mga higanteng teknolohiya (at mga gobyernong may sapat na pondo) lamang ang kasalukuyang may-ari.

Ito ay nagdulot ng isang mataas na konsentrado, singular, at pandaigdigang integrated na supply chain na pabor sa ilang kumpanya at bansa.

— World Economic Forum

Monopolyo sa Datos

Napakalaking mga dataset na kontrolado ng iilang entidad

Mga Computing Resources

Mahal na imprastruktura na naa-access lamang ng mga higanteng teknolohiya

Konsentrasyon ng Talento

Nakatutok ang mga nangungunang AI researcher sa iilang organisasyon

Ang ganitong konsentrasyon ng kapangyarihan sa AI ay maaaring magresulta sa monopolistikong kontrol sa mga teknolohiya ng AI, na naglilimita sa kompetisyon at pagpipilian ng mga mamimili. Nagdudulot din ito ng panganib na ang mga prayoridad ng iilang kumpanya o bansa ay huhubog sa AI sa mga paraan na hindi isinasaalang-alang ang mas malawak na interes ng publiko.

Babala ng UN: May panganib na ang teknolohiya ng AI ay ipataw sa mga tao nang walang kanilang pahintulot kung paano ito gagamitin, lalo na kung ang pag-unlad ay nakatuon lamang sa iilang makapangyarihan.

Ang hindi pagkakapantay-pantay na ito ay maaaring magpalala ng mga pandaigdigang agwat: ang mga mayayamang bansa at kumpanya ay mabilis na umuunlad gamit ang AI, habang ang mga mahihirap na komunidad ay walang access sa mga pinakabagong kagamitan at nakararanas ng pagkawala ng trabaho nang hindi nakikinabang sa AI.

Dagdag pa, maaaring hadlangan ng isang konsentradong industriya ng AI ang inobasyon (kung hindi makakumpitensya ang mga bagong dating sa mga yaman ng mga nakatatag) at magdulot ng mga panganib sa seguridad (kung ang kritikal na imprastruktura ng AI ay kontrolado lamang ng iilang entidad, nagiging isang punto ng pagkabigo o manipulasyon ito).

Ang pagtugon sa panganib na ito ay nangangailangan ng internasyonal na kooperasyon at posibleng mga bagong regulasyon upang gawing demokratiko ang pag-unlad ng AI – halimbawa, pagsuporta sa bukas na pananaliksik, pagtitiyak ng patas na access sa datos at computing, at paggawa ng mga polisiya (tulad ng iminungkahing AI Act ng EU) upang pigilan ang mga abusadong gawain ng mga "AI gatekeepers." Ang mas inklusibong tanawin ng AI ay makakatulong upang matiyak na ang mga benepisyo ng AI ay ibinabahagi sa buong mundo, sa halip na palalimin ang agwat sa pagitan ng mga may teknolohiya at wala.

Konsentrasyon ng Kapangyarihan at Hindi Pagkakapantay-pantay
Konsentrasyon ng Kapangyarihan at Hindi Pagkakapantay-pantay

Epekto ng AI sa Kapaligiran

Madalas na hindi nabibigyang pansin sa mga talakayan tungkol sa mga panganib ng AI ang bakas nito sa kapaligiran. Ang pag-unlad ng AI, lalo na ang pagsasanay ng malalaking modelo ng machine learning, ay kumokonsumo ng napakalaking kuryente at computing power.

Kailangan ang mga data center na puno ng libu-libong power-hungry na server upang iproseso ang mga dambuhalang datos na pinag-aaralan ng mga sistema ng AI. Ibig sabihin nito, maaaring hindi direktang magdulot ang AI ng pagbuga ng carbon at pagbabago ng klima.

Nakababahalang Estadistika: Isang kamakailang ulat mula sa isang ahensya ng United Nations ang nagpakita na ang hindi direktang pagbuga ng carbon ng apat na nangungunang kumpanya ng teknolohiya na nakatuon sa AI ay tumaas ng average na 150% mula 2020 hanggang 2023, pangunahing dahil sa pangangailangan ng enerhiya ng mga data center ng AI.
Pagtaas ng Pagbuga ng Carbon (2020-2023) 150%

Habang lumalaki ang pamumuhunan sa AI, inaasahan na tataas nang husto ang pagbuga mula sa pagpapatakbo ng mga modelo ng AI – tinatayang ang pinakamalalaking sistema ng AI ay maaaring magbuga ng higit sa 100 milyong toneladang CO₂ bawat taon, na nagdudulot ng malaking pasanin sa imprastruktura ng enerhiya.

Upang mailarawan, ang mga data center na nagpapatakbo ng AI ay nagpapataas ng paggamit ng kuryente nang "apat na beses na mas mabilis kaysa sa pangkalahatang pagtaas ng konsumo ng kuryente."

Paggamit ng Enerhiya

Napakalaking paggamit ng kuryente para sa pagsasanay at pagpapatakbo ng mga modelo ng AI

Paggamit ng Tubig

Malaking konsumo ng tubig para sa pagpapalamig ng mga data center

Electronic Waste

Mga upgrade sa hardware na nagdudulot ng mga daloy ng electronic waste

Bukod sa pagbuga ng carbon, maaaring gumamit ang AI ng maraming tubig para sa pagpapalamig at makalikha ng electronic waste dahil sa mabilis na pag-upgrade ng hardware. Kung hindi mapipigilan, maaaring sirain ng epekto ng AI sa kapaligiran ang mga pandaigdigang pagsisikap para sa pagpapanatili.

Ang panganib na ito ay nangangailangan ng paggawa ng AI na mas energy-efficient at paggamit ng mas malinis na mga pinagkukunan ng enerhiya. Nagde-develop ang mga mananaliksik ng mga green AI na teknik upang mabawasan ang paggamit ng kuryente, at may ilang kumpanya na nangakong babayaran ang carbon costs ng AI. Gayunpaman, nananatiling isang mahalagang alalahanin na ang mabilis na pag-usbong ng AI ay maaaring magdulot ng malaking gastos sa kapaligiran. Ang pagbabalansi ng teknolohikal na pag-unlad at responsibilidad sa ekolohiya ay isa pang hamon na kailangang harapin ng lipunan habang iniintegrate natin ang AI sa lahat ng aspeto.

Epekto ng AI sa Kapaligiran
Epekto ng AI sa Kapaligiran

Mga Panganib sa Hinaharap at Pangmatagalan

Higit pa sa mga agarang panganib, nagbabala ang ilang eksperto tungkol sa mas spekulatibo, pangmatagalang panganib mula sa AI – kabilang ang posibilidad ng isang advanced na AI na lalampas sa kontrol ng tao. Bagaman ang mga sistema ng AI ngayon ay makitid ang kakayahan, aktibong nagtatrabaho ang mga mananaliksik patungo sa mas general AI na posibleng malampasan ang tao sa maraming larangan.

Nagdudulot ito ng mga komplikadong tanong: kung ang AI ay magiging napaka-matalino o autonomous, maaari ba itong kumilos sa mga paraan na nagbabanta sa pag-iral ng sangkatauhan? Bagaman parang science fiction ito, may mga kilalang tao sa komunidad ng teknolohiya na nagpahayag ng pag-aalala tungkol sa mga senaryo ng "rogue AI", at seryosong tinatalakay ito ng mga gobyerno.

Tugon ng Gobyerno: Noong 2023, nag-host ang UK ng isang global AI Safety Summit upang talakayin ang mga panganib sa frontier AI, na nagpapakita ng seryosong institusyonal na pag-aalala tungkol sa pangmatagalang kaligtasan ng AI.

May iba't ibang pananaw ang mga eksperto tungkol sa panganib na mawalan ng kontrol ang sangkatauhan sa AI sa paraang maaaring magdulot ng malawakang sakuna.

— International AI Safety Report

Hindi pare-pareho ang konsensus ng agham – naniniwala ang ilan na ang super-intelligent AI ay dekada pa ang layo o maaaring panatilihing naka-align sa mga halaga ng tao, habang ang iba ay nakikita ang maliit ngunit hindi zero na posibilidad ng malawakang sakuna.

Mga Posibleng Senaryo ng Panganib sa Pag-iral

  • AI na sumusunod sa mga layuning hindi naka-align sa mga halaga ng tao
  • Mabilis at hindi kontroladong pag-unlad ng kakayahan ng AI
  • Pagkawala ng awtonomiya ng tao sa mahahalagang desisyon
  • Mga sistema ng AI na nag-o-optimize para sa mapanganib na mga layunin

Mga Pangmatagalang Hakbang sa Kaligtasan

  • Pananaliksik sa AI alignment upang matiyak ang pagkakatugma ng mga layunin
  • Mga internasyonal na kasunduan sa pananaliksik ng AI na may mataas na panganib
  • Pagpapanatili ng human oversight habang lumalawak ang kakayahan ng AI
  • Pagtatatag ng mga pandaigdigang balangkas sa pamamahala ng AI

Sa esensya, kinikilala na ang panganib sa pag-iral mula sa AI, gaano man ito kalayo, hindi maaaring ganap na balewalain. Maaaring kabilang dito ang isang AI na sumusunod sa mga layunin nito sa kapinsalaan ng kapakanan ng tao (ang klasikong halimbawa ay isang AI na, kung mali ang programa, ay gagawa ng mapanganib na bagay sa malaking sukat dahil kulang ito sa common-sense o moral na mga limitasyon).

Habang walang AI ngayon na may ganitong antas ng awtonomiya, ang bilis ng pag-unlad ng AI ay mabilis at hindi mahulaan, na isang panganib din.

Ang paghahanda para sa mga pangmatagalang panganib ay nangangahulugan ng pamumuhunan sa pananaliksik sa AI alignment (pagtitiyak na ang mga layunin ng AI ay nananatiling tugma sa mga halaga ng tao), pagtatatag ng mga internasyonal na kasunduan sa pananaliksik ng AI na may mataas na panganib (katulad ng mga kasunduan sa mga sandatang nuklear o biyolohikal), at pagpapanatili ng human oversight habang lumalawak ang kakayahan ng mga sistema ng AI.

Ang hinaharap ng AI ay may malaking pangako, ngunit may kasamang hindi tiyak na mga panganib – kaya't nararapat lamang na isaalang-alang natin ang kahit na mga mababang posibilidad ngunit mataas na epekto na panganib sa ating pangmatagalang pagpaplano.

Mga Panganib sa Pag-iral at Pangmatagalan sa AI
Mga Panganib sa Pag-iral at Pangmatagalan sa AI

Responsableng Paglalakbay sa Hinaharap ng AI

Madaling ihambing ang AI sa isang makapangyarihang makina na maaaring magtulak sa sangkatauhan pasulong – ngunit kung walang preno at manibela, maaaring lumihis ang makina sa tamang landas. Tulad ng nakita natin, ang mga panganib ng paggamit ng AI ay maraming aspeto: mula sa mga agarang isyu tulad ng mga may pagkiling na algorithm, pekeng balita, paglabag sa privacy, at kaguluhan sa trabaho, hanggang sa mas malalawak na hamon sa lipunan tulad ng mga banta sa seguridad, "black box" na paggawa ng desisyon, monopolyo ng Big Tech, pasanin sa kapaligiran, at maging ang malayong posibilidad ng pagkawala ng kontrol sa super-intelligent na AI.

Mahalagang Paalala: Hindi ibig sabihin ng mga panganib na ito na dapat itigil ang pag-unlad ng AI; sa halip, pinapakita nila ang agarang pangangailangan para sa responsableng pamamahala ng AI at mga etikal na gawain.

Ang mga gobyerno, internasyonal na organisasyon, mga lider ng industriya, at mga mananaliksik ay lalong nagtutulungan upang tugunan ang mga alalahaning ito – halimbawa, sa pamamagitan ng mga balangkas tulad ng:

  • U.S. NIST AI Risk Management Framework (upang mapabuti ang pagtitiwala sa AI)
  • UNESCO's global AI Ethics Recommendation
  • European Union's AI Act

Layunin ng mga pagsisikap na ito na mapakinabangan nang husto ang AI habang nababawasan ang mga negatibong epekto, na tinitiyak na ang AI ay nagsisilbi sa sangkatauhan at hindi ang kabaligtaran.

Ang Landas Pasulong

Ang pag-unawa sa mga panganib ng AI ang unang hakbang upang pamahalaan ang mga ito. Sa pamamagitan ng pagiging maalam at pakikilahok sa kung paano nade-develop at ginagamit ang AI, matutulungan nating gabayan ang makabagong teknolohiyang ito sa isang ligtas, patas, at kapaki-pakinabang na direksyon para sa lahat.

Tuklasin pa ang mga kaugnay na artikulo
135 articles
Rosie Ha is an author at Inviai, specializing in sharing knowledge and solutions about artificial intelligence. With experience in researching and applying AI across various fields such as business, content creation, and automation, Rosie Ha delivers articles that are clear, practical, and inspiring. Her mission is to help everyone effectively harness AI to boost productivity and expand creative potential.

Comments 0

Leave a Comment

No comments yet. Be the first to comment!

Search