Kecerdasan Buatan (AI) merujuk pada sistem komputer yang meniru kecerdasan manusia – misalnya, program yang dapat mengenali gambar, memahami bahasa, atau mengambil keputusan. Dalam kehidupan sehari-hari, AI menggerakkan alat seperti asisten suara di ponsel pintar, sistem rekomendasi di media sosial, dan bahkan chatbot canggih yang menulis teks.
AI memiliki potensi besar untuk meningkatkan banyak bidang, namun juga menimbulkan berbagai kekhawatiran.
Jadi, apakah AI berbahaya? Artikel ini akan membahas kedua sisi: manfaat nyata yang dibawa AI dan bahaya yang diwaspadai para ahli.
Manfaat Nyata AI di Dunia Nyata
Gambar: Ilustrasi ramah tentang robot dan manusia yang bekerja sama melambangkan AI membantu manusia. AI sudah terintegrasi dalam banyak aplikasi yang bermanfaat.
Misalnya, UNESCO mencatat AI “telah menciptakan banyak peluang” di seluruh dunia – mulai dari diagnosis medis yang lebih cepat hingga konektivitas yang lebih baik melalui media sosial dan otomatisasi tugas-tugas membosankan.
Uni Eropa juga menyoroti bahwa “AI yang dapat dipercaya dapat membawa banyak manfaat” seperti pelayanan kesehatan yang lebih baik, transportasi yang lebih aman, dan industri serta penggunaan energi yang lebih efisien. Dalam bidang medis, Organisasi Kesehatan Dunia melaporkan bahwa AI digunakan untuk diagnosis, pengembangan obat, dan respons wabah, mendorong negara-negara untuk mendukung inovasi ini bagi semua orang.
Para ekonom bahkan membandingkan penyebaran AI yang cepat dengan revolusi teknologi sebelumnya.
Misalnya, pemerintah AS menekankan bahwa “AI memiliki potensi luar biasa baik untuk janji maupun bahaya,” artinya kita harus memanfaatkan kekuatan AI untuk menyelesaikan masalah seperti perubahan iklim atau penyakit, sambil tetap waspada terhadap risikonya.
Manfaat utama AI meliputi:
- Peningkatan pelayanan kesehatan: Sistem AI dapat menganalisis sinar-X, MRI, dan data pasien lebih cepat daripada manusia, membantu deteksi dini penyakit dan pengobatan yang dipersonalisasi. Misalnya, pencitraan berbantuan AI dapat menemukan tumor yang mungkin terlewat oleh dokter.
- Efisiensi yang lebih tinggi: Proses otomatis di pabrik, kantor, dan layanan meningkatkan produktivitas. Seperti yang dicatat oleh UE, otomatisasi berbasis AI menghasilkan “manufaktur yang lebih efisien” dan bahkan jaringan energi yang lebih cerdas.
Robot dan perangkat lunak menangani tugas berulang sehingga manusia dapat fokus pada pekerjaan kreatif atau kompleks. - Transportasi dan layanan yang lebih aman: Teknologi mobil swakemudi dan AI pengelola lalu lintas bertujuan mengurangi kecelakaan dan kemacetan. AI cerdas juga dapat meningkatkan sistem peringatan bencana dan mengoptimalkan logistik, membuat perjalanan dan pengiriman lebih aman.
- Bantuan ilmiah dan lingkungan: Para peneliti menggunakan AI untuk mengolah model iklim dan data genetik. Ini membantu mengatasi masalah besar seperti perubahan iklim: UNESCO melaporkan bahwa bahkan perubahan kecil dalam desain AI dapat mengurangi penggunaan energi secara drastis, menjadikannya alat yang lebih berkelanjutan untuk iklim.
- Pendidikan dan aksesibilitas: Tutor berbasis AI dapat mempersonalisasi pembelajaran untuk setiap siswa, dan alat pengenalan suara atau terjemahan membantu penyandang disabilitas. Britannica mencatat AI bahkan “membantu kelompok terpinggirkan dengan menyediakan aksesibilitas” (misalnya asisten baca untuk tunanetra).
Contoh-contoh ini menunjukkan bahwa AI bukan sekadar fiksi ilmiah – AI sudah memberikan nilai nyata hari ini.
Risiko dan Bahaya Potensial AI
Gambar: Seni jalanan dengan kata “Robot” memperingatkan efek tak terduga AI. Meski menjanjikan, banyak ahli memperingatkan bahwa AI bisa berbahaya jika disalahgunakan atau tidak diawasi. Kekhawatiran utama adalah bias dan diskriminasi. Karena AI belajar dari data yang ada, ia dapat mewarisi prasangka manusia.
UNESCO memperingatkan bahwa tanpa etika yang ketat, AI “berisiko mereproduksi bias dan diskriminasi dunia nyata, memicu perpecahan dan mengancam hak asasi manusia dan kebebasan fundamental”. Memang, studi menunjukkan pengenalan wajah sering salah mengidentifikasi perempuan atau orang berkulit warna, dan algoritma perekrutan dapat memihak jenis kelamin tertentu.
Britannica juga mencatat AI dapat “merugikan minoritas rasial dengan mengulang dan memperparah rasisme”.
Bahaya lain meliputi:
-
Privasi dan pengawasan: Sistem AI sering membutuhkan data pribadi dalam jumlah besar (posting media sosial, rekam medis, dll.). Ini meningkatkan risiko penyalahgunaan. Jika pemerintah atau perusahaan menggunakan AI untuk menganalisis data Anda tanpa izin, hal ini dapat menyebabkan pengawasan yang invasif.
Britannica memperingatkan “risiko privasi yang berbahaya” dari AI. Misalnya, penggunaan kontroversial AI yang disebut penilaian kredit sosial – di mana warga dinilai oleh algoritma – telah dilarang oleh UE sebagai praktik yang “tidak dapat diterima”.
Bahkan chatbot terkenal pun memicu kekhawatiran: pada 2023 Italia sempat memblokir ChatGPT sementara karena masalah privasi data. -
Informasi palsu dan deepfake: AI dapat menghasilkan teks, gambar, atau video palsu yang sangat realistis. Ini memudahkan pembuatan deepfake – video selebriti palsu atau laporan berita bohong.
Britannica menunjukkan AI dapat menyebarkan “misinformasi yang dipolitisasi, bahkan berbahaya”. Para ahli memperingatkan bahwa palsu semacam itu bisa digunakan untuk memanipulasi pemilu atau opini publik.
Dalam satu insiden, gambar AI yang menampilkan pemimpin dunia dengan judul berita palsu menjadi viral sebelum dibantah. Para ilmuwan mencatat tanpa regulasi, misinformasi berbasis AI bisa meningkat (misalnya, pidato palsu atau gambar yang diedit yang belum siap diatur oleh hukum saat ini). -
Hilangnya pekerjaan dan gangguan ekonomi: Dengan mengotomatisasi tugas, AI akan mengubah dunia kerja. Dana Moneter Internasional melaporkan sekitar 40% pekerjaan global (dan 60% di negara maju) berisiko terkena otomatisasi AI. Ini tidak hanya pekerjaan pabrik tapi juga pekerjaan kelas menengah seperti akuntansi atau penulisan.
Meski AI bisa meningkatkan produktivitas (yang pada akhirnya menaikkan upah), banyak pekerja mungkin perlu pelatihan baru atau menghadapi pengangguran dalam jangka pendek.
Para pemimpin teknologi mengakui kekhawatiran ini: CEO Microsoft bahkan mengatakan AI bisa tiba-tiba menggantikan profesional terampil. -
Keamanan dan penyalahgunaan: Seperti teknologi lain, AI bisa digunakan untuk tujuan jahat. Penjahat siber sudah memakai AI untuk membuat email phishing yang meyakinkan atau memindai sistem mencari celah keamanan.
Para ahli militer khawatir tentang senjata otonom: drone atau robot yang memilih target tanpa persetujuan manusia.
Laporan terbaru dari peneliti AI secara eksplisit memperingatkan bahwa kita belum memiliki institusi untuk menghentikan “aktor sembrono... yang mungkin menggunakan atau mengembangkan kemampuan dengan cara berbahaya”, seperti sistem serangan otonom.
Dengan kata lain, sistem AI yang mengendalikan fisik (seperti senjata) bisa sangat berbahaya jika rusak atau diprogram dengan niat jahat. -
Hilangnya kendali manusia: Beberapa pemikir menunjukkan bahwa jika AI menjadi jauh lebih kuat dari sekarang, ia mungkin bertindak dengan cara yang tidak terduga. Meski AI saat ini tidak sadar atau memiliki kesadaran diri, AI umum masa depan (AGI) berpotensi mengejar tujuan yang tidak selaras dengan nilai manusia.
Para ilmuwan AI terkemuka baru-baru ini memperingatkan bahwa “sistem AI generalis yang sangat kuat” mungkin muncul dalam waktu dekat jika kita tidak bersiap.
Pemenang Nobel Geoffrey Hinton dan ahli lain bahkan menggambarkan risiko meningkat bahwa AI bisa membahayakan umat manusia jika AI canggih tidak diselaraskan dengan kebutuhan kita. Meskipun risiko ini belum pasti, hal ini memicu seruan berhati-hati yang tinggi profil. -
Dampak energi dan lingkungan: Pelatihan dan pengoperasian model AI besar mengonsumsi banyak listrik. UNESCO melaporkan penggunaan energi tahunan AI generatif kini setara dengan negara kecil di Afrika – dan terus meningkat pesat.
Ini bisa memperburuk perubahan iklim kecuali kita menggunakan metode yang lebih ramah lingkungan.
Kabar baiknya, para peneliti menemukan solusi: satu studi UNESCO menunjukkan bahwa menggunakan model yang lebih kecil dan efisien untuk tugas tertentu dapat mengurangi penggunaan energi AI hingga 90% tanpa mengorbankan akurasi.
Singkatnya, bahaya nyata AI hari ini sebagian besar berasal dari bagaimana manusia menggunakannya. Jika AI dikelola dengan hati-hati, manfaatnya (kesehatan, kenyamanan, keselamatan) sangat besar.
Tetapi jika dibiarkan tanpa pengawasan, AI bisa memicu bias, kejahatan, dan kecelakaan.
Benang merah dari bahaya ini adalah kurangnya kontrol atau pengawasan: alat AI sangat kuat dan cepat, sehingga kesalahan atau penyalahgunaan bisa terjadi dalam skala besar tanpa intervensi.
Apa Kata Para Ahli dan Pejabat
Mengingat isu-isu ini, banyak pemimpin dan peneliti telah angkat bicara. Sebuah konsensus besar para ahli AI terbentuk dalam beberapa tahun terakhir.
Pada 2024, sekelompok 25 ilmuwan AI terkemuka (dari Oxford, Berkeley, pemenang Penghargaan Turing, dll.) menerbitkan pernyataan konsensus yang mendesak tindakan segera.
Mereka memperingatkan pemerintah dunia untuk bersiap sekarang: “jika kita meremehkan risiko AI, konsekuensinya bisa bencana,” dan mereka mendesak pendanaan riset keselamatan AI serta pembentukan badan pengatur untuk mengawasi AI yang kuat.
Mereka menekankan bahwa pengembangan AI selama ini berjalan cepat “dengan keselamatan sebagai pemikiran terakhir,” dan saat ini kita belum memiliki institusi untuk mencegah aplikasi nakal.
Para pemimpin teknologi menggemakan peringatan ini. CEO OpenAI Sam Altman – perusahaan yang menciptakan ChatGPT – mengatakan kepada The New York Times bahwa membangun AI canggih seperti “Proyek Manhattan” untuk era digital.
Dia mengakui alat yang sama yang bisa menulis esai atau kode dapat juga menyebabkan “penyalahgunaan, kecelakaan besar, dan gangguan sosial” jika tidak ditangani dengan hati-hati.
Pada akhir 2023, lebih dari 1.000 profesional AI (termasuk Elon Musk, salah satu pendiri Apple Steve Wozniak, dan banyak peneliti AI) menandatangani surat terbuka yang menyerukan penundaan pelatihan model AI generasi berikutnya.
Mereka memperingatkan kita sedang dalam “perlombaan yang tak terkendali” untuk membangun AI yang lebih kuat yang bahkan penciptanya “tidak bisa memahami, memprediksi, atau mengendalikan secara andal”.
Dalam forum publik, para ahli menekankan risiko spesifik. CEO Google DeepMind Demis Hassabis berpendapat bahwa ancaman terbesar bukanlah pengangguran tapi penyalahgunaan: penjahat siber atau negara nakal yang menggunakan AI untuk merugikan masyarakat.
Dia menunjukkan bahwa sangat cepat AI bisa menyamai atau melampaui kecerdasan manusia, dan “aktor jahat bisa menggunakan teknologi yang sama untuk tujuan berbahaya”.
Dengan kata lain, meskipun kita mengelola kehilangan pekerjaan, kita harus mencegah alat AI jatuh ke tangan yang salah.
Pemerintah dan badan internasional mulai memperhatikan. Gedung Putih (AS) mengeluarkan Perintah Eksekutif pada 2023 yang menyatakan AI “memiliki potensi luar biasa baik untuk janji maupun bahaya” dan menyerukan “penggunaan AI yang bertanggung jawab” melalui upaya masyarakat luas untuk mengurangi risiko besar tersebut.
Uni Eropa mengesahkan Undang-Undang AI pertama di dunia (berlaku 2024), melarang praktik berbahaya seperti penilaian sosial pemerintah dan mewajibkan pengujian ketat untuk AI berisiko tinggi (di bidang kesehatan, penegakan hukum, dll.).
UNESCO (agensi PBB untuk pendidikan dan budaya) menerbitkan rekomendasi etika AI global yang mendorong keadilan, transparansi, dan perlindungan hak asasi manusia dalam AI.
Bahkan organisasi kebijakan sains seperti NIST (Institut Standar Nasional AS) telah merilis Kerangka Manajemen Risiko AI untuk membimbing perusahaan dalam membangun AI yang dapat dipercaya.
Semua suara ini sepakat pada satu hal: AI tidak akan berhenti dengan sendirinya. Kita harus mengembangkan pengaman. Ini melibatkan perbaikan teknis (audit bias, pengujian keamanan) dan undang-undang atau badan pengawas baru.
Misalnya, legislator di seluruh dunia sedang mempertimbangkan dewan keselamatan AI, mirip dengan yang ada untuk teknologi nuklir.
Tujuannya bukan menghentikan inovasi, tapi memastikan inovasi berjalan sesuai pedoman yang hati-hati.
Pengaman dan Regulasi
Beruntung, banyak solusi sudah diterapkan. Ide utamanya adalah “keselamatan AI sejak desain”. Perusahaan semakin banyak memasukkan aturan etika dalam pengembangan AI.
Misalnya, laboratorium AI menguji model untuk bias sebelum dirilis dan menambahkan filter konten untuk mencegah keluaran yang eksplisit atau salah. Pemerintah dan institusi mulai mengkodifikasi hal ini.
Undang-Undang AI UE, misalnya, melarang beberapa penggunaan berbahaya secara tegas dan mengklasifikasikan penggunaan lain sebagai “berisiko tinggi” (harus diaudit).
Demikian pula, kerangka etika AI UNESCO menyerukan langkah-langkah seperti audit keadilan, perlindungan keamanan siber, dan proses pengaduan yang mudah diakses.
Secara praktis, badan pembuat standar mengeluarkan pedoman.
Kerangka kerja NIST AS yang kami sebutkan menyediakan standar sukarela bagi organisasi untuk menilai dan mengurangi risiko AI.
Di tingkat internasional, kelompok seperti OECD dan PBB sedang mengerjakan prinsip-prinsip AI (banyak negara telah menandatanganinya).
Bahkan perusahaan dan universitas membentuk institut keselamatan AI dan koalisi untuk meneliti risiko jangka panjang.
Selain itu, banyak regulasi saat ini menangani kerugian spesifik.
Misalnya, undang-undang perlindungan konsumen mulai diterapkan pada AI.
Dokumen internal Meta mengungkap chatbot AI yang menggoda anak-anak, yang memicu kemarahan regulator (alat Meta tidak diizinkan di bawah undang-undang perlindungan anak yang ada).
Otoritas sedang berupaya memperbarui undang-undang tentang ujaran kebencian, hak cipta, dan privasi agar mencakup konten yang dihasilkan AI.
Seperti yang dicatat seorang ahli Selandia Baru, banyak undang-undang saat ini “tidak dirancang dengan AI generatif dalam pikiran,” sehingga legislator sedang mengejar ketertinggalan.
Tren keseluruhan jelas: AI diperlakukan serupa dengan teknologi penggunaan ganda lainnya.
Seperti kita memiliki aturan lalu lintas untuk mobil atau standar keselamatan untuk bahan kimia, masyarakat mulai menciptakan pagar pengaman untuk AI.
Ini termasuk: riset berkelanjutan tentang risiko AI, kerja sama publik-swasta dalam keamanan, kampanye edukasi tentang deepfake, dan bahkan pemungutan suara yang menanyakan kepada warga seberapa banyak otonomi yang harus diberikan pada mesin.
>>>Pelajari lebih lanjut:
Jadi, apakah AI berbahaya? Jawabannya kompleks. AI tidak secara inheren jahat – ini adalah alat yang dibuat manusia.
Dalam berbagai bentuk praktisnya saat ini, AI telah membawa manfaat besar bagi bidang medis, pendidikan, industri, dan lainnya (seperti yang disorot oleh organisasi seperti UNESCO dan UE).
Pada saat yang sama, hampir semua orang sepakat AI bisa berbahaya jika kekuatannya disalahgunakan atau dibiarkan tanpa panduan.
Kekhawatiran umum meliputi pelanggaran privasi, bias, misinformasi, gangguan pekerjaan, dan risiko hipotetis kecerdasan super yang tak terkendali.
Generasi muda yang belajar tentang AI sebaiknya memahami kedua sisi. Bijaksana untuk menyadari bahaya nyata: misalnya, jangan pernah percaya AI secara membabi buta atau membagikan data pribadi tanpa hati-hati.
Namun juga penting melihat bahwa para ahli dan pemerintah aktif bekerja membuat AI lebih aman – dengan mengembangkan undang-undang (seperti Undang-Undang AI UE), pedoman (seperti rekomendasi etika UNESCO), dan teknologi (seperti deteksi bias) untuk mendeteksi masalah sejak dini.
Singkatnya, AI seperti teknologi kuat lainnya: dapat memberikan manfaat besar jika digunakan dengan bertanggung jawab, dan menimbulkan bahaya jika disalahgunakan.
Konsensus di antara ilmuwan dan pembuat kebijakan adalah bahwa kita tidak boleh menakut-nakuti atau mengabaikan AI, melainkan tetap terinformasi dan terlibat dalam membentuk masa depannya.
Dengan “pagar pengaman” yang tepat – pengembangan AI yang etis, regulasi yang kuat, dan kesadaran publik – kita dapat mengarahkan AI menuju keselamatan dan memastikan manfaatnya bagi umat manusia tanpa menjadi berbahaya.