Bahaya dan Resiko Kecerdasan Buatan
Bahaya dan Resiko Kecerdasan Buatan – Seiring dengan semakin canggih dan meluasnya AI, suara-suara peringatan akan potensi bahaya kecerdasan buatan semakin nyaring. “Hal-hal ini mungkin lebih pintar dari kita dan memutuskan untuk mengambil kendali, dan sekarang kita harus khawatir tentang bagaimana mencegah hal itu terjadi,” kata Geoffrey Hinton, yang dikenal sebagai “The Godfather of AI” untuk karyanya terutama dalam pembelajaran mesin dan algoritma jaringan saraf.
Bahaya dan Resiko Kecerdasan Buatan
gramorokkaz – Pada tahun 2023, Hinton meninggalkan pekerjaannya di Google agar dia dapat “berbicara tentang bahaya AI”, dan menyatakan bahwa beberapa dari dia bahkan menyesali pekerjaan seumur hidupnya.
Ilmuwan komputer terkenal bukan satu-satunya yang memiliki kekhawatirannya.
Pendiri Tesla dan SpaceX, Elon Musk, serta lebih dari 1.000 pemimpin teknologi lainnya, menyerukan dalam surat terbuka tahun 2023 untuk menghentikan sementara eksperimen AI skala besar, dengan alasan bahwa teknologi tersebut “dapat menimbulkan risiko serius bagi masyarakat dan kemanusiaan.”
Ini terkait dengan meningkatnya otomatisasi pekerjaan tertentu, algoritme gender dan ras, atau senjata otonom yang beroperasi tanpa pengawasan manusia (dan beberapa di antaranya), kecemasan mewabah di banyak bidang. Dan kita masih dalam tahap awal mengenai kemampuan AI sebenarnya.
Bahaya Kecerdasan Buatan
Pertanyaan tentang siapa yang mengembangkan AI dan untuk tujuan apa menjadikan pemahaman potensi kelemahannya semakin penting. Di bawah ini, kita akan melihat lebih dekat potensi risiko kecerdasan buatan dan mengeksplorasi cara mengelola risiko tersebut.
1. Kurangnya Transparansi dan Penjelasan AI
Model AI dan pembelajaran mendalam mungkin sulit dipahami, bahkan bagi mereka yang bekerja langsung dengan teknologi tersebut. Hal ini menyebabkan kurangnya transparansi tentang bagaimana dan mengapa AI mencapai kesimpulannya, sehingga menimbulkan kurangnya penjelasan tentang data apa yang digunakan algoritma AI, atau mengapa AI dapat membuat keputusan yang bias atau berisiko. Kekhawatiran ini telah mendorong penggunaan AI yang dapat dijelaskan, namun masih ada jalan panjang sebelum sistem AI yang transparan menjadi praktik umum.
Lebih buruk lagi, perusahaan AI tetap bungkam mengenai produk mereka. Mantan karyawan OpenAI dan Google DeepMind menuduh kedua perusahaan tersebut menyembunyikan potensi bahaya dari alat AI mereka. Kerahasiaan ini membuat masyarakat umum tidak menyadari potensi ancaman dan menyulitkan pembuat undang-undang untuk mengambil langkah proaktif guna memastikan pengembangan AI yang bertanggung jawab.
2. Hilangnya pekerjaan karena otomatisasi AI
Otomatisasi pekerjaan berbasis AI menjadi perhatian mendesak karena teknologi ini diadopsi di industri seperti pemasaran, manufaktur, dan kesehatan. Pada tahun 2030, menurut McKinsey, pekerjaan yang mencakup hingga 30% dari jam kerja yang saat ini dilakukan di perekonomian AS dapat diotomatisasi – dengan pekerja kulit hitam dan Hispanik sangat rentan terhadap perubahan ini. Goldman Sachs juga mengatakan bahwa 300 juta pekerjaan penuh waktu bisa hilang karena otomatisasi AI.
“Alasan rendahnya tingkat pengangguran kita, yang tidak mencakup orang-orang yang tidak mencari pekerjaan, sebagian besar karena pekerjaan berupah rendah di sektor jasa sebagian besar diciptakan oleh perekonomian ini,” jelas futurolog Martin. . Ford mengatakan kepada Built In, dengan munculnya AI, “Saya rasa hal ini tidak akan berlanjut.”
Baca juga : Teknologi Sains Forensik Baru (2024)
3. Manipulasi sosial berkat algoritme AI
Manipulasi sosial juga merupakan risiko bagi kecerdasan buatan. Ketakutan ini menjadi kenyataan ketika para politisi mengandalkan platform tersebut untuk mempromosikan pandangan mereka, seperti Ferdinand Marcos, Jr., yang menggunakan pasukan troll TikTok untuk menarik suara kaum muda Filipina selama Pemilihan Umum Filipina 2022 .
TikTok yang merupakan contoh platform media sosial yang mengandalkan algoritma AI, mengisi feed pengguna dengan konten yang terkait dengan media sebelumnya yang mereka lihat di platform tersebut. Kritik terhadap aplikasi ini menargetkan proses ini dan ketidakmampuan algoritme untuk menyaring konten berbahaya dan tidak akurat, sehingga meningkatkan kekhawatiran tentang kemampuan TikTok dalam melindungi penggunanya dari informasi yang menyesatkan.
4. Pengawasan sosial dengan teknologi AI
Selain ancaman yang lebih nyata, Ford berfokus pada bagaimana AI akan berdampak buruk pada privasi dan keamanan. Contoh yang baik adalah penggunaan teknologi pengenalan wajah dari Tiongkok di kantor, sekolah, dan tempat lainnya. Selain melacak pergerakan seseorang, pemerintah Tiongkok mungkin dapat mengumpulkan cukup data untuk memantau aktivitas, hubungan, dan opini politik seseorang.
Contoh lainnya adalah departemen kepolisian AS yang menggunakan algoritma kepolisian prediktif untuk memprediksi di mana kejahatan akan terjadi. Masalahnya adalah algoritma ini dipengaruhi oleh tingkat penangkapan, yang secara tidak proporsional berdampak pada komunitas kulit hitam. Departemen kepolisian kemudian melakukan tindakan ganda terhadap komunitas-komunitas ini, yang mengarah pada pengawasan berlebihan dan pertanyaan tentang apakah negara-negara yang mengaku sebagai negara demokrasi dapat menahan diri untuk menjadikan AI sebagai senjata otoriter.
5. Kurangnya privasi data dengan alat kecerdasan buatan
Survei AvePoint 2024 menemukan bahwa kekhawatiran nomor satu bagi bisnis adalah privasi dan keamanan data. Dan perusahaan mungkin punya alasan kuat untuk ragu, mengingat banyaknya data yang berpusat pada alat AI dan kurangnya peraturan seputar informasi ini.
Sistem AI sering kali mengumpulkan data pribadi untuk mempersonalisasi pengalaman pengguna atau untuk membantu melatih model AI yang Anda gunakan (terutama jika alat AI gratis). Data juga tidak dapat dianggap dilindungi dari pengguna lain ketika diberikan ke sistem AI, karena insiden bug dengan ChatGPT pada tahun 2023 “memungkinkan beberapa pengguna melihat rangkaian riwayat diskusi pengguna aktif lainnya. Meskipun ada undang-undang yang berlaku untuk melindungi informasi pribadi dalam beberapa kasus di Amerika Serikat, tidak ada undang-undang federal yang secara eksplisit melindungi warga negara dari pelanggaran privasi data yang disebabkan oleh AI.
6. Bias AI
Bentuk berbagai jenis bias AI juga berbahaya Berbicara kepada New York Times , Olga Russakovsky, seorang profesor ilmu komputer di Princeton, mengatakan bahwa bias dalam AI jauh melampaui gender dan ras sehingga bias dapat “memperkuat” ras dan gender).
“Peneliti AI sebagian besar adalah laki-laki, dari demografi ras tertentu, dibesarkan di daerah sosial ekonomi tinggi, kebanyakan adalah orang-orang tanpa disabilitas,” kata Russakovsky. “Kita adalah populasi yang cukup homogen, sehingga merupakan sebuah tantangan untuk berpikir secara global mengenai masalah-masalah global.”
7. Ketimpangan Sosial-Ekonomi Akibat AI
Jika perusahaan menolak untuk mengakui prasangka yang melekat dalam algoritma AI, hal ini dapat melemahkan algoritma AI. inisiatif DEI mereka melalui rekrutmen berbasis AI Gagasan bahwa AI dapat menilai karakteristik kandidat melalui analisis wajah dan suara masih dinodai oleh bias rasial, yang mereplikasi praktik perekrutan diskriminatif yang sama yang diklaim ingin dihilangkan oleh perusahaan.
Baca juga : Swarovski CEO Analyzes America’s Unique Tastes
8. Melemahnya etika dan itikad baik akibat AI
Bersama para ahli teknologi, jurnalis, dan politisi, bahkan para pemimpin agama pun menyuarakan kewaspadaan mengenai potensi bahaya AI. Dalam KTT Vatikan tahun 2023 dan pesan Hari Perdamaian Sedunia tahun 2024, Paus Fransiskus meminta negara-negara untuk membuat dan mengadopsi perjanjian internasional yang mengikat yang mengatur pengembangan dan penggunaan AI.
Paus Fransiskus memperingatkan potensi penyalahgunaan AI dan “pernyataan yang tampak masuk akal di permukaan tetapi tidak berdasar atau menunjukkan prasangka.” Dia menekankan bahwa hal ini dapat meningkatkan kampanye disinformasi, ketidakpercayaan terhadap media, campur tangan dalam pemilu, dan lain-lain, sehingga meningkatkan risiko “menyebabkan konflik dan menghambat perdamaian.”