
Meta mengumumkan Rabu (8 Nov) bahwa mereka akan mewajibkan label untuk iklan politik yang telah diubah secara digital, menggunakan AI atau teknologi lainnya, dengan cara yang dapat menyesatkan.
Pengumuman ini datang sehari setelah Microsoft mengumumkan juga mengambil sejumlah langkah untuk melindungi pemilihan, termasuk menawarkan alat untuk memberi air tanda AI-generated content dan menerapkan “Kampanye Tim Sukses” untuk memberi saran kepada kampanye politik tentang AI, keamanan siber, dan isu terkait lainnya.
Tahun depan akan menjadi tahun pemilihan paling signifikan sejak abad ini, dengan AS, India, Inggris, Meksiko, Indonesia, dan Taiwan semuanya akan menuju pemilihan umum. Meskipun banyak yang khawatir tentang dampak deepfakes dan informasi yang salah pada pemilihan, banyak ahli menekankan bukti untuk dampaknya pada pemilihan sejauh ini sangat terbatas pada yang terbaik. Ahli menyambut langkah-langkah yang diambil perusahaan teknologi untuk mempertahankan integritas pemilihan tetapi mengatakan perubahan sistem politik yang lebih mendasar diperlukan untuk menangani informasi yang salah.
Bagaimana AI dapat mempengaruhi pemilihan
Perusahaan teknologi telah menjadi sorotan setelah peran mereka dalam pemilihan sebelumnya. Laporan yang diterbitkan pada 2021 oleh kelompok advokasi online Avaaz menemukan bahwa dengan menunggu hingga bulan sebelum pemilihan presiden AS 2020 untuk mengubah algoritmanya, Meta mengizinkan informasi yang salah tersebar di platformnya. Meta juga dikritik karena mempromosikan konten yang mempertanyakan validitas pemilihan Brasil 2022 dan karena memperkuat konten yang mungkin telah berkontribusi terhadap pelanggaran hak asasi manusia yang dilakukan terhadap kelompok etnis Rohingya di Myanmar.
Dalam beberapa tahun terakhir, pengembangan AI telah maju dengan pesat. AI generatif—yang memungkinkan pengguna untuk menghasilkan teks, audio, dan video—muncul dari ketidakjelasan dengan rilis ChatGPT OpenAI pada November 2022.
AI generatif sudah digunakan beberapa kali dalam iklan politik AS, meskipun dalam setiap kasus dipahami bahwa AI telah digunakan. Pada April, Partai Republik merilis iklan AI-generated yang dimaksudkan untuk menunjukkan apa yang mungkin terjadi jika Presiden Joe Biden terpilih kembali. Pada Juni, akun kampanye X untuk Ron DeSantis, gubernur Republik Florida dan calon presiden, memposting video yang berisi gambar AI-generated dari mantan Presiden Donald Trump memeluk Dr. Anthony Fauci.
Namun, studi secara konsisten menemukan bahwa informasi yang salah belum secara terukur mengubah hasil pemilihan sebelumnya di AS, kata Andreas Jungherr, profesor ilmu politik di Universitas Bamberg di Jerman, yang mencatat akademisi dari disiplin lain, seperti studi media dan psikologi cenderung memberi lebih banyak kepercayaan pada dampak informasi yang salah pada pemilihan.
Misalnya, sebuah makalah yang diterbitkan di Nature pada 2023 tidak menemukan “bukti hubungan berarti antara paparan kampanye pengaruh asing Rusia [pada 2016] dan perubahan sikap, polarisasi, atau perilaku pemilihan.”
Seringkali orang melebih-lebihkan efek informasi yang salah karena mereka melebih-lebihkan baik seberapa mudahnya mengubah pandangan orang tentang isu-isu yang diperdebatkan seperti perilaku pemilihan dan seberapa mampu teknologi yang memungkinkan informasi yang salah seperti AI, kata Jungherr.
Meskipun kemungkinan bahwa sepotong informasi yang salah yang dihasilkan AI dapat mempengaruhi opini publik cukup untuk memengaruhi pemilihan sangat rendah, AI tetap dapat memiliki efek merusak pada pemilihan dan politik secara luas di masa depan, kata Elizabeth Seger, peneliti di Pusat Tata Kelola AI, organisasi penelitian berbasis di Inggris. Di masa depan, targetting yang sangat personal dengan bantuan AI serta agen AI yang sangat meyakinkan dapat digunakan untuk melakukan kampanye persuasi massal. Dan pada 2024, keberadaan deepfakes saja dapat mengikis kepercayaan masyarakat terhadap sumber informasi utama, kata Seger.
Ini sudah terjadi. Pada 2019, tuduhan bahwa video Ali Bongo, saat itu presiden Gabon, adalah palsu digunakan untuk membenarkan upaya kudeta. Kemudian pada tahun yang sama, dampak video menteri kabinet Malaysia diduga terlibat dalam tindakan seksual dengan asisten politik dineutralkan oleh klaim bahwa video tersebut diubah oleh AI.
“Risiko yang sering dilewatkan, yang jauh lebih mungkin terjadi dalam siklus pemilihan ini, bukanlah bahwa AI generatif akan digunakan untuk menghasilkan deepfakes yang menipu orang untuk percaya calon ini atau itu melakukan sesuatu yang buruk,” kata Seger. “Tapi bahwa keberadaan teknologi ini digunakan untuk mengikis nilai bukti dan mengikis kepercayaan terhadap aliran informasi utama.”
Perlindungan Pemilihan
Hingga saat ini, pemerintah telah mengambil langkah terbatas untuk memitigasi dampak AI pada pemilihan. Di AS, sebuah undang-undang diperkenalkan di Kongres pada Mei yang akan mewajibkan iklan politik yang menggunakan gambar atau video AI-generated untuk membawa pengakuan. Pada Agustus, Komisi Pemilihan Federal meminta masukan tentang apakah mereka harus mengubah peraturan yang melarang iklan politik dari menyesatkan calon lain atau partai politik untuk termasuk AI yang sengaja menyesatkan, tetapi belum mengambil tindakan.
Perusahaan teknologi, waspada akan kerusakan reputasi yang dialami Meta karena perannya dalam pemilihan 2020, mulai mengambil tindakan. Pada Juli, Gedung Putih mengamankan komitmen sukarela yang bertujuan untuk memastikan sistem AI aman dan terpercaya dari tujuh perusahaan AI terkemuka, termasuk Meta dan Microsoft. Salah satu komitmen adalah mengembangkan dan menerapkan teknik asal usul atau watermark untuk konten visual dan audio yang dihasilkan AI. Delapan perusahaan lagi menandatangani komitmen tersebut pada September.
Langkah Meta dan Microsoft minggu ini mengikuti pengumuman dari Alphabet, perusahaan induk Google dan YouTube, bahwa mereka akan mewajibkan pengungkapan yang terlihat pada iklan politik yang berisi konten yang disintesis secara tak alami yang menggambarkan orang atau acara yang nyata.
Arvind Narayanan dan Sayash Kapoor, profesor dan peneliti, masing-masing di Universitas Princeton, telah mengargumentasikan AI yang lebih mampu tidak akan memperburuk masalah informasi yang salah karena konten yang menyesatkan sudah relatif mudah diproduksi dan siapa pun yang ingin memproduksi konten tersebut.