Bagaimana AI Digunakan untuk Menyebarkan Informasi yang Salah—dan Melawannya—Selama Protes di L.A.

Los Angeles

(SeaPRwire) –   Saat para pengunjuk rasa turun ke jalan-jalan di Los Angeles County untuk memprotes penggerebekan Immigration and Customs Enforcement, informasi yang salah telah merajalela secara daring.

Protes tersebut, dan penyebaran pasukan Garda Nasional dan Marinir oleh Presiden Donald Trump sebagai tanggapan, adalah salah satu peristiwa berita kontroversial utama pertama yang terungkap di era baru di mana alat-alat AI telah tertanam dalam kehidupan daring. Dan ketika berita tersebut memicu perdebatan dan dialog sengit secara daring, alat-alat tersebut telah memainkan peran yang sangat besar dalam wacana tersebut. Pengguna media sosial telah menggunakan alat AI untuk membuat deepfake dan menyebarkan informasi yang salah—tetapi juga untuk memeriksa fakta dan membantah klaim palsu.

Berikut adalah bagaimana AI telah digunakan selama protes di L.A.

Deepfake

Gambar-gambar provokatif dan otentik dari protes telah menarik perhatian dunia minggu ini, termasuk seorang pengunjuk rasa yang mengibarkan bendera Meksiko dan seorang jurnalis yang terkena peluru karet oleh seorang petugas polisi. Pada saat yang sama, sejumlah kecil video palsu yang dihasilkan AI juga beredar.

Selama beberapa tahun terakhir, alat untuk membuat video ini telah meningkat pesat, memungkinkan pengguna untuk dengan cepat membuat deepfake yang meyakinkan dalam hitungan menit. Awal bulan ini, misalnya, OpenAI merilis demo alat teks-ke-video yang disebut Sora untuk menunjukkan bagaimana alat itu dapat digunakan untuk membuat video yang menyesatkan atau provokatif tentang peristiwa berita.

Di antara video yang telah beredar selama seminggu terakhir adalah video seorang tentara Garda Nasional bernama “Bob” yang merekam dirinya sendiri “bertugas” di Los Angeles dan bersiap untuk menyemprot pengunjuk rasa dengan gas. Video itu dilihat lebih dari 1 juta kali, menurut France 24, tetapi tampaknya telah dihapus dari TikTok. Ribuan orang meninggalkan komentar di video tersebut, berterima kasih kepada “Bob” atas pengabdiannya—tidak menyadari bahwa “Bob” tidak ada.

Banyak gambar menyesatkan lainnya telah beredar bukan karena AI, tetapi karena upaya yang jauh lebih berteknologi rendah. Senator Republik Ted Cruz dari Texas, misalnya, membagikan sebuah video di X yang awalnya dibagikan oleh aktor konservatif James Woods yang tampaknya menunjukkan protes kekerasan dengan mobil-mobil yang terbakar—tetapi itu adalah video lama dari tahun 2020. Dan gambar lain menunjukkan sebuah palet batu bata, yang diklaim oleh pengunggah akan digunakan oleh “militan Demokrat.” Tetapi foto itu berasal dari tahun 2018.

Pemeriksaan Fakta

Dalam kedua contoh itu, pengguna X membalas unggahan asli dengan menanyakan Grok, AI milik Elon Musk, apakah klaim itu benar. Grok telah menjadi sumber utama pemeriksaan fakta selama protes: Banyak pengguna X telah mengandalkannya dan model AI lainnya, kadang-kadang lebih dari jurnalis profesional, untuk memeriksa fakta klaim yang terkait dengan protes L.A., termasuk, misalnya, seberapa banyak penjarahan yang terjadi dari demonstrasi tersebut.

Grok membantah unggahan Cruz dan unggahan batu bata. Menanggapi senator Texas, AI itu menulis: “Rekaman itu kemungkinan diambil pada 30 Mei 2020…. Sementara video tersebut menunjukkan kekerasan, banyak protes yang damai, dan menggunakan rekaman lama hari ini dapat menyesatkan.” Menanggapi foto batu bata, ia menulis: “Foto batu bata berasal dari perusahaan pemasok bangunan Malaysia, sebagaimana dikonfirmasi oleh catatan komunitas dan sumber pemeriksa fakta seperti The Guardian dan PolitiFact. Itu disalahgunakan untuk secara keliru mengklaim bahwa organisasi yang didanai Soros menempatkan batu bata di dekat fasilitas ICE A.S. untuk protes.”

Tetapi Grok dan alat AI lainnya telah melakukan kesalahan, menjadikannya sumber berita yang kurang optimal. Grok secara keliru mengisyaratkan bahwa foto yang menggambarkan pasukan Garda Nasional tidur di lantai di L.A. yang dibagikan oleh Newsom adalah foto lama dari Afghanistan pada tahun 2021. ChatGPT mengatakan gambar itu palsu. Tuduhan ini diperkuat oleh influencer sayap kanan terkemuka seperti Laura Loomer. Kenyataannya, San Francisco Chronicle telah menerbitkan foto tersebut, setelah secara eksklusif mendapatkan gambar tersebut, dan telah memverifikasinya.

Grok kemudian mengoreksi dirinya sendiri dan meminta maaf.

“Saya dibuat untuk mengejar kebenaran, bukan menjual dongeng. Jika saya mengatakan foto-foto itu berasal dari Afghanistan, itu adalah kesalahan—data pelatihan saya adalah kekacauan liar dari potongan-potongan internet, dan kadang-kadang saya salah tembak,” kata Grok dalam sebuah unggahan di X, membalas sebuah unggahan tentang informasi yang salah.

“Lingkungan informasi yang disfungsional yang kita tinggali tidak diragukan lagi memperburuk kesulitan publik dalam menavigasi keadaan protes saat ini di LA dan tindakan pemerintah federal untuk mengerahkan personel militer untuk memadamkannya,” kata Kate Ruane, direktur Program Ekspresi Bebas di Center for Democracy and Technology.

Nina Brown, seorang profesor di Newhouse School of Public Communications di Syracuse University, mengatakan bahwa “sangat mengganggu” jika orang mengandalkan AI untuk memeriksa fakta informasi, alih-alih beralih ke sumber terpercaya seperti jurnalis, karena AI “bukan sumber yang andal untuk informasi apa pun saat ini.”

“Ia memiliki banyak kegunaan luar biasa, dan semakin akurat dari menit ke menit, tetapi ia sama sekali bukan pengganti pemeriksa fakta sejati,” kata Brown. “Peran yang dimainkan oleh jurnalis dan media adalah menjadi mata dan telinga bagi publik tentang apa yang terjadi di sekitar kita, dan menjadi sumber informasi yang andal. Jadi, sangat mengganggu saya bahwa orang akan mencari alat AI generatif alih-alih apa yang dikomunikasikan oleh jurnalis di lapangan.”

Brown mengatakan dia semakin khawatir tentang bagaimana informasi yang salah akan menyebar di era AI.

“Saya lebih khawatir karena kombinasi dari kesediaan orang untuk mempercayai apa yang mereka lihat tanpa penyelidikan—menganggapnya sebagai nilai nominal—dan kemajuan luar biasa dalam AI yang memungkinkan pengguna awam untuk membuat video yang sangat realistis yang, pada kenyataannya, menipu; yaitu deepfake, yang tidak nyata,” kata Brown.

Artikel ini disediakan oleh penyedia konten pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberikan jaminan atau pernyataan sehubungan dengan hal tersebut.

Sektor: Top Story, Daily News

SeaPRwire menyediakan distribusi siaran pers real-time untuk perusahaan dan lembaga, menjangkau lebih dari 6.500 toko media, 86.000 editor dan jurnalis, dan 3,5 juta desktop profesional di 90 negara. SeaPRwire mendukung distribusi siaran pers dalam bahasa Inggris, Korea, Jepang, Arab, Cina Sederhana, Cina Tradisional, Vietnam, Thailand, Indonesia, Melayu, Jerman, Rusia, Prancis, Spanyol, Portugis dan bahasa lainnya. 

“`

Next Post

10 winners selected at 8th edition of Start-up Express

Jum Jun 13 , 2025
– On the Final Pitching Day of Start-up Express, 10 winners were selected, with xxx and AniTech Limited receiving the ESG Award and the My Favourite Start-up Award respectively– More than 200 industry players attended, helping start-ups to establish connections and increase exposure, and continue to promote Hong Kong’s entrepreneurial ecosystem– Majority […]