Kanal

Foto Pentagon Meledak Viral, Bagaimana Mengenali Gambar Hasil AI?

Sebuah gambar menunjukkan ledakan besar di dekat Pentagon dibagikan di media sosial pada Senin (22/5/2023). Gambar yang ternyata palsu itu hasil kecerdasan buatan alias artificial intelligence (AI) dan sempat memicu penurunan singkat di pasar saham. Bagaimana cara mengenali hasil AI?

Gambar ini sempat menjadi viral dalam beberapa menit. Apalagi banyak akun media sosial termasuk beberapa akun terverifikasi membagikan gambar palsu itu sehingga semakin menambah kepanikan dan kebingungan. Selama 10 menit perdagangan pasar saham terimbas negatif.

Mungkin anda suka

Mengutip Channel News Asia, pasar saham ketika itu sempat terkoreksi dengan S&P 500 tersandung 0,29 persen dibandingkan dengan penutupan Jumat sebelum kemudian pulih kembali. “Ada kemungkinan penurunan terkait dengan berita palsu ini karena mesin (perdagangan) menangkapnya, tetapi saya akan menyampaikan bahwa cakupan penurunan tidak sesuai dengan sifat berita palsu yang tampaknya buruk,” kata Pat O’Hare dari Briefing.com.

Dua tweet dikirim pada pukul 10.09 waktu setempat pada hari Senin berhasil mengumpulkan lebih dari setengah juta tampilan hanya dalam beberapa jam. Gambar yang diduga banyak pengamat berasal dari AI yang disebarkan oleh beberapa akun itu, memaksa Pentagon berkomentar bahwa tidak ada ledakan seperti itu.

“Kami dapat mengonfirmasi bahwa ini adalah laporan palsu dan Pentagon tidak diserang hari ini,” kata juru bicara Pentagon. Departemen pemadam kebakaran Arlington, Virginia juga bereaksi, memposting di media sosial bahwa tidak ada ledakan atau insiden yang terjadi di atau dekat Pentagon.

Insiden itu mengikuti kemunculan gambar palsu lainnya yang juga membuat desas-desus baru-baru ini di internet, termasuk penangkapan mantan presiden AS Donald Trump dan Paus Francis dengan jaket puffer. Unggahan dengan klaim ini membagikan gambar seperti kepulan asap di dekat bangunan berpagar putih. Konten ini tampaknya dihasilkan oleh AI.

Tanda-tanda gambar palsu

Detektif media sosial, termasuk Nick Waters dari Bellingcat, grup verifikasi berita online, dengan cepat menunjukkan beberapa masalah penting dalam gambar tersebut. Di antaranya, tidak ada saksi langsung lain yang menguatkan peristiwa tersebut, apalagi di kawasan ramai seperti Pentagon. “Inilah mengapa sangat sulit (menurut saya secara efektif tidak mungkin) untuk membuat acara palsu yang dapat dipercaya,” cuit Waters.

Alasan lainnya, katanya adalah bentuk bangunan itu sendiri terlihat sangat berbeda dari Pentagon. Bangunan dalam gambar yang dibagikan secara online berwarna putih dan memperlihatkan struktur segitiga di atapnya. Ini tidak cocok dengan gambar dari lima fasad gedung Pentagon dalam bentuk atau warna, seperti gambar yang tersedia di Google Street View, menurut pemeriksaan fakta Reuters.

Detail lainnya termasuk tiang lampu mengambang yang tampak aneh dan tiang hitam yang menonjol dari trotoar adalah petunjuk lain bahwa gambar itu tidak seperti yang terlihat. Kecerdasan buatan masih kesulitan membuat ulang lokasi tanpa memperkenalkan artefak acak.

Tweet paling awal yang ditemukan oleh AFP yang membagikan gambar Pentagon berasal dari akun yang mempromosikan QAnon yang sebelumnya telah membagikan disinformasi, meskipun sumber asli gambar tersebut tidak diketahui.

Teknologi AI generatif yang muncul memudahkan non-spesialis untuk membuat gambar yang meyakinkan hanya dalam beberapa saat, alih-alih membutuhkan keahlian untuk menggunakan program seperti Photoshop.

Cara mengenali gambar buatan AI

Peristiwa ini memicu pembicaraan lebih lanjut bahwa AI generatif menimbulkan kekhawatiran tentang kemampuan menghasilkan informasi yang salah serta menyebabkan masalah bagi di masyarakat.  Ada banyak alat AI generatif seperti Midjourney, Dall-e 2, dan Stable Diffusion yang dapat membuat gambar seperti aslinya dengan sedikit usaha.

Alat-alat ini dilatih dengan melihat gambar nyata dalam volume besar tetapi mengisi celah dengan interpretasi mereka sendiri ketika data hilang. Hal ini dapat menyebabkan orang memiliki anggota tubuh ekstra dan objek yang berubah dengan lingkungannya.

Saat melihat gambar online yang konon menampilkan acara berita terbaru, ada baiknya Anda melakukan pengecekan terlebih dahulu dan jangan langsung begitu saja mempercainya. Ada beberapa cara yang bisa dilakukan mengutip Al Jazeera.

Misalnya berita tidak terjadi dalam ruang hampa. Dalam kasus ledakan besar atau peristiwa besar, Anda akan melihat masuknya laporan di lapangan dari orang yang berbeda dan sudut pandang yang berbeda. Jadi tak mungkin informasi atau gambar bersifat tunggal.

Pengecekan berikutnya adalah siapa yang mengunggah konten. Lihat riwayat kiriman akun pengguna dan dimanakah lokasi mereka? Lihatlah siapa yang mereka ikuti dan siapa yang mengikuti mereka. Dapatkah Anda menjangkau mereka atau berbicara dengan mereka?

Anda juga dapat menggunakan alat intelijen sumber terbuka. Alat pencarian gambar terbalik seperti Gambar Google dan TinEye memungkinkan mengunggah gambar dan menentukan di mana dan kapan gambar itu pertama kali digunakan. Ada beberapa alat lain yang dapat digunakan seperti melihat rekaman kamera lalu lintas publik (CCTV) langsung untuk memverifikasi bahwa suatu peristiwa sedang berlangsung.

Anda juga menganalisis gambar dan sekelilingnya. Cari petunjuk pada gambar seperti tempat lain yang terdekat, rambu jalan, dan bahkan kondisi cuaca untuk membantu mengetahui di mana atau kapan peristiwa yang diklaim dapat terjadi.

Cek pula tangan, mata, dan postur tubuh. Saat berurusan dengan gambar orang lain, berikan perhatian khusus pada mata, tangan, dan postur umum mereka. Video yang dibuat oleh AI yang meniru orang, yang dikenal sebagai deep fakes, cenderung mengalami masalah kedipan, karena sebagian besar kumpulan data tidak berisi wajah dengan mata tertutup. Tangan yang tidak menggenggam benda dengan benar atau anggota tubuh yang terlihat bengkok secara tidak wajar juga dapat membantu mengenali foto palsu.

Back to top button