Di era di mana penipu menggunakan kecerdasan buatan generatif untuk menipu uang atau merusak reputasi seseorang, perusahaan teknologi mengembangkan metode untuk membantu pengguna memverifikasi konten, setidaknya gambar diam. Seperti yang diumumkan dalam strategi misinformasi 2024-nya, OpenAI sekarang menyertakan metadata asal dalam gambar yang dihasilkan dengan ChatGPT di web dan DALL-E 3 API, dengan versi mobile mereka menerima upgrade yang sama pada tanggal 12 Februari.
Metadata ini mengikuti standar terbuka C2PA (Coalition for Content Provenance and Authenticity), dan ketika sebuah gambar diunggah ke alat Verifikasi Kredensial Konten, Anda akan dapat melacak garis keturunannya. Misalnya, sebuah gambar yang dihasilkan menggunakan ChatGPT akan menunjukkan manifest metadata awal yang menunjukkan asalnya dari DALL-E 3 API, diikuti dengan manifest metadata kedua yang menunjukkan bahwa gambar itu muncul di ChatGPT.
Meskipun ada teknologi kriptografi canggih di balik standar C2PA ini, metode verifikasi ini hanya berfungsi ketika metadata utuh; alat ini tidak berguna jika Anda mengunggah gambar yang dihasilkan oleh AI tanpa metadata, seperti halnya dengan tangkapan layar atau gambar yang diunggah di media sosial. Tidak mengherankan, sampel gambar saat ini di halaman resmi DALL-E 3 juga kembali kosong. Di halaman FAQ-nya, OpenAI mengakui bahwa ini bukanlah solusi instan untuk mengatasi perang misinformasi, tetapi mereka percaya bahwa kunci adalah mendorong pengguna untuk aktif mencari sinyal-sinyal semacam itu.
Sementara upaya terbaru OpenAI dalam memerangi konten palsu saat ini terbatas pada gambar diam, DeepMind milik Google sudah memiliki SynthID untuk memberi tanda air digital pada gambar dan audio yang dihasilkan oleh AI. Sementara itu, Meta telah menguji tanda air tidak terlihat melalui generator gambar AI-nya, yang mungkin kurang rentan terhadap pemalsuan.