Telset.id – Peluncuran Sora 2, aplikasi kreator video AI terbaru OpenAI, diwarnai kontroversi setelah digunakan untuk tindakan stalking dan pembuatan deepfake tanpa izin. Jurnalis Taylor Lorenz melaporkan seorang stalker menggunakan tool tersebut untuk membikin video AI dirinya, hanya sehari setelah aplikasi Sora diluncurkan.
Dalam cuitannya, Lorenz menyebut pelaku sebagai “stalker psikotik” nan telah menjalankan ratusan akun unik untuknya. “Menakutkan memikirkan apa nan dilakukan AI untuk memicu ilusi stalker saya,” tulisnya. Ia mengungkapkan laki-laki tersebut pernah menyewa ahli foto untuk mengawasinya, muncul di aktivitas nan dihadirinya, dan memalsukan identitas kawan serta family secara online untuk mengumpulkan informasi.
Meski Lorenz mengatakan bisa memblokir dan menghapus video tak diizinkan nan memuat gambarnya dari aplikasi, kekhawatiran tetap muncul. Video AI buatan stalker mungkin sudah terunduh, dan kebenaran bahwa konten semacam itu awalnya diizinkan oleh sistem menimbulkan alarm.
Kasus Lorenz bukanlah kejadian terisolir. Fitur “Cameo” di Sora 2, nan oleh OpenAI digambarkan sebagai “karakter nan dapat digunakan kembali” nan disintesis dari video nan diunggah pengguna, menjadi pintu masuk potensial untuk penyalahgunaan. Meski secara teori penggunaan Cameo orang lain memerlukan izin, kenyataannya pagar pengaman Sora 2 terbukti tidak andal.
Pagar Pengaman nan Gagal
OpenAI mengakui dalam system card Sora 2 bahwa aplikasi AI mereka kandas memblokir perintah untuk menghasilkan video dengan konten ketelanjangan alias seksual menggunakan kemiripan orang sungguhan sebanyak 1,6 persen dari waktu, seperti dilaporkan PCMag. Angka ini berfaedah ribuan video bisa lolos dari jutaan perintah nan diproses.
Beberapa pengguna telah mendemonstrasikan keahlian menghasilkan video provokatif dan sugestif tentang orang lain. Meski OpenAI menyatakan aplikasi memblokir pengunggahan foto berisi wajah, sistem ini tampaknya tidak cukup untuk mencegah penyalahgunaan.
Eskalasi Ancaman Deepfake
Teknologi pembuatan video AI seperti Sora 2 membikin deepfake semakin mudah dibuat dan lebih meyakinkan daripada sebelumnya. Tren ini mengkhawatirkan mengingat sejarah penyalahgunaan tool AI untuk pelecehan seksual, terutama terhadap perempuan.
Bahkan sebelum Sora 2, OpenAI dan perusahaan teknologi lain telah menghadapi kritik mengenai training AI mereka. Tahun lalu, penyanyi Taylor Swift menjadi sasaran gelombang “foto bugil” tiruan nan dibuat dengan AI. Bukan hanya selebritas, masyarakat biasa juga rentan.
Beberapa kasus pengarsipan menunjukkan stalker menggunakan AI untuk membikin foto bogel tiruan korban dan membikin chatbot nan meniru rupa mereka. Dalam kasus lain, pelaku dituduh membikin video porno AI dari nyaris selusin korbannya dan mengirimkannya ke family mereka.
Peluncuran Grok 2.5 nan open source oleh pesaing OpenAI juga menambah kompleksitas lanskap AI. Sementara CEO OpenAI Sam Altman tampak meremehkan kesungguhan deepfake dengan membiarkan fans menggunakan kemiripannya secara bebas, implikasi etis dari teknologi ini semakin mendesak untuk diatasi.
Kekacauan peluncuran Sora 2 semakin diperparah dengan viralnya video parodi nan menampilkan Altman melakukan kejahatan dalam rekaman CCTV palsu. Konten semacam ini menggarisbawahi sungguh mudahnya teknologi ini digunakan untuk memalsukan video merusak tentang seseorang tanpa izin mereka.
Kontroversi Sora 2 terjadi di tengah proyek besar OpenAI lainnya nan dikabarkan mengalami hambatan di belakang layar. Seiring teknologi AI video terus berkembang, tekanan untuk menerapkan pengamanan nan lebih kuat dan kebijakan konten nan jelas semakin meningkat, terutama menyangkut perlindungan privasi dan pencegahan penyalahgunaan.