Anthropic Vs Pemerintah As: Perang Etika Ai Dan Pengawasan Massal

Sedang Trending 2 hari yang lalu

Telset.id – Bayangkan jika sebuah perusahaan teknologi menolak permintaan pemerintah untuk menggunakan AI-nya dalam operasi pengawasan massal. Itulah nan sedang terjadi dengan Anthropic, perusahaan di kembali chatbot Claude, nan sekarang menjadi sorotan lantaran kebijakan etisnya nan keras. Dalam bumi di mana AI semakin sering digunakan untuk memantau warga, langkah Anthropic bukan hanya berani, tapi juga memicu pertanyaan besar: sejauh mana perusahaan teknologi kudu tunduk pada permintaan pemerintah?

Menurut laporan eksklusif dari Semafor, Anthropic secara tegas menolak penggunaan model AI-nya untuk tujuan pengawasan, penegakan norma nan bermasalah, alias aplikasi peradilan pidana. Kebijakan penggunaan mereka secara spesifik melarang penggunaan teknologi mereka untuk “membuat keputusan dalam aplikasi peradilan pidana,” “melacak letak fisik, keadaan emosional, alias komunikasi seseorang tanpa persetujuan mereka,” dan “menganalisis alias mengidentifikasi konten tertentu untuk disensor atas nama organisasi pemerintah.”

Kebijakan ini rupanya menjadi batu sandungan besar bagi beberapa lembaga federal AS, termasuk FBI, Secret Service, dan Immigration and Customs Enforcement (ICE). nan menarik, ketegangan ini terjadi justru ketika Anthropic memberikan akses chatbot Claude dan suite perangkat AI-nya kepada pemerintah federal dengan nilai sangat murah: hanya $1. Sebuah tawaran nan semestinya menjadi kemudahan, tapi justru berubah menjadi sumber bentrok lantaran batas etis nan diterapkan Anthropic.

Mengapa Kebijakan Anthropic Berbeda dari Kompetitor?

Yang membedakan Anthropic dari perusahaan AI lain seperti OpenAI adalah ketegasan dan keluasan kebijakan penggunaannya. Sementara OpenAI membatasi “pemantauan perseorangan tanpa otorisasi” – nan mungkin tetap memungkinkan pemantauan “legal” – Anthropic sama sekali tidak memberikan celah untuk penggunaan pengawasan domestik. Seorang sumber nan familiar dengan masalah ini menjelaskan bahwa meskipun Claude digunakan oleh agensi untuk tujuan keamanan nasional termasuk cybersecurity, kebijakan perusahaan secara tegas membatasi penggunaan mengenai pengawasan domestik.

Perwakilan Anthropic menyatakan bahwa mereka mengembangkan ClaudeGov unik untuk organisasi intelijen, dan jasa ini telah menerima otorisasi “Tinggi” dari Federal Risk and Authorization Management Program (FedRAMP), nan memungkinkan penggunaannya dengan beban kerja pemerintah nan sensitif. Claude tersedia untuk digunakan di seluruh organisasi intelijen, tetapi dengan batas etika nan jelas.

Posisi Etis alias Perlindungan Diri?

Seorang pejabat manajemen mengeluh kepada Semafor bahwa kebijakan Anthropic membikin penilaian moral tentang gimana lembaga penegak norma melakukan pekerjaan mereka. Tapi mari kita jujur: ini bukan hanya masalah moral, tapi juga legal. Kita hidup dalam negara pengawasan di mana penegak norma dapat dan telah memantau orang tanpa surat perintah di masa lampau dan nyaris pasti bakal terus melakukannya di masa depan.

Perusahaan nan memilih untuk tidak berperan-serta dalam perihal itu, sejauh nan dapat dilawannya, sedang melindungi kepentingannya sendiri sama seperti sedang mengambil sikap etis. Jika pemerintah federal jengkel lantaran kebijakan penggunaan perusahaan mencegahnya melakukan pengawasan domestik, mungkin pelajaran utamanya adalah bahwa pemerintah melakukan pengawasan domestik nan luas dan berupaya mengotomatiskannya dengan sistem AI.

Posisi Anthropic nan secara teoritis berpendirian ini merupakan nan terbaru dalam upayanya memposisikan diri sebagai perusahaan AI nan masuk akal. Lebih awal bulan ini, mereka mendukung undang-undang keselamatan AI di California nan bakal mewajibkannya dan perusahaan AI besar lainnya tunduk pada persyaratan keselamatan baru dan lebih ketat untuk memastikan model tidak berisiko melakukan kerusakan katastrofik. Anthropic adalah satu-satunya pemain besar di ruang AI nan mendukung undang-undang tersebut.

Perusahaan ini juga berada di Washington D.C., mempromosikan mengambil AI sigap dengan pengaman (tetapi penekanan pada bagian cepatnya). Posisinya sebagai perusahaan AI nan santuy mungkin sedikit tercemar oleh kebenaran bahwa mereka membajak jutaan kitab dan makalah nan digunakan untuk melatih model bahasa besarnya, melanggar kewenangan pemegang kewenangan cipta dan meninggalkan penulis tanpa pembayaran. Penyelesaian $1,5 miliar nan dicapai lebih awal bulan ini bakal memasukkan setidaknya sebagian duit ke dalam kantong orang-orang nan betul-betul menciptakan karya nan digunakan untuk melatih model tersebut.

Sementara itu, Anthropic baru saja dinilai nyaris $200 miliar dalam putaran pendanaan terbaru nan bakal membikin penalti nan diperintahkan pengadilan menjadi kesalahan pembulatan. Sebuah ironi nan patut dicermati: perusahaan nan bersikap etis dalam perihal pengawasan pemerintah, tetapi bermasalah dalam perihal kewenangan cipta.

Lalu gimana dengan pesaing seperti perusahaan AI milik Elon Musk, X.AI Corp? Atau keputusan strategis OpenAI nan membatalkan rencana menjadi perusahaan profit? Dunia AI memang penuh dengan dinamika nan kompleks.

Pertanyaannya sekarang: apakah posisi etis Anthropic ini bakal bertahan? Ataukah tekanan pemerintah dan kebutuhan upaya bakal memaksa mereka untuk melunak? nan pasti, kasus ini menunjukkan bahwa perkembangan AI tidak hanya tentang teknologi, tetapi juga tentang nilai-nilai nan kita tanamkan di dalamnya. Seperti nan ditunjukkan oleh kegagalan AI dalam menjalankan perusahaan virtual, teknologi ini tetap mempunyai banyak keterbatasan – termasuk dalam memahami kompleksitas etika dan moral manusia.

Anthropic mungkin sedang mencoba menjadi “orang baik” dalam ruang AI, tetapi seperti semua perusahaan teknologi, mereka kudu menyeimbangkan antara idealisme etis dan realitas bisnis. Keputusan mereka untuk menolak pengawasan massal patut diapresiasi, tetapi konsistensi mereka dalam masalah kewenangan cipta dan praktik upaya lainnya tetap perlu diawasi. Di era di mana AI semakin渗透 ke dalam setiap aspek kehidupan kita, perdebatan tentang etika AI seperti ini bukan hanya krusial – tapi sangat mendesak.

Selengkapnya