Koalisi raksasa teknologi, mantan pejabat militer, dan kelompok kebebasan sipil mendukung Anthropic dalam pertarungan hukum melawan Departemen Perang AS (DOW) atas penunjukan perusahaan AI sebagai “risiko rantai pasokan.” Perselisihan ini berpusat pada penolakan Anthropic untuk memberikan akses tidak terbatas pada chatbot AI-nya, Claude, sehingga menimbulkan pertanyaan kritis tentang jangkauan pemerintah yang berlebihan, keamanan nasional, dan masa depan pengembangan AI.

Perselisihan: Akses vs. Kontrol

Konflik dimulai ketika DOW menuntut akses penuh ke Claude, memberikan Anthropic hanya waktu 48 jam untuk mematuhinya atau menghadapi sanksi. CEO Anthropic Dario Amodei menolak, dengan menarik dua garis yang jelas: tidak ada penggunaan AI untuk pengawasan domestik massal dan tidak ada integrasi ke dalam sistem senjata yang sepenuhnya otonom. Sikap ini menyebabkan DOW memberi label Anthropic sebagai risiko rantai pasokan, yang secara efektif mengecualikan perusahaan tersebut dari kontrak pemerintah yang menguntungkan.

Penunjukan ini memungkinkan pemerintah untuk melarang Anthropic memberikan kontrak, mengecualikan produknya, dan mencegah kontraktor utama menggunakan teknologinya. Langkah ini sangat penting mengingat peran Anthropic baru-baru ini sebagai satu-satunya penyedia AI yang disetujui untuk digunakan dalam jaringan militer rahasia, termasuk analisis intelijen untuk DOW dan penempatan di laboratorium nuklir nasional.

Dukungan Luas terhadap Posisi Antropis

Microsoft telah mengajukan tuntutan hukum dengan alasan bahwa tindakan DOW tidak jelas, belum pernah terjadi sebelumnya, dan merugikan secara ekonomi. Pengajuan tersebut memperingatkan “dampak ekonomi yang parah” yang tidak menguntungkan publik, dan menyerukan pencabutan sementara penunjukan tersebut.

Pengajuan gabungan terpisah, yang didukung oleh mantan pejabat intelijen seperti Michael Hayden (mantan Direktur CIA), menuduh Menteri Pertahanan AS Pete Hegseth menyalahgunakan wewenang pemerintah untuk melakukan “retribusi”. Kelompok ini berpendapat bahwa penargetan Anthropic menciptakan “ketidakpastian mendadak” yang dapat mengganggu operasi militer, termasuk konflik yang sedang berlangsung seperti perang di Iran.

Dukungan lebih lanjut datang dari 37 insinyur AI yang sebelumnya bekerja di OpenAI dan DeepMind Google, yang menyebut tindakan DOW sebagai “penggunaan kekuasaan yang tidak tepat dan sewenang-wenang”. Mereka memperingatkan bahwa tindakan seperti itu akan menghambat inovasi dan merugikan daya saing AS di bidang AI. Electronic Frontier Foundation dan Cato Institute mengajukan laporan gabungan yang menyatakan bahwa tindakan pemerintah melanggar Amandemen Pertama.

Inti Kekhawatiran

Konflik ini bukan hanya mengenai satu perusahaan; hal ini mencerminkan perdebatan yang lebih luas tentang batas kendali pemerintah atas teknologi baru. Kasus ini menimbulkan kekhawatiran bahwa memberikan akses yang tidak terbatas kepada pemerintah terhadap AI dapat mengakibatkan pengawasan yang tidak terkendali, peperangan otomatis, dan terkikisnya kebebasan sipil.

Seperti yang dinyatakan dalam salah satu dokumen yang diajukan, “Jika dibiarkan, upaya untuk menghukum salah satu perusahaan AI terkemuka di AS ini pasti akan berdampak pada daya saing industri dan ilmu pengetahuan Amerika di bidang kecerdasan buatan dan bidang lainnya.”

Masa Depan Hubungan AI-Pemerintah

Meskipun ada tantangan hukum, DOW telah mengumumkan penghentian operasi militer Claude selama enam bulan. CEO Anthropic menyatakan perusahaannya tetap terbuka untuk bekerja sama dengan pemerintah dalam kontrak yang sejalan dengan prinsip-prinsipnya.

Hasil dari pertarungan hukum ini akan menjadi preseden mengenai bagaimana pemerintah AS mengatur AI, dan apakah pemerintah AS memprioritaskan kontrol atas inovasi dan pertimbangan etis. Implikasi yang lebih luas sudah jelas: jika pemerintah mampu mendikte kebijakan perusahaan AI swasta, maka pemerintah dapat secara efektif mengontrol apa yang dilakukan dan dikatakan warga Amerika.