Washington DC – Ketegangan antara raksasa kecerdasan buatan (AI) dan militer Amerika Serikat mencapai puncaknya pada Kamis (26/2/2026).
Anthropic, perusahaan di balik model AI populer Claude, secara resmi menyatakan “tidak dapat dengan hati nurani yang bersih” memenuhi tuntutan Pentagon untuk menghapus sistem keamanan pada teknologi mereka seperti dikutip The Guardian
Keputusan berani ini diambil setelah Menteri Pertahanan AS, Pete Hegseth, memberikan ultimatum keras kepada Anthropic: berikan akses tanpa batas (unfettered access) atau kehilangan kontrak senilai USD 200 juta (sekitar Rp3,1 triliun) serta dicap sebagai “risiko rantai pasokan” nasional.

Dilema Etika di Garis Depan Teknologi
Di koridor kekuasaan Departemen Pertahanan (DoD), tuntutannya sederhana namun mengerikan bagi para pegiat etika: matikan semua pembatas keamanan (guardrails) dan izinkan Claude digunakan untuk tujuan hukum apa pun.
Namun, bagi CEO Anthropic Dario Amodei, hal ini adalah garis merah yang tidak bisa dilanggar.
“Preferensi kuat kami adalah terus melayani Departemen Pertahanan dan para prajurit kita dengan dua perlindungan yang kami minta tetap terpasang,” ujar Amodei dalam pernyataan resminya.
Ia merujuk pada larangan penggunaan AI untuk sistem senjata otonom mematikan dan pengawasan domestik massal.
Amodei menegaskan bahwa teknologi saat ini belum cukup aman dan andal untuk dilepas tanpa kendali dalam skenario hidup-mati di medan perang.
Perselisihan Anthropic vs Pentagon
Untuk memahami mengapa konflik ini begitu krusial bagi masa depan AI dunia, berikut adalah poin-poin intinya:
- Tuntutan Pentagon: Menghapus filter keamanan agar Claude bisa digunakan secara bebas dalam operasi militer.
- Kekhawatiran Anthropic: Ketakutan akan penyalahgunaan AI untuk senjata yang membunuh tanpa input manusia (robot pembunuh) dan mata-mata massal terhadap warga sipil.
- Ancaman Sanksi: Jika menolak hingga tenggat waktu Jumat malam, Anthropic akan dilabeli sebagai “risiko rantai pasokan”, status yang biasanya diberikan kepada musuh asing.
- Dampak Finansial: Label tersebut akan melarang vendor lain yang bekerja dengan militer AS untuk menggunakan produk Anthropic, yang bisa melumpuhkan pendapatan perusahaan.
Perselisihan ini bukan sekadar soal perangkat lunak, melainkan soal siapa yang memegang kendali atas “otak” buatan di masa perang.
Hingga minggu ini, Anthropic adalah satu-satunya model AI yang disetujui untuk sistem klasifikasi militer AS sebelum akhirnya xAI milik Elon Musk juga mendapatkan kesepakatan serupa.
Teknologi Anthropic sendiri dikabarkan telah berperan dalam operasi intelijen tingkat tinggi, termasuk laporan keterlibatannya dalam penangkapan pemimpin Venezuela, Nicolás Maduro, bulan lalu.
Hal ini membuktikan bahwa AI bukan lagi fiksi ilmiah, melainkan senjata nyata di dunia geopolitik.
Di sisi lain, Pete Hegseth terus mendorong agenda agresif untuk menghapus apa yang ia sebut sebagai “wokeness” (hal-hal yang dianggap terlalu berhati-hati atau bermuatan politis tertentu) dari tubuh angkatan bersenjata, demi mengejar supremasi militer mutlak.
Ujian Terberat Bagi Integritas Industri AI
Bagi industri teknologi, langkah Anthropic adalah ujian besar. Apakah sebuah perusahaan sanggup mempertahankan prinsip etikanya ketika berhadapan dengan kekuatan negara dan tumpukan uang triliunan rupiah?
Jika Anthropic tetap pada pendiriannya, mereka mungkin akan kehilangan kontrak besar, namun mereka akan mengukuhkan posisi sebagai pemimpin moral dalam pengembangan AI yang aman.
Sebaliknya, jika mereka tunduk, pintu menuju perlombaan senjata otonom yang tidak terkendali akan terbuka lebar.(YA)





