Anthropic, sebuah perusahaan AI terkemuka, menghadapi tantangan saat menavigasi sikapnya terhadap penggunaan militer dari model AI-nya, Claude. Laporan menunjukkan bahwa perusahaan mungkin mengalami konsekuensi akibat keberatannya terhadap penerapan Claude dalam operasi militer yang bertujuan untuk menggulingkan presiden Venezuela, Nicolás Maduro. Meskipun Anthropic membantah klaim ini, situasi ini menimbulkan pertanyaan tentang implikasi permintaan pemerintah terhadap keamanan AI.
Perusahaan ini mengadvokasi regulasi AI yang ketat, sebuah posisi yang membedakannya dalam industri di mana banyak yang memprioritaskan keuntungan di atas keselamatan. Para pendiri perusahaan AI, termasuk Elon Musk, telah lama mengungkapkan kekhawatiran tentang potensi bahaya AI, menekankan perlunya pengembangan yang bertanggung jawab untuk mencegah kerugian. Anthropic bertujuan untuk mengintegrasikan langkah-langkah keamanan ke dalam model AI-nya untuk mencegah penyalahgunaan, menggemakan prinsip-prinsip yang diuraikan oleh Isaac Asimov mengenai robotika dan keselamatan manusia.
Meskipun komitmennya terhadap keselamatan, Anthropic kini terjerat dalam kontrak militer, menyediakan model Claude khusus untuk pemerintah AS demi keamanan nasional. Namun, CEO Dario Amodei telah menegaskan bahwa ia menentang penggunaan Claude untuk senjata otonom atau pengawasan, sebuah sikap yang mungkin bertentangan dengan harapan pemerintahan saat ini. Departemen Pertahanan telah menunjukkan bahwa mereka tidak akan menerima batasan dari perusahaan AI terkait aplikasi militer, menimbulkan kekhawatiran tentang masa depan keamanan AI dalam peperangan.
Tren yang berkembang di antara perusahaan teknologi untuk berkolaborasi dengan Pentagon mencerminkan pergeseran sikap terhadap kontrak militer. Sementara beberapa eksekutif tetap berhati-hati tentang implikasi teknologi mereka dalam konteks mematikan, yang lain, seperti CEO Palantir, secara terbuka mengakui penggunaan produk mereka dalam operasi militer. Pergeseran ini dapat menyebabkan perlombaan senjata dalam teknologi AI, saat negara-negara berusaha meningkatkan kemampuan militer mereka.
Implikasi dari kemitraan antara perusahaan AI dan militer sangat mendalam. Saat Pentagon mendorong akses tanpa batas ke teknologi AI, prinsip dasar pengembangan AI yang aman dapat terkompromikan. Diskusi awal tentang pengawasan internasional untuk aplikasi AI telah menyusut, dan fokus telah bergeser menuju ketidakberdayaan AI dalam peperangan. Seiring dengan perkembangan lanskap ini, tanggung jawab terletak pada pengembang AI dan pemerintah untuk memastikan bahwa teknologi ini digunakan dengan aman dan etis.