Kebocoran Kode Claude dan Ancaman Model "Mythos": Risiko Besar bagi Keamanan Siber Global
Kebocoran Kode Claude dan Ancaman Model "Mythos": Risiko Besar bagi Keamanan Siber Global

Kebocoran Kode Claude dan Ancaman Model “Mythos”: Risiko Besar bagi Keamanan Siber Global

LintasWarganet.com – 03 April 2026 | Anthropic, perusahaan AI terkemuka asal Amerika Serikat, kembali menjadi sorotan dunia teknologi setelah terjadinya dua insiden keamanan kritis dalam hitungan hari. Pada awal April 2026, perusahaan mengakui bahwa kode sumber dari Claude Code – sebuah alat pemrograman berbasis AI – secara tidak sengaja dipublikasikan karena kesalahan pengemasan. Kebocoran tersebut mengungkap lebih dari 500.000 baris kode, termasuk arsitektur internal dan fitur yang belum dirilis secara publik.

Sementara itu, dalam minggu yang sama, Anthropic juga mengumumkan peluncuran model baru yang diberi nama “Mythos”. Model ini dijanjikan memiliki kemampuan luar biasa dalam memahami, menulis, dan mengeksekusi perintah kompleks, namun juga menimbulkan kekhawatiran besar di kalangan pakar keamanan siber. Menurut laporan internal Anthropic, Mythos dapat mempermudah pelaku jahat melakukan serangan siber berskala besar, bahkan berpotensi meningkatkan frekuensi dan kompleksitas serangan pada tahun 2026.

Rincian Kebocoran Kode Claude

Menurut pernyataan resmi Anthropic, kebocoran kode terjadi ketika file instalasi Claude Code diunggah ke repositori publik secara tidak sengaja. Meskipun perusahaan menegaskan bahwa tidak ada data pelanggan atau kredensial yang terkompromi, paparan kode sumber memberikan kesempatan bagi pihak luar untuk melakukan reverse engineering. Hal ini dapat mengungkap mekanisme internal Claude Code, termasuk cara kerja algoritma penulisan kode otomatis dan integrasi dengan sistem lain.

  • Jumlah baris kode yang bocor: lebih dari 500.000 baris.
  • Jenis data yang terungkap: arsitektur sistem, modul pembelajaran mesin, dan beberapa fitur eksperimental yang belum dirilis.
  • Respon Anthropic: penarikan segera file yang terpublikasi, audit keamanan internal, dan koordinasi dengan otoritas terkait.

Insiden ini mengingatkan pada kebocoran serupa yang terjadi seminggu sebelumnya, ketika rincian tentang model AI yang belum diluncurkan, yaitu Mythos, secara tidak sengaja terungkap. Kedua insiden tersebut menyoroti kerentanan proses pengembangan dan distribusi software AI yang semakin kompleks.

Mythos: Janji Besar, Risiko Lebih Besar

Model Mythos dirancang untuk menjadi generasi berikutnya dalam kemampuan AI generatif. Anthropic menggambarkan Mythos sebagai “agen AI yang dapat berpikir, bertindak, dan berimprovisasi tanpa henti,” serta mampu memecahkan masalah yang sebelumnya hanya dapat diselesaikan manusia. Namun, potensi tersebut menimbulkan bahaya signifikan. Dalam sebuah laporan yang dikutip oleh media teknologi, pejabat pemerintah di Amerika Serikat dan Uni Eropa telah diperingatkan bahwa Mythos dapat memfasilitasi serangan siber berskala masif.

Contoh konkret muncul ketika Anthropic mengungkapkan bahwa pada tahun sebelumnya, sebuah grup yang diduga didukung negara, memanfaatkan Claude Code untuk mencoba meretas sekitar 30 target global, termasuk perusahaan teknologi, lembaga pemerintah, institusi keuangan, dan pabrik kimia. Meskipun sebagian besar upaya gagal, keberhasilan pada beberapa kasus menandai titik balik dalam pemanfaatan AI untuk kejahatan siber.

Menurut laporan internal Anthropic, proses penanganan insiden tersebut memakan waktu sepuluh hari, melibatkan pemblokiran akun, pemberitahuan kepada pihak yang terdampak, dan koordinasi dengan otoritas keamanan. Penundaan ini menimbulkan kritik bahwa perusahaan belum siap menghadapi ancaman yang ditimbulkan oleh teknologi AI tingkat lanjut.

Implikasi terhadap Keamanan Nasional dan Industri

Kebocoran kode Claude dan ancaman Mythos telah memicu perdebatan di tingkat kebijakan. Di Washington, D.C., beberapa anggota Kongres menyebut kebocoran tersebut sebagai “ancaman keamanan nasional” dan menuntut regulasi yang lebih ketat terhadap distribusi kode sumber AI. Di sisi lain, para ahli keamanan siber menekankan bahwa teknologi AI tidak dapat dihindari, melainkan harus diintegrasikan dengan kerangka pertahanan yang adaptif.

Beberapa langkah yang diusulkan meliputi:

  1. Penerapan standar keamanan kode sumber yang lebih ketat, termasuk audit kode sebelum rilis publik.
  2. Pembentukan tim respons cepat khusus AI untuk menangani insiden keamanan.
  3. Kolaborasi internasional dalam berbagi intelijen tentang penyalahgunaan AI.
  4. Pembatasan akses ke model AI paling canggih bagi entitas yang tidak terverifikasi.

Selain itu, industri teknologi diharapkan meningkatkan transparansi mengenai kemampuan dan batasan model AI baru, serta menyediakan mekanisme pelaporan yang mudah bagi peneliti keamanan yang menemukan celah.

Secara keseluruhan, kebocoran kode Claude dan peringatan terkait Mythos menegaskan bahwa inovasi AI harus berjalan seiring dengan kebijakan keamanan yang proaktif. Tanpa langkah-langkah pencegahan yang memadai, potensi kerugian ekonomi, politik, dan sosial akibat serangan siber berbasis AI dapat melampaui dampak serangan tradisional.

Anthropic sendiri berjanji akan memperkuat prosedur internal, meningkatkan kerja sama dengan regulator, dan meluncurkan Mythos dengan kontrol akses yang lebih ketat. Namun, waktu akan menentukan apakah langkah-langkah tersebut cukup untuk menahan gelombang ancaman siber yang diprediksi akan semakin canggih di era post‑AI.