10 March 2026, 14:15

Anthropic Rilis Code Review Multi-Agen di Claude Code, Bug Tersembunyi di Pull Request Kini Bisa Terdeteksi Otomatis

Anthropic luncurkan Code Review multi-agen di Claude Code untuk Teams & Enterprise. Deteksi bug pull request otomatis, biaya Rp244rb–Rp407rb per sesi.

Reporter: Hasida Kuchiki
Editor: Deden M Rojani
314
Anthropic Rilis Code Review Multi-Agen di Claude Code, Bug Tersembunyi di Pull Request Kini Bisa Terdeteksi Otomatis
Anthropic luncurkan Code Review multi-agen di Claude Code untuk paket Teams dan Enterprise, saingi GitHub Copilot Microsoft di pasar AI developer tools 2026. (AI Generated by: Perspektif.co.id)

TEKNOLOGI, Perspektif.co.id — Anthropic resmi meluncurkan Code Review, sebuah sistem multi-agen yang tertanam langsung di dalam Claude Code, pada Senin, 9 Maret 2026. Fitur ini mengerahkan tim agen AI secara paralel untuk menganalisis setiap pull request secara menyeluruh, menjaring bug dan celah keamanan yang selama ini kerap luput dari pantauan reviewer manusia. Peluncuran ini hadir dalam bentuk research preview dan saat ini hanya tersedia bagi pelanggan paket Claude for Teams dan Claude for Enterprise.

Cat Wu, Head of Product Claude Code di Anthropic, mengungkapkan bahwa permintaan fitur ini datang langsung dari para pemimpin teknologi di kalangan enterprise. “Kami melihat pertumbuhan yang sangat besar di Claude Code, terutama di segmen enterprise, dan salah satu pertanyaan yang terus kami terima dari para pemimpin enterprise adalah: sekarang Claude Code banyak membuka pull request, bagaimana saya memastikan semua itu ditinjau secara efisien?”

Data internal Anthropic menunjukkan betapa mendesaknya kebutuhan ini. Produktivitas kode per engineer melonjak hingga 200 persen dalam setahun terakhir, menciptakan kemacetan serius di jalur review. Sebelum Code Review diterapkan, hanya 16 persen pull request internal perusahaan yang menerima komentar substantif. Setelah sistem ini aktif, angkanya melejit ke 54 persen.

Cara kerja Code Review berbeda jauh dari alat analisis statis konvensional. Saat developer membuka pull request, sistem akan menjalankan beberapa agen AI yang masing-masing memeriksa basis kode dari sudut pandang dan dimensi yang berbeda. Agen-agen ini kemudian saling memverifikasi temuan satu sama lain untuk menyaring false positive, sebelum sebuah agen terakhir mengonsolidasikan semua hasil dan menyusunnya berdasarkan tingkat keparahan. Keluaran akhirnya muncul sebagai satu komentar ringkasan langsung di halaman pull request di GitHub, disertai anotasi inline pada baris kode yang bermasalah.

Kedalaman analisis yang diberikan turut menyesuaikan kompleksitas perubahan. Pull request besar yang mengandung lebih dari 1.000 baris kode yang diubah mendapat lebih banyak agen dan analisis lebih mendalam, sementara perubahan kecil cukup mendapat pemeriksaan lebih ringan. Rata-rata waktu yang dibutuhkan untuk satu sesi review adalah sekitar 20 menit.

“Produk ini memang sangat kami targetkan untuk pengguna enterprise berskala besar, seperti perusahaan Uber, Salesforce, dan Accenture, yang sudah menggunakan Claude Code dan kini membutuhkan bantuan dalam mengelola volume pull request yang dihasilkan,” kata Wu.

Salah satu kasus nyata yang diungkap Anthropic menggambarkan betapa krusialnya fitur ini. Dalam sebuah insiden, sebuah perubahan satu baris kode yang tampak sepele dan biasanya langsung disetujui ternyata akan merusak seluruh sistem autentikasi layanan produksi jika lolos ke tahap merge. Code Review berhasil menandainya sebagai isu kritis sebelum sempat digabungkan. Engineer yang bersangkutan mengakui bahwa mereka tidak akan menangkapnya secara manual.

Arsitektur multi-agen ini menjadikan Code Review sebagai produk yang cukup intensif sumber daya. Seperti layanan AI pada umumnya, penagihan dilakukan berdasarkan penggunaan token, dengan estimasi biaya rata-rata antara 15 hingga 25 dolar AS per review, atau sekitar Rp 244.500 hingga Rp 407.500 per sesi (kurs Rp 16.300/USD), tergantung kompleksitas kode. Wu menegaskan bahwa ini adalah pengalaman premium yang ia anggap sangat diperlukan seiring alat AI semakin banyak menghasilkan kode.

Meski menawarkan kemampuan yang jauh lebih dalam, Anthropic menegaskan bahwa Code Review tidak dirancang untuk menggantikan reviewer manusia. Agen-agen AI tersebut tidak memiliki wewenang untuk menyetujui pull request, keputusan itu tetap sepenuhnya ada di tangan engineer manusia.

Dari sisi keamanan, Code Review juga menyediakan pemindaian keamanan ringan. Namun untuk analisis keamanan yang lebih mendalam, Anthropic menyarankan penggunaan Claude Code Security, fitur terpisah yang diluncurkan pada 20 Februari lalu dan dirancang untuk melakukan pemindaian kerentanan secara menyeluruh di seluruh basis kode secara berkelanjutan.

Peluncuran Code Review ini bertepatan dengan momen yang luar biasa bagi Anthropic. Pada hari yang sama, perusahaan yang berbasis di San Francisco itu juga mengajukan dua gugatan hukum terhadap Departemen Pertahanan Amerika Serikat terkait penetapan Anthropic sebagai risiko rantai pasokan, sementara Microsoft mengumumkan kemitraan baru yang menyematkan Claude ke dalam platform Microsoft 365 Copilot. Run-rate pendapatan Claude Code kini telah melampaui 2,5 miliar dolar AS sejak diluncurkan.

Di tengah persaingan yang semakin ketat, kehadiran Code Review mempertegas posisi Anthropic yang kini tidak hanya bermain di ranah pembuatan model, melainkan juga membangun ekosistem alat pengembangan yang menyeluruh. GitHub Copilot besutan Microsoft masih menjadi pemimpin pasar asisten coding berbasis AI, namun dinilai belum memiliki kemampuan review otomatis di level yang ditawarkan Anthropic saat ini.

Berita Terkait