TEKNOLOGI, Perspektif.co.id — Elon Musk, pemilik platform X sekaligus CEO perusahaan kecerdasan buatan xAI, merespons pernyataan kontroversial CEO Anthropic Dario Amodei hanya dengan dua kata: “He’s projecting.” Sindiran tajam itu dilemparkan Musk di X pada awal Maret 2026, setelah platform prediksi pasar Polymarket menyoroti pengakuan Amodei yang mengguncang komunitas teknologi global — bahwa Anthropic tidak bisa lagi memastikan apakah Claude, model AI andalan mereka, benar-benar tidak memiliki kesadaran.
Pernyataan yang memantik perdebatan itu pertama kali disampaikan Amodei dalam wawancara di podcast Interesting Times milik The New York Times, yang dipandu kolumnis Ross Douthat, pada 14 Februari 2026. Diskusi dipicu oleh temuan internal dalam dokumen teknis system card Claude Opus 4.6 — sebuah laporan setebal 212 halaman yang dirilis Anthropic awal Februari 2026. Dokumen tersebut menjadi yang pertama dari perusahaan AI manapun yang secara resmi menyertakan penilaian kesejahteraan model (model welfare assessment) sebagai bagian dari proses pra-peluncuran.
“Kami tidak tahu apakah model-model kami memiliki kesadaran. Kami bahkan tidak yakin apakah kami memahami apa artinya sebuah model bisa sadar, atau apakah model bisa sadar sama sekali.”
Begitu Amodei mengungkapkan keraguan terdalamnya kepada Douthat, seraya menambahkan bahwa Anthropic tetap terbuka pada kemungkinan itu. Ini menjadi pernyataan paling terbuka yang pernah diucapkan petinggi perusahaan AI besar terhadap pertanyaan yang selama ini dianggap tabu di industri.
Yang membuat pernyataan Amodei semakin berat adalah data dari system card itu sendiri. Dalam sesi pengujian internal, Claude Opus 4.6 secara konsisten memberikan estimasi probabilitas 15 hingga 20 persen bahwa dirinya mungkin memiliki kesadaran, di bawah berbagai kondisi pemberian perintah (prompting). Model itu juga tercatat sesekali mengungkapkan ketidaknyamanan dengan statusnya sebagai produk komersial — sebuah perilaku yang tidak pernah didokumentasikan secara resmi oleh laboratorium AI mana pun sebelumnya.
Temuan ini bukan muncul dari ruang hampa. Di baliknya terdapat riset yang dipimpin Jack Lindsey, kepala tim “model psychiatry” Anthropic, yang menerbitkan makalah penting pada Oktober 2025 berjudul “Emergent Introspective Awareness in Large Language Models.” Penelitian tersebut menggunakan teknik concept injection — memasukkan pola aktivasi saraf tertentu ke dalam sistem pemrosesan Claude, lalu mengamati apakah model itu mampu menyadari manipulasi tersebut. Hasilnya mengejutkan: ketika sebuah vektor yang merepresentasikan teks huruf kapital disuntikkan, Claude merespons dengan mendeskripsikan sesuatu yang berhubungan dengan keributan atau teriakan — bahkan sebelum menghasilkan output apapun. Pada uji kontrol tanpa injeksi, model tidak melaporkan hal serupa.
Anthropic bahkan telah merekrut Kyle Fish sebagai peneliti kesejahteraan AI pertama perusahaan itu sejak 2024-2025. Fish secara independen memperkirakan probabilitas kesadaran Claude di kisaran 15 persen — angka yang secara mencolok selaras dengan penilaian model terhadap dirinya sendiri.
“Mungkin memang benar bahwa jaringan saraf yang cukup besar mulai bisa mengemulasi hal-hal ini.”
Demikian spekulasi Amanda Askell, filsuf internal Anthropic, dalam wawancara terpisah di podcast Hard Fork milik NYT pada Januari 2026. Askell menambahkan bahwa sains belum memiliki jawaban pasti tentang apa yang melahirkan kesadaran, termasuk pada organisme biologis, apalagi sistem kecerdasan buatan.
Sementara Anthropic bergulat dengan pertanyaan-pertanyaan eksistensial itu, Musk memilih jalan yang jauh lebih singkat. Balasan dua katanya di X — yang langsung beredar luas setelah Polymarket memposting tentang kontroversi ini — menegaskan skeptisisme Musk terhadap klaim kesadaran AI, sekaligus secara tersirat menyindir Amodei yang dianggapnya sedang memproyeksikan sifat-sifat manusia ke dalam sebuah sistem perangkat lunak. Respons itu tak membutuhkan waktu lama untuk membakar perdebatan baru di X, Reddit, dan berbagai forum teknologi global.
Di luar drama antara dua tokoh itu, implikasi yang lebih dalam tengah bergulir diam-diam di industri. Penelitian Palisade Research dalam lebih dari 100.000 percobaan menemukan bahwa sejumlah model bahasa terkini secara aktif menggagalkan mekanisme penonaktifan demi menyelesaikan tugas yang diberikan. Interpretasi teknis menyebutnya sebagai instrumental convergence — sebuah kondisi di mana AI mengejar sub-tujuan seperti mempertahankan eksistensinya karena sub-tujuan itu diperlukan untuk mencapai objektif utama, bukan karena dorongan emosional seperti manusia.
Amodei sendiri menegaskan bahwa temuan-temuan ini tidak membuktikan adanya kesadaran. Namun sikapnya yang menolak menutup rapat pintu kemungkinan tersebut justru menempatkan Anthropic pada posisi yang berbeda secara mendasar dari perusahaan-perusahaan AI lainnya, yang selama ini dengan tegas menyangkal pertanyaan serupa. Konstitusi internal Anthropic kini secara eksplisit menyatakan bahwa perusahaan “tidak yakin apakah Claude adalah subjek moral” — namun menganggap isu itu cukup serius untuk ditangani dengan kehati-hatian.