Google mengumumkan bahwa agen kecerdasan buatan (AI) mereka yang bernama Big Sleep berhasil menemukan kerentanan keamanan kritis dalam salah satu produk mereka, menjadikannya sebagai pencapaian penting di dunia keamanan siber. Big Sleep merupakan agen AI yang difokuskan untuk keamanan siber, hasil kolaborasi antara Google DeepMind dan tim keamanan Google Project Zero. Temuan ini menjadi perhatian karena kerentanan tersebut, yang terletak pada sistem database SQLite, telah diketahui oleh aktor jahat dan berpotensi dimanfaatkan untuk serangan.
Dalam sebuah posting blog resmi, Google menjelaskan bahwa Big Sleep pertama kali diperkenalkan pada tahun 2024 dan langsung menunjukkan kemampuannya dengan menemukan kerentanan nyata di tahun yang sama. Sejak saat itu, agen AI ini telah menemukan sejumlah potensi celah keamanan, meskipun tidak ada yang tergolong sebagai kerentanan zero-day, yakni celah keamanan yang belum diketahui publik dan belum diperbaiki, hingga penemuan terbaru ini.
Google tidak menyebutkan nama produk secara spesifik maupun waktu kejadian, namun mengungkap bahwa Big Sleep mendeteksi kerentanan SQLite dengan kode CVE-2025-6965. Deteksi ini dilakukan berdasarkan laporan intelijen dari Google Threat Intelligence. Berkat identifikasi yang tepat waktu, kerentanan berhasil ditangani sebelum sempat dieksploitasi oleh pihak yang tidak bertanggung jawab.
Google mengklaim bahwa ini adalah kali pertama sebuah agen AI berhasil menemukan kerentanan seperti ini dalam kondisi dunia nyata. Perusahaan juga menyatakan bahwa Big Sleep kini mulai diterapkan untuk melindungi keamanan berbagai proyek open-source populer, meskipun tidak merinci proyek-proyek tersebut.
Dalam pernyataannya, Google menyebut bahwa agen AI seperti Big Sleep merupakan “game changer” di dunia keamanan siber karena mampu mengurangi beban tim keamanan dalam menangani ancaman kompleks serta memperluas cakupan perlindungan secara signifikan. Selain itu, Google juga merilis dokumen white paper yang menjelaskan pendekatan mereka dalam membangun agen AI.
Sebagai bagian dari komitmennya terhadap keamanan AI, Google juga akan menyumbangkan data dari inisiatif Secure AI Framework (SAIF) untuk mendukung skala kerja Coalition for Secure AI (CoSAI), terutama pada pengembangan agen AI, pertahanan siber, dan keamanan rantai pasok perangkat lunak. CoSAI sendiri adalah kolaborasi antara Google dan berbagai mitra industri untuk memastikan penerapan AI yang aman dan bertanggung jawab.