Adopsi kecerdasan buatan (AI) yang pesat di kalangan perusahaan melampaui kemampuan organisasi untuk mengamankan operasional mereka, menurut laporan keamanan infrastruktur terbaru yang menunjukkan bahwa serangan berbasis AI sudah bergerak lebih cepat daripada kemampuan pertahanan tradisional untuk merespons.
Dalam Laporan Keamanan AI ThreatLabz 2026, Zscaler memperingatkan bahwa perusahaan tidak siap menghadapi gelombang risiko siber berbasis AI berikutnya, bahkan ketika AI semakin terintegrasi dalam operasional bisnis.
Laporan tersebut, berdasarkan analisis hampir satu triliun transaksi AI/ML di platform Zscaler Zero Trust Exchange antara Januari dan Desember 2025, memprediksi bahwa perusahaan sedang mencapai titik kritis di mana AI telah beralih dari alat produktivitas menjadi vektor utama untuk konflik otonom dengan kecepatan mesin.
“AI bukan lagi sekadar alat produktivitas, tetapi juga vektor utama untuk serangan otonom dengan kecepatan mesin oleh perangkat lunak kriminal dan negara,” kata Wakil Presiden Eksekutif Zscaler untuk Keamanan Siber, Deepen Desai, dalam sebuah pernyataan.
“Di era AI Agentik,” lanjutnya, “sebuah intrusi dapat berpindah dari tahap penemuan ke pergerakan lateral hingga pencurian data dalam hitungan menit, sehingga membuat pertahanan tradisional menjadi usang.”
Adopsi Melampaui Pengawasan
Laporan tersebut memperingatkan bahwa adopsi AI berkembang lebih cepat daripada pengawasan perusahaan dan mengungkapkan bahwa, meskipun penggunaan AI tumbuh 200% di sektor-sektor utama, banyak organisasi masih kekurangan inventaris dasar model AI dan fitur AI yang terintegrasi.
Temuan Zscaler memvalidasi persis apa yang telah kami peringatkan tahun lalu, kata Stu Bradley, wakil presiden senior untuk solusi risiko, penipuan, dan kepatuhan di SAS , sebuah perusahaan perangkat lunak analitik dan kecerdasan buatan di Cary, NC. “Perusahaan-perusahaan merangkul AI lebih cepat daripada membangun pengaman tata kelola yang tepat, dan sekarang kita mulai melihat konsekuensinya,” katanya kepada TechNewsWorld.
“Sebagian besar organisasi masih belum memiliki inventaris lengkap tentang di mana AI berjalan atau data apa yang disentuhnya,” lanjutnya. “Kita berbicara tentang jutaan interaksi AI yang tidak terkelola dan terabyte data yang berpotensi sensitif yang mengalir ke sistem yang tidak dipantau siapa pun. Anda tidak perlu menjadi CISO untuk menyadari risiko yang melekat di dalamnya.”
“Pada akhirnya, AI ada di mana-mana tetapi tidak ada kendali sama sekali,” tambah Ryan McCurdy, wakil presiden pemasaran di Liquibase , sebuah perusahaan otomatisasi perubahan basis data di Austin, Texas.
“Orang-orang menempelkan data pelanggan, cuplikan kode, dan konteks produksi ke dalam asisten karena itu adalah cara tercepat untuk menyelesaikan pekerjaan,” katanya kepada TechNewsWorld. “Pada saat yang sama, vendor menyematkan AI ke dalam alat yang sudah Anda gunakan, sehingga penggunaannya menyebar tanpa tinjauan keamanan formal.”
“Risikonya bukan sekadar teori,” tegasnya. “Jika Anda tidak dapat menginventarisasi di mana AI berjalan dan apa yang disentuhnya, Anda tidak dapat menegakkan kebijakan atau menyelidiki insiden dengan percaya diri.”
Michael Bell, CEO Suzu Testing , penyedia layanan keamanan siber berbasis AI di Las Vegas, menjelaskan bahwa setiap vendor SaaS besar menyematkan fitur AI ke dalam produk mereka. “Fitur-fitur ini seringkali aktif secara default, mewarisi izin yang ada, dan lolos dari deteksi filter keamanan lama,” katanya kepada TechNewsWorld.
“Karyawan Anda tidak memilih untuk menggunakan AI,” katanya. “AI hanya berjalan di latar belakang alat yang sudah mereka gunakan. Itu adalah profil risiko yang sangat berbeda dari AI bayangan, karena Anda tidak dapat menyelesaikannya dengan memblokir ChatGPT di firewall. AI sudah ada di dalam aplikasi yang Anda setujui.”
Serangan Diluncurkan dengan Kecepatan Mesin
Para peneliti Zscaler juga melaporkan bahwa sistem AI perusahaan rentan pada kecepatan mesin. Mereka menemukan bahwa sebagian besar sistem AI perusahaan dapat diretas hanya dalam 16 menit, dengan kelemahan kritis yang ditemukan pada 100% sistem yang mereka analisis.
Meskipun diskusi tentang keamanan AI sering berfokus pada ancaman hipotetis di masa depan, laporan tersebut mencatat bahwa pengujian tim merah Zscaler mengungkapkan realitas yang lebih mendesak: ketika sistem AI perusahaan diuji dalam kondisi permusuhan nyata, sistem tersebut hampir langsung mengalami kerusakan.
“Sistem AI mudah diretas karena bergantung pada banyak izin yang bekerja bersamaan, baik izin tersebut diberikan melalui akun layanan atau diwarisi dari akses tingkat pengguna,” jelas Sunil Gottumukkala, CEO Averlon , sebuah perusahaan keamanan cloud berbasis AI di Redmond, Washington.
“Satu akun identitas dapat mengakses data sensitif, akun lain dapat memicu tindakan otomatis, dan akun ketiga dapat menulis ke sistem produksi,” katanya kepada TechNewsWorld. “Secara individual, izin-izin tersebut seringkali tampak sah. Namun jika digabungkan, izin-izin tersebut dapat menciptakan rantai serangan yang tidak diinginkan terhadap data sensitif atau sistem penting.”
“Beberapa perusahaan masih beroperasi dengan fokus pada ID karyawan untuk membedakan otorisasi yang tepat, tetapi jumlah identitas non-manusia dibandingkan dengan manusia saat ini adalah 82:1, dengan pengawasan yang lebih sedikit terhadap akses dan kemampuan yang dimiliki model AI,” jelas Troy Leach, kepala strategi di Cloud Security Alliance , sebuah organisasi nirlaba yang berdedikasi pada praktik terbaik cloud.
“Selain itu, banyaknya API dan otonomi agen AI untuk memiliki atau memberikan akses alat istimewa menciptakan cara baru untuk menghindari kontrol keamanan,” katanya kepada TechNewsWorld. “Praktik rotasi dan pencabutan izin perlu ditingkatkan menjadi upaya yang lebih dinamis untuk mengimbangi inovasi.”
Sebagian besar perusahaan memperlakukan keamanan AI sebagai perluasan dari keamanan aplikasi, tetapi permukaan serangannya pada dasarnya berbeda, tambah Brad Micklea, CEO dan salah satu pendiri Jozu , pengembang alat yang berbasis di Toronto untuk mengemas, menyebarkan, mengatur, dan mengelola model AI secara aman.
“Model bukanlah kode,” katanya kepada TechNewsWorld. “Model adalah artefak dengan data pelatihan, bobot, dan dependensi yang tertanam di dalamnya, yang dapat rusak di titik mana pun dalam rantai pasokan. Alat AppSec tradisional tidak memeriksa internal model karena memang tidak dirancang untuk itu.”
AI Gold Rush Menghasilkan Kode yang Buruk
Banyak perusahaan berlomba-lomba untuk ikut serta dalam “demam emas” AI, sehingga tim pengembang yang kurang berpengalaman menggunakan AI untuk menghasilkan kode berkualitas rendah yang menimbulkan bug dan kerentanan keamanan, jelas Eric Hulse, direktur riset di Command Zero , sebuah perusahaan otomatisasi investigasi siber di Austin, Texas.
“Departemen perusahaan tanpa proses keamanan formal meluncurkan fitur dengan bantuan AI tetapi tanpa verifikasi yang tepat,” katanya kepada TechNewsWorld. “Dari perspektif teknis, sistem ini diterapkan dengan postur keamanan prototipe, bukan sistem produksi.”
“Kami melihat titik akhir model yang terekspos tanpa otentikasi yang tepat, kerentanan injeksi yang mudah, dan integrasi API yang tidak aman dengan izin yang berlebihan,” katanya. “Konfigurasi default langsung dikirim ke produksi. Pada akhirnya, ini adalah bidang baru, dan semua orang berlomba-lomba untuk mengklaim bagian, meningkatkan pendapatan mereka, dan masuk ke pasar secepat mungkin.”
“Dalam upaya tergesa-gesa untuk menghadirkan AI ke pasar dengan cepat, tim teknik dan produk sering kali mengabaikan beberapa hal penting untuk memenuhi tenggat waktu peluncuran yang agresif,” tambah Randolph Barr, CISO dari Cequence Security , sebuah perusahaan keamanan API dan manajemen bot global.
“Ketika itu terjadi, kontrol keamanan dasar dilewati, dan jalan pintas tersebut masuk ke lingkungan produksi,” katanya kepada TechNewsWorld. “Jadi, meskipun organisasi benar-benar mulai memikirkan perlindungan model, injeksi cepat, kebocoran data, dan deteksi anomali, upaya tersebut tidak berarti banyak jika Anda belum mengamankan identitas, akses, dan konfigurasi pada tingkat fundamental.”
Laporan tersebut juga mencatat bahwa pada tahun 2025, transfer data perusahaan ke aplikasi AI/ML melonjak menjadi 18.033 terabyte — peningkatan 93% dari tahun sebelumnya dan kira-kira setara dengan 3,6 miliar foto digital.
Skala risiko ini diukur dari 410 juta pelanggaran kebijakan Pencegahan Kehilangan Data (DLP) yang terkait dengan ChatGPT saja, tambahnya, termasuk upaya untuk berbagi nomor Jaminan Sosial, kode sumber, dan catatan medis.
Temuan ini menandakan bahwa tata kelola AI telah beralih dari diskusi kebijakan menjadi kebutuhan operasional yang mendesak, demikian argumen laporan tersebut. Laporan itu memperingatkan bahwa seiring pertumbuhan repositori ini, mereka menjadi target prioritas tinggi untuk spionase siber.
Tidak Perlu Panik
Kesimpulan terpenting dari laporan ini adalah bahwa AI sudah menjadi bagian dari pekerjaan sehari-hari, dan orang-orang memindahkan data bisnis nyata melalui AI — seringkali tanpa menyadari risikonya, kata Riaan Gouws, CTO dari Forward Edge-AI, sebuah perusahaan kecerdasan buatan yang berfokus pada keselamatan publik, keamanan nasional, dan teknologi anti-penipuan di San Antonio, Texas.
“Perusahaan tidak perlu panik, tetapi mereka perlu segera mengejar ketertinggalan,” katanya kepada TechNewsWorld. “Tentukan alat apa yang diizinkan, terapkan pengamanan di sekitar data sensitif, dan pastikan keamanan benar-benar dapat melihat apa yang sedang digunakan.”
“Yang pada akhirnya disoroti oleh laporan ini bukanlah masalah AI, melainkan masalah tata kelola identitas,” tambah Rosario Mastrogiacomo, kepala strategi di Sphere Technology Solutions , sebuah perusahaan perangkat lunak dan layanan tata kelola data di Hoboken, NJ.
“Sampai perusahaan-perusahaan menyadari bahwa sistem AI merupakan identitas yang membutuhkan penemuan, kepemilikan, pengawasan perilaku, dan manajemen siklus hidup, kita akan terus melihat inovasi yang mengesankan dipadukan dengan keamanan yang rapuh,” katanya kepada TechNewsWorld. “Organisasi yang berhasil mengatasi hal ini tidak akan memperlambat adopsi AI. Mereka akan membuatnya berkelanjutan.”