Pengguna Ollama Waspada! Kabar buruk bagi pengguna Ollama, proyek open-source populer untuk menjalankan model Machine Learning (ML) besar (LLMs). Peretas keamanan siber baru saja menemukan celah keamanan serius yang bisa dieksploitasi untuk mengendalikan penuh sistem Anda.
Apa itu Ollama?
Ollama adalah proyek open-source yang memudahkan kita menjalankan berbagai model LLM ternama, seperti keluarga Llama dari Meta, Phi dari Microsoft, dan model dari Mistral. Ollama bisa digunakan melalui baris perintah atau antarmuka REST API. Popularitasnya dibuktikan dengan ratusan ribu pengguna yang menarik Ollama dari Docker Hub setiap bulannya.
Celah Keamanan Probllama (CVE-2024-37032)
Tim peneliti keamanan siber Wiz Research menemukan celah keamanan yang dijuluki “Probllama” (CVE-2024-37032) pada Ollama. Celah ini ditemukan pada server REST API Ollama dan memungkinkan penyerang untuk mengeksekusi kode berbahaya dari jarak jauh (remote code execution – RCE) ke sistem yang menjalankan Ollama.
Masalahnya terletak pada kurangnya validasi yang ketat di sisi server Ollama. Penyerang dapat memanfaatkan celah ini dengan mengirimkan permintaan HTTP khusus ke server Ollama. Parahnya lagi, pada instalasi Docker secara default, server API Ollama terekspos secara publik di internet!
Dampak dan Cara Mencegahnya
Celah keamanan Probllama ini sangat berbahaya, terutama pada instalasi Ollama di Docker. Sebab, server Ollama di Docker biasanya berjalan dengan hak akses tertinggi (root) dan bisa diakses dari seluruh internet (0.0.0.0).
Para peneliti Wiz Research menemukan lebih dari 1.000 server Ollama yang rentan masih terekspos di internet per 10 Juni 2024. Ini menjadi peringatan bagi semua pengguna Ollama untuk segera mengambil tindakan pengamanan:
- Perbarui Ollama ke versi 0.1.34 atau yang lebih baru. Ini adalah langkah terpenting untuk menutup celah keamanan Probllama.
- Jangan ekspos Ollama langsung ke internet. Ollama sendiri tidak memiliki fitur keamanan bawaan seperti autentikasi. Jika Anda harus menggunakan Ollama di internet, wajib menggunakan lapisan keamanan tambahan seperti reverse-proxy dengan autentikasi.
- Isolasi Ollama di jaringan internal. Sebaiknya, tempatkan Ollama di belakang firewall dan batasi akses hanya untuk aplikasi internal dan pengguna yang berwenang.
Lebih dari Sekedar Probllama: Keamanan AI yang Rentan
Penemuan celah Probllama ini menjadi sorotan pentingnya keamanan dalam pengembangan perangkat lunak berbasis AI. Meskipun Ollama dan banyak perangkat lunak AI lainnya ditulis dengan bahasa pemrograman modern yang mengutamakan keamanan, kerentanan klasik seperti path traversal masih bisa menjadi masalah serius.
Selain itu, para peneliti juga mengingatkan pentingnya dukungan autentikasi pada perangkat lunak AI. Sebelumnya, celah keamanan RCE serupa juga ditemukan pada perangkat lunak lain untuk menjalankan LLM seperti TorchServe dan Ray Anyscale.
Kesimpulan
Kasus Probllama ini menjadi pengingat untuk selalu waspada terhadap keamanan siber, tak terkecuali dalam dunia AI. Pastikan Anda menggunakan Ollama dengan versi terbaru dan menerapkan langkah-langkah pengamanan yang tepat. Selain itu, para pengembang perangkat lunak AI perlu lebih memperhatikan keamanan sejak awal proses pengembangan.