Tanggapan Ahli Menyoal Foto Viral yang Dihasilkan AI
Oleh Vladislav Tushkanov, Group Manager , Kaspersky AI Technology Research Center
Transfer gaya – menerapkan filter gaya pada gambar – merupakan teknologi yang sudah ada sejak puluhan tahun lalu, tetapi dengan model bahasa-visi multimoda, seperti gpt-4o oleh OpenAI, teknologi ini kembali populer, sehingga memicu minat baru. Dan sejak aplikasi transfer gaya ini, seperti Prisma atau Vinci, menjadi populer sebagai aplikasi seluler dengan pemrosesan yang terjadi di cloud menggunakan jaringan neural besar, sehingga perdebatan privasi terus berlanjut.
Asisten percakapan, seperti ChatGPT, karena format obrolannya, dapat memberikan kesan kerahasiaan yang salah yang kita harapkan dari korespondensi pribadi. Namun, menggunakannya untuk keperluan pekerjaan dan rekreasi, seperti membuat potret bergaya, tidak berbeda dengan menggunakan layanan daring lainnya. Cara mereka memproses data, dan apa yang dapat dilakukan operator mereka dengan masukan yang diberikan pengguna, biasanya diwujudkan dalam kebijakan privasi mereka.
Meskipun sebagian besar perusahaan mapan memastikan keselamatan dan keamanan data yang mereka kumpulkan dan simpan, bukan berarti perlindungannya bersifat antipeluru. Karena masalah teknis atau aktivitas berbahaya, data dapat bocor dan menjadi konsumsi publik atau muncul untuk dijual di situs web bawah tanah khusus. Selain itu, akun yang digunakan untuk mengakses layanan dapat diretas jika kredensial atau perangkat pengguna disusupi. Menurut pakar intelijen Kaspersky Digital Footprint (https://dfi.kaspersky.com/blog/ai-in-darknet), ada banyak unggahan di dark web dan forum peretas yang menawarkan akun pengguna curian untuk dijual layanan AI, yang mungkin berisi riwayat percakapan pribadi dengan chatbot.
Foto, terutama potret, adalah data sensitif, karena menyediakan sejumlah informasi tentang pengguna yang dapat digunakan oleh penjahat dunia maya, misalnya untuk menyamar sebagai mereka di media sosial. Namun, foto saja hampir tidak dapat digunakan untuk melakukan penipuan – berbagai skema penipuan memerlukan informasi yang jauh lebih beragam tentang korban, seperti informasi pribadi, dokumen, dll. Menggunakan chatbot untuk membahas masalah pribadi, seperti keuangan atau kesehatan, dapat memberi penjahat dunia maya lebih banyak peluang untuk skema potensial, seperti spear phishing.
Untuk melindungi diri mereka sendiri, pengguna harus menggabungkan praktik keamanan standar dengan kewaspadaan dan akal sehat. Tips sederhana berupa:
- Akun layanan AI harus dilindungi dengan kata sandi unik yang kuat dan, jika memungkinkan, dengan autentikasi dua faktor.
- Gunakan solusi keamanan yang komprehensif, termasuk pengelola kata sandi, untuk melindungi perangkat dan akun Anda.
- Pilih layanan yang sudah mapan daripada berbagai penawaran proksi untuk mengurangi jumlah pihak yang memproses data Anda.
- Selalu perlakukan chatbot sebagai orang asing acak di internet – jangan pernah membahas masalah pribadi atau membagikan detail rahasia—baik milik Anda maupun teman dan kerabat Anda, terutama tanpa persetujuan mereka.
- Waspadalah terhadap situs web phishing potensial yang mengumpulkan kredensial dan menyebarkan malware—temuan kami (https://securelist.com/backdoors-and-stealers-prey-on-deepseek-and-grok/115801/) menunjukkan bahwa penjahat dunia maya menggunakan sensasi seputar AI untuk memanfaatkannya. Pengguna yang lebih paham teknologi dapat memilih untuk menggunakan model bahasa besar dan multimoda lokal (di perangkat) untuk memproses data sensitif. []