Dark AI Mulai Muncul
lebakcyber.net – Dark AI Mulai Muncul. Kaspersky yang merupakan salah satu perusahaan dalam bidang keamanan menghimbau kepada masyarakat agar waspada kepada munculnya sebuah Dark AI atau kecerdasan buatan gelap yang bisa menjadi dalang dari suatu serangan siber yang canggih.
Kasperky mengatakan kalau Dark AI tersebut menjadi salah satu temuan utama yang berhasil mereka temukan belakangan ini. Kaspersky menginformasikan bagaimana cara penyerangan dengan memanfaatkan teknologi kecerdasan buatan untuk melakukan serangan digital di seluruh dunia, seperti serangan dalam bentuk phising yang sederhana sampai spionase siber yang mendapat dukungan dari suatu negara.
Sergey Lozhkin, selaku Kepala Tim Riset Analisis Global atau yang biasa disingkat dengan GReAT mengatakan bahwa sejak ChatGPT berhasil mendapatkan popularitas di seluruh dunia pada tahun 2023 lalu, mereka telah melakukan pengamatan beberapa adopsi AI yang bermanfaat, seperti melakukan tugas-tugas yang sederhana seperti pembuatan suatu video sampai melakukan pendeteksian dan analisa ancaman teknis.
Tapi di saat yang bersamaan juga para pelaku dari serangan siber memanfaatkannya untuk bisa meningkatkan skill serangan mereka. Dan sekarang kita telah memasuki era masyarakat dan keamanan siber dimana kecerdasan buatan menjadi perisai, sedangkan Dark AI sendiri menjadi pedangnya, jelas Lozhkin.
Dark AI sendiri mengacu pada Large Language Model (LLM) atau penerapan model bahasa besar lokal ataupun jarak jauh yang tidak memiliki batas dalam kerangka kerjanya secara penuh, atau bisa dibilang sebuah chatbot yang digunakan dengan tujuan berbahaya, tidak sah dan juga tidak etis.
Sistem tersebut melakukan operasinya diluar kendali keamanan, tata kelola standar dan kepatuhan yang seringkali memungkinkan penggunanya memakainya dengan tujuan seperti manipulasi, penipuan, penyalahgunaan data dan juga serangan siber.
Muncul Pada Pertengahan 2023
Masih berdasarkan keterangan dari Lozhkin, para pengguna dari Dark AI yang paling terkenal sekarang ini adalah dalam bentuk Black Hat GPT, dimana chatbot tersebut pertama kali muncul pada pertengahan tahun 2023.
Dan itu merupakan model kecerdasan buatan yang sengaja dibuat, digunakan dan juga dimodifikasi agar bisa melakukan kegiatan atau aktivitas yang ilegal, tidak etis dan juga berbahaya.
Aktivitas tersebut contohnya membuat sebuah kode berbahaya, membuat sebuah email phising yang persuasif dan juga lancar untuk melakukan sebuah serangan tertarget ataupun massal, membuat sebuah video deepfake dan bahkan memberikan dukungan untuk operasi Red Team.
Black Hat GPT sendiri bisa hadir dengan model kecerdasan buatan semi-privat ataupun privat. Contohnya seperti WormGPT, FraudGPT, DarkBard dan juga Xanthorox yang dibuat serta dirancang agar bisa mendukung penipuan, serangan siber serta otomatisasi yang berbahaya.
Tanggapan OpenAI
Pihak OpenAI sendiri baru-baru ini mengatakan kalau mereka sudah menggagalkan 20 lebih serangan siber terselubung yang sudah melakukan percobaan dan menyalahgunakan perangkat kecerdasan buatan milik mereka.
OpenAI juga melaporkan kalau para pelaku dari kejahatan siber tersebut sudah memakai LLM agar bisa membuat persona palsu yang merspons target secara real time, meyakinkan dan membuat sebuah konten multibahasa yang dirancang agar bisa menipu para calon korbannya serta menembus filter keamanan nasional.
Lozhkin juga menambahkan kalau kecerdasan buatan secara inheren bisa membedakan antara mana yang benar dan mana yang salah, jadi kecerdasan buatan hanya mengikuti suatu perintah saja. Bahkan pada saat suatu perlindungan sudah diterapkan, mereka masih tetap bisa menjadi penyerang yang tangguh.







