Halo sobat aliy hafiz, saat ini sudah dikenal dengan teknologi baru yang disebut dengan chatGPT dan di artikel ini akan di bahas mengenai 7 Risiko keamanan ChatGPT di perusahaan. ChatGPT merupakan sistem AI yang dikembangkan oleh OpenAI berbasis pada arsitektur GPT-3.5. Risiko keamanan ini sama dengan risiko keamanan siber lainnya yang perlu kita waspadai.
Pengertian chatGPT
ChatGPT adalah sebuah model bahasa alami berbasis AI yang sangat canggih dan inovatif. Model ini dirancang oleh OpenAI dan didasarkan pada arsitektur Transformer, yang memungkinkan model untuk mempelajari data teks yang sangat besar dan menghasilkan respon yang menyerupai manusia.
Menurut para ahli, ChatGPT adalah salah satu teknologi AI paling revolusioner yang pernah dibuat. Dengan menggunakan teknologi ini, manusia dapat berinteraksi dengan mesin seperti berbicara dengan orang lain.
Model ini terus berkembang dan semakin canggih seiring waktu, dan telah menjadi alat penting dalam berbagai aplikasi, seperti chatbot, asisten virtual, dan alat bantu komunikasi.
Sistem ini dapat diprogram untuk memahami pertanyaan yang diajukan oleh pengguna, mengumpulkan data dari sumber yang berbeda, dan memberikan jawaban yang relevan.
Keunggulan chatGPT
Salah satu keunggulan dari ChatGPT adalah kemampuannya untuk memahami bahasa manusia dan menghasilkan jawaban yang lebih akurat dan terperinci.
Aplikasi dari ChatGPT sangat beragam, mulai dari bidang pendidikan, bisnis, hingga pemerintahan. Dalam bidang pendidikan, ChatGPT dapat digunakan sebagai asisten virtual untuk membantu siswa dalam mempelajari materi dan menjawab pertanyaan mereka.
Di bidang bisnis, ChatGPT dapat membantu dalam analisis data, manajemen inventaris, dan pelayanan pelanggan. Sedangkan di bidang pemerintahan, ChatGPT dapat digunakan sebagai alat bantu dalam menyediakan layanan publik kepada masyarakat.
Risiko keamanan chatGPT
Namun, penggunaan ChatGPT juga perlu diwaspadai terhadap risiko keamanan seperti risiko privasi, akses tidak sah, kesalahan, dan kebocoran data. Oleh karena itu, perusahaan harus memastikan bahwa ChatGPT dikelola dengan hati-hati dan melalui pendekatan keamanan yang matang.
Sementara ChatGPT telah menghasilkan desas-desus yang belum pernah terjadi sebelumnya di perusahaan, tidak semua pemimpin TI bertemu dengan chatbot AI dengan tangan terbuka. Verizon memblokir karyawannya untuk mengakses program di tempat kerja, mengutip kekhawatiran para eksekutif tentang risiko keamanan ChatGPT.
Menurut The Wall Street Journal, JPMorgan Chase & Co. juga membatasi staf untuk menggunakan model bahasa besar karena masalah kepatuhan. Forbes melaporkan banyak organisasi lain – termasuk Amazon, Bank of America, Citigroup, Deutsche Bank, Goldman Sachs dan Wells Fargo – telah mengikuti dalam membatasi penggunaan ChatGPT karyawan.
Penjahat dunia maya, sementara itu, sudah menggunakan ChatGPT untuk mengembangkan alat berbahaya, menurut analisis aktivitas Check Point Research di komunitas peretasan bawah tanah. Jelas, AI generatif dapat mengubah lanskap ancaman menjadi lebih buruk dalam beberapa bulan dan tahun mendatang.
Risiko keamanan chatGPT di perusahaan.
Berikut ini pertimbangkan tujuh risiko keamanan ChatGPT di perusahaan.
1. Risiko keamaman Malware
Risiko keamanan pertama adalah tentang malware. AI generatif yang menulis kode etik juga dapat menulis malware. Dan, sementara ChatGPT menolak petunjuk yang dikenali sebagai ilegal atau jahat secara eksplisit, pengguna telah menemukan bahwa mereka dapat menghindari pagar pembatasnya dengan cukup mudah.
Misalnya, peretas jahat mungkin meminta ChatGPT untuk membuat kode untuk pengujian penetrasi, kemudian mengubah dan menggunakannya kembali untuk digunakan dalam serangan dunia maya.
Bahkan saat pencipta ChatGPT terus bekerja untuk menghentikan perintah jailbreaking yang melewati kontrol aplikasi, pengguna pasti akan terus mendorong batasannya dan menemukan solusi baru. Pertimbangkan grup Reddit yang telah berulang kali mengelabui ChatGPT untuk memainkan persona AI fiksi bernama DAN, kependekan dari Do Anything Now yang merespons pertanyaan tanpa batasan etis.
2. Risiko keamanan Phishing dan serangan rekayasa sosial
Risiko keamanan kedua chatGPT adalah tentang Phishing. Satu dari lima pelanggaran data melibatkan serangan social engineering atau rekayasa sosial, menurut “Laporan Investigasi Pelanggaran Data 2022” Verizon. AI generatif kemungkinan akan membuat masalah yang terus-menerus ini menjadi jauh lebih buruk, dengan banyak pemimpin keamanan dunia maya bersiap untuk lebih banyak — dan lebih canggih — serangan phishing di masa mendatang.
Berkat kumpulan data referensi ChatGPT yang kaya, pelaku yang menggunakannya memiliki kemungkinan jauh lebih tinggi untuk melakukan kampanye rekayasa sosial yang berhasil. Penulisan yang kikuk, salah eja, dan kesalahan tata bahasa sering mengingatkan pengguna akan percobaan serangan phishing.
Namun, dengan AI generatif, penjahat dunia maya dapat secara instan membuat teks yang sangat meyakinkan, menyesuaikannya untuk menargetkan korban tertentu — yaitu, spear phishing — dan menyesuaikannya agar sesuai dengan berbagai media, seperti email, pesan langsung, panggilan telepon, chatbot, media sosial komentar dan situs web palsu.
Penyerang bahkan dapat menggunakan keluaran ChatGPT, bersama dengan spoofing suara berbasis AI dan perangkat lunak pembuatan gambar, untuk membuat kampanye phishing deepfake yang canggih.
3. Paparan data sensitif
Tanpa pendidikan dan pelatihan keamanan yang tepat, pengguna ChatGPT dapat secara tidak sengaja membahayakan informasi sensitif. Selama satu minggu di awal tahun 2023, karyawan di perusahaan dengan rata-rata 100.000 orang memasukkan data bisnis rahasia ke ChatGPT sebanyak 199 kali, menurut penelitian dari vendor keamanan data Cyberhaven.
Pengguna mungkin tidak menyadari bahwa, alih-alih merahasiakan masukan mereka, versi ChatGPT yang tersedia untuk umum menggunakannya untuk mempelajari dan menanggapi permintaan di masa mendatang. Catatan: Integrasi API ChatGPT tingkat perusahaan dapat menjaga privasi data.
Peneliti Cyberhaven menyarankan, misalnya, skenario berikut: Bayangkan seorang eksekutif meminta ChatGPT membuat slide PowerPoint untuk presentasi internal dan menyalin-tempel dokumen strategi perusahaan ke dalam aplikasi untuk referensi.
Permintaan ChatGPT di masa mendatang tentang prioritas strategis perusahaan – bahkan mungkin dari pengguna di perusahaan saingan – dapat memperoleh detail langsung dari dokumen strategi perusahaan swasta yang dibagikan oleh eksekutif. Itulah risiko keamanan chatGPT yang ketiga mengenai paparan data sensitif.
4. Penjahat dunia maya yang lebih terampil
AI generatif kemungkinan akan memiliki banyak manfaat pendidikan yang positif, seperti meningkatkan pelatihan untuk analis keamanan tingkat pemula. Namun, di sisi lain, ChatGPT juga dapat memberikan calon peretas jahat cara untuk membangun keterampilan mereka secara efisien dan efektif.
Misalnya, pelaku ancaman yang tidak berpengalaman mungkin bertanya kepada ChatGPT cara meretas situs web atau menyebarkan ransomware. Seperti disebutkan sebelumnya, kebijakan OpenAI bertujuan untuk mencegah chatbot mendukung aktivitas yang jelas-jelas ilegal.
Namun, dengan menyamar sebagai penguji pena, peretas jahat mungkin dapat membingkai ulang pertanyaan sedemikian rupa sehingga ChatGPT merespons dengan petunjuk langkah demi langkah yang mendetail.
Alat AI generatif, seperti ChatGPT, dapat membantu jutaan penjahat dunia maya baru memperoleh kemahiran teknis, yang mengarah ke peningkatan tingkat risiko keamanan secara keseluruhan.
5. Serangan API
Karena jumlah Application Programming Interface (API) di perusahaan terus bertambah secara eksponensial, demikian pula jumlah serangan API. Menurut peneliti di perusahaan keamanan API, Salt Security, jumlah penyerang unik yang menargetkan API pelanggan meningkat 874% dalam enam bulan terakhir di tahun 2022 saja.
Analis di Forrester telah memperkirakan penjahat dunia maya pada akhirnya dapat menggunakan AI generatif untuk menemukan kerentanan unik API — sebuah proses yang sebaliknya membutuhkan waktu dan energi yang signifikan.
Secara teoritis, penyerang mungkin dapat meminta ChatGPT untuk meninjau dokumentasi API, mengumpulkan informasi, dan menyusun kueri API, dengan tujuan mengungkap dan mengeksploitasi kelemahan secara lebih efisien dan efektif.
6. Penggelapan Identitas
Selain penipuan, penjahat cyber juga dapat menggunakan ChatGPT untuk melakukan penggelapan identitas. Penjahat cyber dapat menggunakan ChatGPT untuk menciptakan profil palsu yang menyerupai manusia, dan kemudian menggunakan profil ini untuk melakukan aksi kejahatan yang lain, seperti mengirimkan email spam atau mencuri informasi pribadi.
7. Penyebaran pesan yang tidak pantas
Salah satu contoh penggunaan ChatGPT untuk menyebarkan pesan yang tidak pantas adalah melalui aplikasi chat atau media sosial. Pengguna ChatGPT dapat menggunakan teknologi ini untuk mengirimkan pesan yang menyerupai manusia kepada pengguna lain, tanpa diketahui bahwa pengguna sebenarnya adalah sebuah bot.
Pesan-pesan ini dapat berisi konten kebencian, pornografi, atau tawaran penipuan yang tidak pantas. Selain itu, penggunaan ChatGPT untuk menyebarkan pesan yang tidak pantas dapat terjadi dalam bentuk lain, seperti dalam kasus deepfake.
Pengguna ChatGPT dapat menggunakan teknologi ini untuk menghasilkan rekaman suara atau video yang menyerupai manusia, tetapi sebenarnya adalah palsu. Rekaman-rekaman ini dapat digunakan untuk menyebarkan pesan yang tidak pantas atau untuk menipu orang lain. Demikianlah pembahasan mengenai Risiko keamanan ChatGPT di perusahaan. Semoga kedepannya kita terhindar dari risiko keamanan yang ada dari teknologi terbaru.