ChatGPT
ChatGPT dapat menimbulkan risiko nyata bagi bisnis yang menggunakan chatbot jika tidak hati-hati dan waspada IBTimes UK

Kekhawatiran baru-baru ini muncul terkait penggunaan ChatGPT dan bahaya yang muncul akibat penggunaan sistem chatbot AI. Ini termasuk bisnis yang menggunakan ChatGPT karena mereka rentan terhadap serangan dunia maya karena kemampuan ChatGPT untuk menghasilkan kode, yang menyebabkan pelanggaran data.

Kemampuan ChatGPT untuk membantu organisasi dengan tingkat pertumbuhan dan efisiensi telah membuatnya menjadi komoditas populer di kalangan perusahaan. Chatbot baru-baru ini mendapat pujian besar dari salah satu pendiri Microsoft , Bill Gates , yang sangat percaya pada kegunaan AI di masa mendatang.

Kekhawatiran terkait ChatGPT untuk bisnis, seperti yang diungkapkan oleh investigasi oleh Cyberhaven, adalah bahwa 11 persen informasi yang disalin dan ditempelkan ke chatbot oleh staf adalah data sensitif. Penyelidikan mengungkapkan kasus yang mengkhawatirkan di mana seorang praktisi medis memasukkan informasi pribadi seorang pasien ke dalam chatbot, dengan dampak dari masalah tersebut masih belum diketahui.

Masalah privasi yang berkembang karena ChatGPT telah membuat organisasi terkenal seperti Amazon , JP Morgan, dan Accenture membatasi penggunaan chatbot oleh karyawan mereka.

Richard Forrest, Direktur Hukum firma pelanggaran data Inggris terkemuka, Hayes Connor, telah memberikan pemikirannya tentang keputusan ChatGPT dalam lanskap bisnis, mengatakan "ChatGPT, dan Model Bahasa Besar (LLM) serupa lainnya, masih sangat baru. Ini berarti kita berada di wilayah yang belum dipetakan dalam hal kepatuhan bisnis, dan peraturan seputar penggunaannya."

Dia melanjutkan dengan menambahkan bahwa sifat ChatGPT "telah memicu diskusi berkelanjutan tentang integrasi dan pengambilan data dalam sistem ini. Jika layanan ini tidak memiliki perlindungan data dan tindakan keamanan yang sesuai, maka data sensitif dapat dikompromikan secara tidak sengaja."

Forrest mengatakan banyak orang masih tidak benar-benar memahami cara kerja teknologi ini dan bagaimana fungsinya yang mengarah pada "penyerahan informasi pribadi secara tidak sengaja. Terlebih lagi, antarmuka itu sendiri mungkin belum tentu sesuai dengan GDPR."

Dia menekankan bahwa perusahaan yang stafnya menggunakan ChatGPT tanpa mengikuti pelatihan yang diperlukan dapat "secara tidak sadar mengekspos diri mereka sendiri terhadap pelanggaran data GDPR, yang mengakibatkan denda yang signifikan, kerusakan reputasi, dan tindakan hukum. Dengan demikian, penggunaan sebagai alat di tempat kerja tanpa pelatihan yang tepat dan langkah-langkah pengaturan adalah keliru."

Forrest percaya tanggung jawab utama ada pada perusahaan karena mereka harus "mengambil tindakan untuk memastikan peraturan dibuat dalam bisnis mereka, dan untuk mendidik karyawan tentang bagaimana chatbot AI mengintegrasikan dan mengambil data."

Di Inggris, salah satu alasan terbesar pelanggaran data di berbagai sektor adalah akibat kesalahan manusia. Dengan AI yang lebih banyak digunakan dalam lanskap perusahaan, diperlukan pelatihan yang lebih besar dan prioritas tinggi.

Mengenai tanggung jawab Inggris, Forrest percaya bahwa sangat penting bagi negara untuk "terlibat dalam diskusi untuk pengembangan pendekatan pro-inovasi terhadap regulasi AI."

Agar bisnis tetap waspada terhadap bahaya ChatGPT dengan menghindari kompromi data dan pelanggaran GDPR, Forrest menyarankan agar mereka menganggap apa pun yang dimasukkan dapat diakses di domain publik. Selain itu, Forrest percaya bahwa karyawan tidak boleh memasukkan data internal atau kode perangkat lunak.

Kiat lain dari Forrest termasuk memastikan perjanjian kerahasiaan direvisi sehingga mencakup penggunaan AI. Juga, klausul eksplisit harus dibuat dan dimasukkan ke dalam kontrak staf perusahaan.

Untuk membantu tetap waspada, Forrest yakin organisasi harus mengadakan sesi pelatihan yang memadai mengenai penggunaan AI serta memiliki kebijakan perusahaan dan panduan pengguna karyawan.