Investasi yang melonjak dari perusahaan teknologi besar dalam kecerdasan buatan dan chatbots — di tengah PHK besar-besaran dan penurunan pertumbuhan — telah membuat banyak kepala petugas keamanan informasi berada dalam angin badai.

Dengan ChatGPT OpenAI, Microsoft Bing AI, rencana Google Bard dan Elon Musk untuk chatbotnya sendiri menjadi berita utama, AI generatif merembes ke tempat kerja, dan kepala petugas keamanan informasi perlu mendekati teknologi ini dengan hati-hati dan bersiap dengan langkah-langkah keamanan yang diperlukan.

Teknologi di balik GPT, atau transformer pretrained generatif, ditenagai oleh model bahasa besar (LLM), atau algoritme yang menghasilkan percakapan mirip manusia dari chatbot. Namun tidak setiap perusahaan memiliki GPT sendiri, sehingga perusahaan perlu memantau bagaimana pekerja menggunakan teknologi ini.

Orang-orang akan menggunakan AI generatif jika mereka merasa berguna untuk melakukan pekerjaan mereka, kata Michael Chui, seorang mitra di Institut Global McKinsey, membandingkannya dengan cara pekerja menggunakan komputer atau telepon pribadi.

“Bahkan ketika tidak disetujui atau disetujui oleh TI, orang menganggap [chatbots] berguna,” kata Chui.

“Sepanjang sejarah, kami telah menemukan teknologi yang sangat menarik sehingga individu bersedia membayarnya,” katanya. “Orang-orang membeli ponsel jauh sebelum bisnis berkata, ‘Saya akan menyediakan ini untuk Anda.’ PC serupa, jadi kami melihat hal yang setara sekarang dengan AI generatif.”

Akibatnya, ada “pengejaran” bagi perusahaan dalam hal bagaimana mereka akan mendekati langkah-langkah keamanan, tambah Chui.

Baik itu praktik bisnis standar seperti memantau informasi apa yang dibagikan pada platform AI atau mengintegrasikan GPT yang disetujui perusahaan di tempat kerja, para ahli berpikir ada area tertentu di mana CISO dan perusahaan harus memulai.

Mulailah dengan dasar-dasar keamanan informasi

CISO — yang sudah memerangi kelelahan dan stres — menangani cukup banyak masalah, seperti potensi serangan keamanan siber dan kebutuhan otomasi yang meningkat. Saat AI dan GPT memasuki tempat kerja, CISO dapat memulai dengan dasar-dasar keamanan.

Chui mengatakan perusahaan dapat melisensikan penggunaan platform AI yang ada, sehingga mereka dapat memantau apa yang dikatakan karyawan kepada chatbot dan memastikan bahwa informasi yang dibagikan dilindungi.

“Jika Anda adalah perusahaan, Anda tidak ingin karyawan Anda meminta chatbot yang tersedia untuk umum dengan informasi rahasia,” kata Chui. “Jadi, Anda dapat menempatkan sarana teknis, di mana Anda dapat melisensikan perangkat lunak dan memiliki perjanjian hukum yang dapat ditegakkan tentang ke mana data Anda pergi atau tidak.”

Lisensi penggunaan perangkat lunak dilengkapi dengan pemeriksaan dan keseimbangan tambahan, kata Chui. Perlindungan informasi rahasia, pengaturan tempat penyimpanan informasi, dan panduan tentang cara karyawan dapat menggunakan perangkat lunak — semuanya merupakan prosedur standar ketika perusahaan melisensikan perangkat lunak, AI atau tidak.

“Jika Anda memiliki perjanjian, Anda dapat mengaudit perangkat lunak, sehingga Anda dapat melihat apakah mereka melindungi data dengan cara yang Anda inginkan,” kata Chui.

Sebagian besar perusahaan yang menyimpan informasi dengan perangkat lunak berbasis cloud sudah melakukan ini, kata Chui, jadi maju dan menawarkan platform AI kepada karyawan yang disetujui perusahaan berarti bisnis sudah sejalan dengan praktik industri yang ada.

Cara membuat atau mengintegrasikan GPT yang disesuaikan

Salah satu opsi keamanan bagi perusahaan adalah mengembangkan GPT mereka sendiri, atau mempekerjakan perusahaan yang membuat teknologi ini untuk membuat versi khusus, kata Sameer Penakalapati, chief executive officer di Ceipal, platform akuisisi bakat berbasis AI.

Dalam fungsi tertentu seperti SDM, ada banyak platform dari Ceipal hingga TalentGPT Beamery, dan perusahaan dapat mempertimbangkan rencana Microsoft untuk menawarkan GPT yang dapat disesuaikan. Namun meski biaya semakin tinggi, perusahaan mungkin juga ingin menciptakan teknologinya sendiri.

Jika sebuah perusahaan membuat GPT sendiri, perangkat lunak akan memiliki informasi persis yang ingin diakses oleh karyawan. Sebuah perusahaan juga dapat melindungi informasi yang dimasukkan karyawan ke dalamnya, kata Penakalapati, tetapi bahkan mempekerjakan perusahaan AI untuk menghasilkan platform ini akan memungkinkan perusahaan untuk memberi makan dan menyimpan informasi dengan aman, tambahnya.

Apa pun jalur yang dipilih perusahaan, Penakalapati mengatakan bahwa CISO harus ingat bahwa mesin ini bekerja berdasarkan cara yang telah diajarkan. Penting untuk berhati-hati tentang data yang Anda berikan pada teknologi.

“Saya selalu mengimbau masyarakat untuk memastikan Anda memiliki teknologi yang memberikan informasi berdasarkan data yang tidak bias dan akurat,” kata Penakalapati. “Karena teknologi ini tidak diciptakan secara kebetulan.”

Sumber:

cnbc.com

Leave a Reply

Your email address will not be published. Required fields are marked *