Berkat kemajuan terbaru dalam kecerdasan buatan, alat baru seperti Chat GPT memukau konsumen dengan kemampuannya membuat tulisan yang menarik berdasarkan permintaan dan perintah manusia.

Meskipun alat bertenaga AI ini jauh lebih baik dalam menghasilkan tanggapan yang kreatif dan terkadang lucu, sering kali alat tersebut menyertakan informasi yang tidak akurat.

Misalnya, pada bulan Februari ketika Microsoft meluncurkan alat obrolan Bing-nya, yang dibangun menggunakan teknologi GPT-4 yang dibuat oleh OpenAI yang didukung Microsoft, orang-orang memperhatikan bahwa alat tersebut memberikan jawaban yang salah selama demo terkait laporan pendapatan keuangan. Seperti alat bahasa AI lainnya, termasuk perangkat lunak serupa dari Google

, fitur obrolan Bing kadang-kadang dapat menyajikan fakta palsu yang mungkin diyakini pengguna sebagai kebenaran dasar, sebuah fenomena yang oleh para peneliti disebut sebagai “halusinasi”.

Masalah dengan fakta ini tidak memperlambat perlombaan AI antara dua raksasa teknologi.

Pada hari Selasa, Google mengumumkan akan membawa teknologi obrolan bertenaga AI ke Gmail dan Google Docs, memungkinkannya membantu menulis email atau dokumen. Pada hari Kamis, Microsoft mengatakan bahwa aplikasi bisnis populernya seperti Word dan Excel akan segera dibundel dengan teknologi mirip ChatGPT yang dijuluki Copilot.

Tapi kali ini, Microsoft menyebut teknologinya sebagai “salah yang berguna”.

Dalam presentasi online tentang fitur Copilot baru, eksekutif Microsoft mengemukakan kecenderungan perangkat lunak untuk menghasilkan respons yang tidak akurat, tetapi menganggapnya sebagai sesuatu yang dapat berguna. Selama orang-orang menyadari bahwa tanggapan Copilot bisa ceroboh dengan fakta, mereka dapat mengedit ketidakakuratan dan lebih cepat mengirim email atau menyelesaikan slide presentasi mereka.

Misalnya, jika seseorang ingin membuat email yang mengucapkan selamat ulang tahun kepada anggota keluarga, Copilot tetap dapat membantu meskipun mencantumkan tanggal lahir yang salah. Dalam pandangan Microsoft, fakta bahwa alat yang menghasilkan teks menghemat waktu seseorang dan karena itu berguna. Orang hanya perlu lebih berhati-hati dan memastikan teks tidak mengandung kesalahan.

Para peneliti mungkin tidak setuju.

Memang, beberapa teknolog seperti Noah Giansiracusa dan Gary Marcus telah menyuarakan keprihatinan bahwa orang-orang mungkin terlalu percaya pada AI modern, mengingat alat saran seperti ChatGPT hadir ketika mereka mengajukan pertanyaan tentang kesehatan, keuangan, dan topik berisiko tinggi lainnya.

“Pagar toksisitas ChatGPT mudah dihindari oleh mereka yang bertekad menggunakannya untuk kejahatan dan seperti yang kita lihat awal pekan ini, semua mesin pencari baru terus berhalusinasi,” tulis keduanya dalam opini Time baru-baru ini. “Tapi begitu kita melewati kegelisahan hari pembukaan, yang benar-benar penting adalah apakah ada pemain besar yang dapat membangun kecerdasan buatan yang benar-benar dapat kita percayai.”

Tidak jelas seberapa andal Copilot dalam praktiknya.

Kepala ilmuwan Microsoft dan rekan teknis Jaime Teevan mengatakan bahwa ketika Copilot “melakukan kesalahan atau memiliki bias atau disalahgunakan”, Microsoft memiliki “mitigasi”. Selain itu, Microsoft akan menguji perangkat lunak dengan hanya 20 pelanggan korporat pada awalnya sehingga dapat mengetahui cara kerjanya di dunia nyata, jelasnya.

“Kami akan membuat kesalahan, tetapi ketika kami melakukannya, kami akan mengatasinya dengan cepat,” kata Teevan.

Taruhan bisnis terlalu tinggi bagi Microsoft untuk mengabaikan antusiasme atas teknologi AI generatif seperti ChatGPT. Tantangannya adalah bagi perusahaan untuk menggabungkan teknologi tersebut sehingga tidak menimbulkan ketidakpercayaan publik terhadap perangkat lunak atau menyebabkan bencana hubungan masyarakat yang besar.

“Saya mempelajari AI selama beberapa dekade dan saya merasakan tanggung jawab yang besar dengan alat baru yang canggih ini,” kata Teevan. “Kami memiliki tanggung jawab untuk menyerahkannya ke tangan orang-orang dan melakukannya dengan cara yang benar.”

Leave a Reply

Your email address will not be published. Required fields are marked *