SAN FRANCISCO: Alphabet Inc memperingatkan karyawannya tentang cara mereka menggunakan chatbot, termasuk Bard miliknya, pada saat yang sama mereka memasarkan program tersebut ke seluruh dunia, kata empat orang yang mengetahui masalah tersebut kepada Reuters.
Induk Google menyarankan karyawannya untuk tidak memasukkan materi rahasianya ke dalam chatbot AI, kata orang-orang tersebut, dan perusahaan tersebut mengonfirmasinya, dengan mengutip kebijakan yang sudah lama ada dalam mengamankan informasi.
Chatbots, termasuk Bard dan ChatGPT, adalah program yang terdengar seperti manusia yang menggunakan kecerdasan buatan generatif untuk melakukan percakapan dengan pengguna dan menjawab berbagai perintah. Hakim manusia dapat membaca obrolan, dan para peneliti telah menemukan bahwa AI serupa dapat mereproduksi data yang diserapnya selama pelatihan, sehingga menimbulkan risiko kebocoran.
Alphabet juga memperingatkan para insinyurnya untuk menghindari penggunaan langsung kode komputer yang dapat menghasilkan chatbot, kata beberapa sumber.
Saat dimintai komentar, perusahaan tersebut mengatakan Bard mungkin memberikan saran kode yang tidak diinginkan, namun tetap membantu pemrogram. Google juga mengatakan pihaknya berupaya transparan mengenai keterbatasan teknologinya.
Kekhawatiran tersebut menunjukkan bagaimana Google ingin menghindari kerugian bisnis akibat perangkat lunak yang diluncurkannya dalam persaingan dengan ChatGPT. Yang dipertaruhkan dalam persaingan Google melawan pendukung ChatGPT, OpenAI dan Microsoft Corp, adalah investasi miliaran dolar serta pendapatan periklanan dan cloud yang belum pernah terjadi sebelumnya dari program AI baru.
Kehati-hatian Google juga mencerminkan apa yang menjadi standar keamanan bagi perusahaan, yaitu memperingatkan stafnya agar tidak menggunakan program chat yang tersedia untuk umum.
Semakin banyak perusahaan di seluruh dunia yang membatasi penggunaan chatbot AI, termasuk Samsung, Amazon.com, dan Deutsche Bank, kata perusahaan-perusahaan tersebut kepada Reuters. Apple, yang tidak membalas permintaan komentar, tampaknya juga membalasnya.
Sekitar 43 persen profesional menggunakan ChatGPT atau alat AI lainnya pada bulan Januari, seringkali tanpa memberi tahu atasan mereka, menurut survei terhadap hampir 12.000 responden, termasuk dari perusahaan-perusahaan terkemuka di AS, yang dilakukan oleh situs jaringan Fishbowl.
Pada bulan Februari, Google mengatakan kepada staf yang menguji Bard sebelum peluncurannya untuk tidak memberikan informasi internal, Insider melaporkan. Sekarang, Google meluncurkan Bard ke lebih dari 180 negara dan dalam 40 bahasa sebagai batu loncatan untuk kreativitas, dan peringatannya juga mencakup saran kode.
Google mengatakan kepada Reuters bahwa pihaknya telah melakukan diskusi rinci dengan komisi perlindungan data Irlandia dan menjawab pertanyaan regulator, menyusul laporan Politico pada hari Selasa bahwa perusahaan tersebut menunda peluncuran Bard di Uni Eropa minggu ini sambil menunggu informasi lebih lanjut tentang dampak chatbot terhadap privasi.
KEKHAWATIRAN TENTANG INFORMASI SENSITIF
Teknologi tersebut dapat membuat email, dokumen, bahkan perangkat lunak itu sendiri, yang menjanjikan untuk mempercepat tugas secara signifikan. Namun, konten ini mungkin berisi misinformasi, data sensitif, atau bahkan bagian berhak cipta dari novel “Harry Potter”.
Pemberitahuan privasi Google yang diperbarui pada 1 Juni juga menyatakan, “Jangan sertakan informasi rahasia atau sensitif dalam percakapan Bard Anda.”
Beberapa perusahaan telah mengembangkan perangkat lunak untuk mengatasi masalah tersebut. Misalnya, Cloudflare, yang melindungi situs web dari serangan siber dan menawarkan layanan cloud lainnya, memasarkan kemampuan bagi bisnis untuk menandai dan membatasi aliran data tertentu secara eksternal.
Google dan Microsoft juga menawarkan alat percakapan kepada pelanggan bisnis dengan harga lebih tinggi, namun tidak menyerap data ke dalam model AI publik. Pengaturan default di Bard dan ChatGPT adalah untuk menyimpan riwayat percakapan pengguna, yang dapat dipilih untuk dihapus oleh pengguna.
Masuk akal jika perusahaan tidak ingin staf mereka menggunakan chatbot publik untuk bekerja, kata Yusuf Mehdi, kepala pemasaran konsumen Microsoft.
“Perusahaan mengambil sikap yang cukup konservatif,” kata Mehdi, menjelaskan bagaimana chatbot Bing gratis dari Microsoft dibandingkan dengan perangkat lunak perusahaannya. “Di sana, kebijakan kami jauh lebih ketat.”
Microsoft menolak berkomentar mengenai apakah mereka mempunyai larangan umum terhadap staf untuk memasukkan informasi rahasia ke dalam program AI publik, termasuk program AI miliknya, meskipun eksekutif lain di sana mengatakan kepada Reuters bahwa dia secara pribadi membatasi penggunaannya.
CEO Cloudflare Matthew Prince mengatakan mengetikkan hal-hal rahasia ke dalam chatbots seperti membiarkan sekelompok mahasiswa PhD kehilangan semua catatan pribadi Anda.
(Laporan oleh Jeffrey Dastin dan Anna Tong di San Francisco; Disunting oleh Kenneth Li dan Nick Zieminski)