Microsoft Akui AI Copilot Akses Email Rahasia Tanpa Izin

Aa1weskj
Aa1weskj

Masalah Keamanan pada AI Copilot Microsoft

Microsoft mengungkapkan bahwa layanan AI Copilot yang dimiliki perusahaan telah mengungkapkan email rahasia pengguna. Penyebab dari kejadian ini adalah adanya bug dalam sistem Office. Bug tersebut memungkinkan AI Copilot untuk merangkum email rahasia pelanggan selama beberapa minggu tanpa izin.

Kerentanan ini pertama kali dilaporkan oleh Bleeping Computer. Menurut laporan tersebut, Copilot Chat dapat membaca dan menganalisis isi email sejak Januari, bahkan ketika pelanggan memiliki kebijakan pencegahan kehilangan data yang bertujuan mencegah informasi sensitif masuk ke dalam model bahasa besar (LLM) Microsoft.

Fitur Copilot Chat memungkinkan pengguna Microsoft 365 berbayar untuk menggunakan fitur obrolan berbasis AI di berbagai produk perangkat lunak Office seperti Word, Excel, dan PowerPoint.

Menurut Microsoft, bug yang dapat dilacak melalui kode CW1226324 menyebabkan draf dan pesan email terkirim yang diberi label rahasia diproses secara tidak benar oleh obrolan Microsoft 365 Copilot. Perusahaan telah mulai meluncurkan perbaikan untuk bug ini pada awal Februari. Namun, juru bicara Microsoft belum memberikan respons terhadap permintaan komentar, termasuk pertanyaan tentang jumlah pelanggan yang terkena dampak dari bug tersebut.

Beberapa waktu lalu, departemen TI Parlemen Eropa memberitahu para anggota parlemen bahwa mereka telah memblokir fitur AI bawaan pada perangkat kerja. Alasan dari tindakan ini adalah kekhawatiran bahwa alat AI tersebut dapat mengunggah korespondensi yang bersifat rahasia ke cloud.

Dampak dan Tindakan yang Diambil

Bug yang terjadi ini menunjukkan pentingnya keamanan data dalam penggunaan teknologi AI. Penggunaan AI dalam lingkungan bisnis atau pemerintahan sangat rentan terhadap risiko kebocoran data jika tidak dikelola dengan baik. Hal ini menjadi peringatan bagi perusahaan-perusahaan lain untuk lebih waspada terhadap potensi ancaman yang muncul dari penggunaan teknologi AI.

Pihak Microsoft telah mengambil langkah-langkah untuk memperbaiki bug tersebut. Meskipun demikian, masih ada pertanyaan mengenai seberapa besar dampak dari kejadian ini terhadap pengguna dan bagaimana proses perbaikan akan dilakukan.

Selain itu, kejadian ini juga memicu diskusi tentang kebijakan keamanan data dan perlunya peningkatan kesadaran pengguna terhadap risiko penggunaan teknologi AI. Khususnya bagi organisasi yang mengandalkan sistem digital untuk menyimpan dan mengelola informasi sensitif.

Kesimpulan

Peristiwa kebocoran data melalui AI Copilot Microsoft menunjukkan betapa pentingnya menjaga keamanan data dalam era digital. Perusahaan seperti Microsoft harus terus meningkatkan keamanan sistem mereka agar tidak terjadi kejadian serupa di masa depan. Sementara itu, pengguna juga perlu lebih waspada dan memahami risiko yang mungkin muncul dari penggunaan teknologi AI dalam aktivitas sehari-hari.

Pos terkait