Peluang, ancaman dan perlindungan yang dibutuhkan

Peluang, ancaman dan perlindungan yang dibutuhkan

pengenalan suara

Microsoft baru-baru ini menjadi berita utama dengan mengumumkan sedang mengerjakan suatu bentuk kecerdasan buatan (AI) yang disebut VALL-E yang dapat mengkloning suara dari klip audio tiga detik. Bayangkan sekarang AI dapat membuat suara siapa pun mengucapkan kata-kata tanpa orang itu benar-benar berbicara! Bahkan baru-baru ini, Samsung mengumumkan bahwa asisten perangkat lunaknya, Bixby, sekarang dapat mengkloning suara pengguna untuk menjawab panggilan. Secara khusus, Bixby sekarang memungkinkan penutur bahasa Inggris menjawab panggilan dengan mengetik pesan yang diubah Bixby menjadi audio dan diteruskan ke penelepon atas nama mereka.

Teknologi seperti VALL-E dan Bixby menghadirkan kloning suara menjadi kenyataan dan berpotensi menjadi pengubah permainan industri. Istilah kloning suara mengacu pada kemampuan menggunakan AI untuk membuat salinan digital dari suara unik seseorang, termasuk pola bicara, aksen, dan infleksi suara, dengan melatih algoritme dengan sampel ucapan seseorang. Setelah model suara dibuat, hanya teks biasa yang diperlukan untuk menyintesis ucapan seseorang, menangkap dan meniru suara seseorang. Faktanya, banyak jenis perusahaan kloning suara kini diluncurkan, membuat teknologi ini jauh lebih mudah diakses.

Kloning suara berbasis AI, jika dilakukan secara etis, dapat memiliki banyak penerapan yang sangat baik, terutama di industri hiburan. Misalnya, bayangkan Anda dapat mendengarkan suara aktor favorit Anda yang menceritakan daftar belanjaan Anda saat Anda berjalan melewati lorong. Dalam kejadian malang bahwa seorang aktor meninggal di tengah produksi, suara mereka masih bisa “menyelesaikan” film melalui penggunaan suara palsu yang dalam.

Area lain di mana kloning suara dapat bermanfaat adalah membantu individu dengan keterbatasan bicara. Dalam hal ini dimungkinkan untuk membuat suara sintetis yang dapat membantu individu yang mengalami gangguan kemampuan untuk mengekspresikan diri mereka dengan suara yang unik milik mereka. Misalnya, seorang pasien dengan kanker tenggorokan yang mungkin perlu menjalani pengangkatan laring, dapat mengkloning suaranya sebelum operasi untuk mereplikasi suara yang lebih mirip dengan diri mereka yang dulu.

Di sisi lain, ada beberapa masalah nyata dengan teknologi ini yang menjadi arus utama. Di luar masalah etika yang jelas, membuat dan menggunakan replika suara seseorang tanpa izin mereka, dan berpotensi untuk aktivitas jahat, merupakan pelanggaran serius terhadap identitas dan privasi. Ada juga pertimbangan hukum di mana kloning suara dapat digunakan secara jahat untuk mencemarkan nama baik, menipu, atau memberatkan orang. Meskipun pasti ada kasus penipu yang merekam orang tanpa sepengetahuan dan bertentangan dengan keinginan mereka, kami harus menerapkan prosedur persetujuan memilih ikut/menyisih yang sama yang telah menjadi hal biasa untuk pengenalan wajah, setiap kali kami berupaya merekam suara seseorang. Ini adalah satu-satunya cara untuk memungkinkan orang mempertahankan kendali atas pengenal biologis alami mereka yang unik.

Mengenai penipu, potensi penyalahgunaan sangat tinggi. Sampai saat ini, untuk mengkloning suara, Anda memerlukan sejumlah besar rekaman ucapan untuk melatih algoritme. Namun teknologi kloning suara berkembang sangat cepat sehingga saat ini yang diperlukan hanyalah beberapa menit ucapan — atau dalam kasus Microsoft VALL-E, beberapa detik. Artinya, jika scammer membuat Anda berbicara di telepon selama tiga detik, hanya itu yang mereka butuhkan untuk menyintesis suara Anda tanpa persetujuan Anda. Faktanya, FBI telah mengeluarkan peringatan tentang teknologi kloning suara yang digunakan dalam penipuan kakek-nenek, di mana penipu memanggil pasangan lanjut usia dan meniru orang yang dicintai mengatakan bahwa mereka berada di penjara, terjebak di negara asing atau dalam situasi sulit lainnya untuk memeras uang. Sayangnya, kita juga dapat berharap untuk melihat kloning suara digunakan untuk tujuan nakal lainnya, seperti membuat politisi palsu yang membuat pernyataan yang dapat menyebarkan informasi yang salah atau menimbulkan kontroversi.

Pertimbangan penting lainnya adalah kenyataan bahwa banyak organisasi mengandalkan pengenalan suara sebagai bentuk otentikasi biometrik — pikirkan, katakanlah, sebuah fintech baru yang menggunakan pengenalan suara untuk memungkinkan pengguna mengakses akun dan bertukar dana. Dalam hal suara, akan sangat sulit untuk mengatakan mana yang nyata dan mana yang tidak. Saat kloning suara merebak ke dunia nyata — seperti yang diharapkan banyak orang — organisasi ini harus mengambil langkah-langkah untuk memastikan sistem mereka tidak dirusak oleh penggunaan jahat.

Ada dua cara utama organisasi dapat melakukan ini. Salah satunya dengan mengimplementasikan liveness detection, sebuah proses yang sudah banyak digunakan dalam pengenalan wajah. Deteksi liveness menggagalkan upaya pembodohan sistem, dengan memutuskan apakah itu benar-benar orang yang hidup atau spoof — seperti foto atau video atau menggunakan rekaman suara sebagai lawan dari suara langsung. Teknik kedua melibatkan pengadopsian autentikasi multi-faktor (MFA), sehingga jika suara seseorang teridentifikasi, dia akan diminta untuk memberikan bentuk autentikasi kedua seperti kata sandi atau kode sekali pakai yang dikirimkan ke perangkat seluler mereka. . Metode autentikasi sekunder ini tidak mudah (keduanya dapat dicegat) dan dapat menyebabkan gesekan pengguna, tetapi dapat efektif dalam membantu melindungi dari spoof.

Singkatnya, kloning suara adalah sebuah terobosan baru yang menarik yang dapat memberikan banyak manfaat, terutama dalam membantu mereka yang memiliki keterbatasan berbicara. Namun kita perlu berhati-hati dengan teknologi yang menjanjikan ini, karena potensi kewajiban etis dan hukum serta penipuan dapat menjadi signifikan. Inilah sebabnya mengapa organisasi yang telah berinvestasi dalam pengenalan suara sebagai bentuk otentikasi biometrik akan disarankan untuk mengambil tindakan ekstra untuk melindungi dari ancaman penipuan.

Kredit gambar: nevarpp/depositphotos.com

Dr. Mohamed Lazzouni, adalah CTO, Sadar.

Author: Kenneth Henderson