Itu hanya pekerja magang yang berbakat

Rantai pasokan, ketahanan, dan aksesibilitas yang dimodernisasi -- prediksi AI untuk tahun 2023

Kecerdasan buatan

Model kecerdasan buatan (AI) telah menghasilkan banyak perhatian sebagai alat yang berharga untuk segala hal mulai dari memotong biaya dan meningkatkan pendapatan hingga bagaimana mereka dapat memainkan peran penting dalam pengamatan terpadu.

Namun, sebanyak nilai yang diberikan AI, penting untuk diingat bahwa AI adalah pekerja magang di tim Anda. Magang yang brilian, tentu saja — cerdas, pekerja keras, dan secepat kilat — tetapi juga sedikit terlalu percaya diri dengan pendapatnya, meskipun itu sepenuhnya salah.

Model AI profil tinggi seperti ChatGPT OpenAI dan Bard Google telah diketahui hanya memimpikan “fakta” ketika mereka tampaknya tidak yakin tentang bagaimana melanjutkannya. Dan contoh-contoh itu tidak terlalu langka: “halusinasi” AI adalah masalah yang cukup umum dan dapat berkontribusi pada konsekuensi mulai dari tanggung jawab hukum dan nasihat medis yang buruk hingga penggunaannya dalam memulai serangan cyber rantai pasokan.

Dengan kemajuan terbaru dalam Model Bahasa Besar (LLM) seperti ChatGPT, seiring dengan kecepatan organisasi mengintegrasikan AI ke dalam proses mereka, penggunaan AI untuk berbagai fungsi hanya akan menjadi lebih umum. Observabilitas, bidang yang berkembang pesat yang menggabungkan pemantauan, visibilitas, dan otomatisasi untuk memberikan penilaian komprehensif tentang keadaan sistem, adalah salah satu contohnya.

Namun tidak peduli bagaimana AI diterapkan, penting untuk diingat bahwa kepercayaan tetap menjadi elemen yang hilang dalam adopsi AI. Model tidak diragukan lagi menambah nilai, tetapi, seperti magang yang paling produktif sekalipun, Anda masih perlu memastikan untuk memeriksa pekerjaannya.

Pastikan Kepercayaan pada Sumber Data AI

Alasan mengapa film Matrix dan Terminator begitu menakutkan bukanlah karena AI memiliki pendapat, tetapi karena AI membuat keputusannya sendiri. Jika sebuah program komputer dengan kekuatan itu membuat keputusan yang salah, konsekuensinya bisa mengerikan. Pada skala yang tidak terlalu dramatis, inilah realitas ChatGPT saat ini dan sepupu dekatnya.

Kami belum berada pada tahap di mana kami dapat melepaskan tangan kami dari kemudi dan membiarkan AI mengambil kendali. Tapi kami sedang dalam perjalanan. Jadi, bagaimana kita bisa memastikan bahwa kita bisa mempercayai pendapat AI?

Ini dimulai dengan kemampuan untuk mempercayai sumber data tempat model AI dilatih. Tim observasi, misalnya, perlu diajari cara mempertahankan pengawasan dan kontrol pelatihan AI untuk memastikan mereka mendapatkan kembali analisis dan interpretasi data yang akurat dan dapat dipercaya.

Halusinasi AI dalam konteks ini tidak disebabkan oleh input data yang salah. Kemungkinan besar AI salah menafsirkan data itu. Model AI dirancang untuk belajar saat mereka pergi — sebagai lawan dari memiliki semua pengetahuan mereka diprogram sebelumnya — jadi semakin sedikit sistem harus membaca yang tersirat dalam menilai keadaan jaringan, semakin sedikit kesempatan untuk berhalusinasi dan menarik kesimpulan yang salah. Semakin lengkap data inputnya, semakin dapat diandalkan pendapatnya.

Runbooks Menawarkan Model untuk Memeriksa Pekerjaan AI

Dalam pengamatan, menggunakan runbook untuk otomatisasi jaringan dapat mengatasi beberapa masalah kepercayaan tetapi verifikasi, menggabungkan kecepatan AI dengan pengalaman dan pengetahuan internal. Runbook memanfaatkan keahlian orang-orang di staf untuk memberikan respons otomatis terhadap masalah di jaringan.

AI dapat menjalankan daftar skenario jauh lebih cepat daripada manusia mana pun, dan dapat memberikan opsi untuk mengambil tindakan. Tetapi kami belum dapat mempercayai bahwa AI memiliki semua informasi yang benar atau telah menarik kesimpulan yang benar. Itu karena “pemikiran” AI terjadi di semacam kotak hitam. Keterjelasan — kemampuan AI untuk menjelaskan bagaimana ia mencapai kesimpulan tertentu — masih dalam proses, terutama untuk model yang lebih maju. Alasan model AI bisa buram.

Tetapi mesin logika dalam runbook otomatis adalah serangkaian langkah yang dapat diprediksi dan transparan. Anda dapat melihat blok bangunan dan memahami bagaimana keputusan dibuat, yang memungkinkan organisasi untuk mempercayai penggunaan otomatisasi mereka. Kami tidak dapat mempercayai bahwa AI memiliki semua informasi yang benar, tetapi kami dapat memeriksa pekerjaannya di runbook sebelum melanjutkan dengan solusi apa pun yang direkomendasikannya.

AI Terus Belajar dan Tumbuh

AI terus meningkat, tetapi belum siap untuk dipercaya sepenuhnya, juga tidak dapat diterapkan secara umum. Perusahaan sedang membangun sistem dari berbagai produk dan membutuhkan AI untuk tujuan yang sangat spesifik. Model AI harus dilatih untuk tujuan tersebut. Hanya memberikan pekerjaan ke AI serba guna tidak akan menyelesaikan masalah Anda. Anda masih perlu membangun fondasi telemetri fidelitas penuh untuk pelatihan dan menyesuaikan AI ke dalam model yang Anda jalankan. Dan kemudian pastikan untuk memeriksa pekerjaannya dengan cara yang andal, seperti dengan runbook.

Kunci untuk masa depan yang dekat adalah mengintegrasikan AI dengan hati-hati untuk memungkinkan organisasi memperoleh manfaat penuhnya.

Kredit gambar: AlienCat/depositphotos.com

Payal Kindiger, adalah direktur senior, produk di Riverbed. Payal bertanggung jawab atas strategi masuk ke pasar dan eksekusi untuk portofolio produk Alluvio Riverbed. Sebelum bergabung dengan Riverbed Payal telah menjabat sebagai pemimpin Pemasaran global dan ahli strategi bisnis dengan pengalaman lebih dari 20 tahun di perusahaan B2B, startup dan Hi-Tech, termasuk Resolve Systems dan Deloitte. Lulusan UCLA dan Kellogg School of Management (Northwestern University), semangatnya adalah menjadi katalisator pertumbuhan bagi perusahaan-perusahaan inovatif. Area fokus untuk Payal meliputi Manajemen Kinerja Jaringan, Observabilitas Terpadu, AIOps, dan lainnya. Payal menikmati berlayar, bepergian, dan menghabiskan waktu bersama keluarganya.

Author: Kenneth Henderson