Canonical dan NVIDIA bekerja untuk membuat AI lebih mudah diakses di perusahaan

IBM bertujuan untuk meruntuhkan hambatan untuk adopsi AI

Kecerdasan buatan

Pada tahun 2018, OpenAI melaporkan bahwa jumlah daya komputasi yang digunakan dalam pelatihan AI skala besar telah berlipat ganda setiap 3,4 bulan sejak 2012. Pada waktu yang hampir bersamaan, volume data yang dihasilkan juga meningkat secara dramatis.

Ini berarti infrastruktur perusahaan tujuan umum tradisional tidak dapat memberikan daya komputasi yang diperlukan, juga tidak dapat mendukung petabyte data yang diperlukan untuk melatih model AI yang akurat pada skala ini. Sebaliknya, perusahaan memerlukan perangkat keras khusus yang dirancang untuk beban kerja AI.

Maju ke depan kolaborasi baru antara Canonical dan NVIDIA yang bertujuan untuk mempercepat penerapan proyek AI dalam skala besar dan menjadikan sumber terbuka dapat diakses pada perangkat keras yang efektif untuk pelatihan AI.

Charmed Kubeflow sekarang disertifikasi sebagai bagian dari program Perangkat Lunak NVIDIA DGX-Ready. Kubeflow adalah platform MLOps open-source end-to-end yang berjalan di atas Kubernetes. Ini dirancang untuk mengotomatiskan alur kerja pembelajaran mesin, menciptakan lapisan aplikasi yang andal tempat model dapat dipindahkan ke produksi.

Muncul dengan bundel alat yang menyertakan KServe dan KNative, sehingga kemampuan inferensi dan penyajian ditingkatkan terlepas dari kerangka ML yang digunakan. Kubeflow Terpesona dapat digunakan dengan alat dan kerangka kerja AI seperti Server Inferensi NVIDIA Triton untuk penyajian model guna menyempurnakan tumpukan.

Sistem NVIDIA DGX dibuat khusus untuk kasus penggunaan AI perusahaan. Platform ini menampilkan GPU NVIDIA Tensor Core, yang mengungguli CPU tradisional untuk beban kerja pembelajaran mesin, di samping kemampuan jaringan dan penyimpanan tingkat lanjut. Selain itu, sistem DGX menyertakan NVIDIA AI Enterprise, lapisan perangkat lunak platform NVIDIA AI, yang mencakup lebih dari 50 kerangka kerja dan model pra-pelatihan untuk mempercepat pengembangan.

“Canonical telah bekerja sama dengan NVIDIA untuk memungkinkan perusahaan menjalankan AI dalam skala besar dengan mudah. ​​Bersama-sama, kami memfasilitasi pengembangan model pembelajaran mesin yang dioptimalkan, menggunakan infrastruktur khusus AI, dengan open source MLOps.” kata Andreea Munteanu, manajer produk MLOps di Canonical. “Memperluas kolaborasi ini ke lapisan lain dari tumpukan, untuk memiliki kedua jenis perangkat keras lainnya, serta alat dan kerangka kerja AI seperti NVIDIA Triton Inference Server, akan memungkinkan pengembang mendapatkan keuntungan dari jalur pengembangan yang terintegrasi penuh.”

Anda dapat mengetahui lebih lanjut tentang program DGX-Ready Software di situs NVIDIA dan akan ada webinar bersama Canonical/NVIDIA untuk membahas penerapan AI pada 28 Maret siang ET.

Kredit Foto: NicoElNino/Shutterstock

Author: Kenneth Henderson