Jakarta –
Akamai Technologies Memperkenalkan implementasi Nvidia AI Grid. Lewat kerja sama Bersama Nvidia, Akamai Mendorong pergeseran infrastruktur AI Bersama model terpusat Hingga sistem terdistribusi berbasis jaringan edge.
Langkah ini menjadi Pada Bersama Pembuatan Akamai Inference Cloud yang diperkenalkan Sebelumnya. Untuk implementasinya, Akamai mengoperasikan ribuan GPU Nvidia RTX PRO 6000 Blackwell Server Edition Untuk mendukung beban kerja AI, termasuk AI berbasis agen dan Inisiatif real-time.
Akamai menyebut pendekatan ini sebagai upaya melampaui Konsep AI factory yang Di ini Berorientasi Ke pelatihan model Hingga pusat data terpusat. Bersama AI Grid, proses inferensi–yakni eksekusi model AI–dipindahkan lebih Didekat Hingga User Lewat jaringan edge yang tersebar Hingga lebih Bersama 4.400 lokasi Internasional.
SCROLL TO CONTINUE WITH CONTENT
“Pabrik AI telah dirancang khusus Untuk beban kerja pelatihan dan model terdepan — dan infrastruktur terpusat Berencana terus Memberi tokenomics terbaik Untuk Perkara Pidana Hukum penggunaan tersebut,” kata Adam Karon, Chief Operating Officer dan General Manager, Cloud Technology Group, Akamai, Untuk keterangan yang diterima detikINET.
Pendekatan ini ditujukan Untuk menekan latensi dan Meningkatkan efisiensi biaya. Akamai mengandalkan orkestrasi beban kerja Untuk mengatur distribusi komputasi secara dinamis, termasuk penggunaan Metode seperti caching semantik dan routing cerdas Untuk mengoptimalkan Penampilan.
Secara teknis, Akamai menggabungkan infrastruktur edge Bersama klaster GPU berkapasitas tinggi Hingga pusat data. Kombinasi ini memungkinkan pemrosesan AI skala besar tetap berjalan Hingga core, Sambil inferensi Bersama kebutuhan respons cepat dilakukan Hingga edge.
Beberapa sektor yang menjadi target implementasi mencakup game, layanan keuangan, media, hingga ritel. Misalnya, studio game dapat Memperkenalkan Komitmen NPC berbasis AI Bersama latensi Hingga bawah 50 milidetik, Sambil sektor keuangan memanfaatkan sistem ini Untuk deteksi Mengambil Keuntungan dan personalisasi layanan secara real-time.
Hingga sisi lain, penyiaran dan media dapat menggunakan jaringan ini Untuk transkoding dan dubbing berbasis AI secara langsung, tanpa jeda signifikan.
Nvidia menyebut implementasi ini membuka Potensi Untuk Pembuatan Inisiatif AI generatif, agen, hingga AI fisik yang membutuhkan respons cepat dan skalabilitas Internasional.
Akamai menilai model terdistribusi ini menjadi evolusi berikutnya Bersama infrastruktur AI, seiring meningkatnya kebutuhan inferensi dibandingkan pelatihan model. Bersama memindahkan komputasi lebih Didekat Hingga User, perusahaan berharap dapat Memperkenalkan Penampilan yang lebih stabil sekaligus efisiensi operasional Untuk pelanggan korporat.
(asj/asj)
Artikel ini disadur –> Inet.detik.com Indonesia: Pakai Ribuan RTX Pro 6000











