OpenAI melakukan investasi besar-besaran untuk memastikan rantai pasokan komputasi AI yang kuat, baru-baru ini memasuki perjanjian baru dengan Amazon Web Services (AWS) sebagai bagian dari strategi multi-cloud-nya. Ini mengikuti penghentian kemitraan eksklusifnya dengan Microsoft, yang membuat OpenAI mengalokasikan $250 miliar untuk Microsoft, $300 miliar untuk Oracle, dan $38 miliar untuk AWS dalam kontrak baru yang berdurasi beberapa tahun. Meskipun kesepakatan dengan AWS adalah yang terkecil, ini merupakan bagian penting dari strategi OpenAI untuk mendiversifikasi sumber daya cloud-nya.
Tindakan yang diambil oleh OpenAI menyoroti semakin langkanya akses ke GPU berkinerja tinggi, yang kini tidak lagi tersedia sesuai permintaan. Sebaliknya, mereka memerlukan komitmen finansial jangka panjang yang signifikan. Perjanjian dengan AWS memberikan OpenAI akses ke sejumlah besar GPU NVIDIA, termasuk GB200 dan GB300 terbaru, bersama dengan puluhan juta CPU, yang penting untuk melatih model-model masa depan dan menangani beban kerja inferensi yang luas dari aplikasi saat ini seperti ChatGPT.
Seperti yang dicatat oleh salah satu pendiri dan CEO OpenAI, Sam Altman, skala teknologi AI canggih memerlukan sumber daya komputasi yang substansial dan dapat diandalkan. Strategi pengeluaran agresif ini mendorong reaksi kompetitif dari penyedia cloud besar. Meskipun AWS adalah penyedia cloud terbesar, Microsoft dan Google baru-baru ini mengalami pertumbuhan pendapatan cloud yang lebih cepat, sering kali dengan menarik pelanggan AI baru. Kesepakatan dengan AWS bertujuan untuk mengamankan beban kerja AI yang signifikan dan menunjukkan kemampuannya untuk mengelola operasi AI berskala besar, mengklaim dapat menjalankan kluster dengan lebih dari 500.000 chip.
AWS tidak hanya menawarkan solusi server standar; ia sedang mengembangkan arsitektur khusus untuk OpenAI, memanfaatkan EC2 UltraServers untuk menghubungkan GPU untuk jaringan latensi rendah yang diperlukan untuk tugas pelatihan yang luas. Menurut Matt Garman, CEO AWS, ketersediaan sumber daya komputasi yang dioptimalkan secara langsung menggambarkan posisi unik AWS untuk mendukung beban kerja AI OpenAI yang luas.
Namun, istilah 'langsung' bersifat relatif, karena kapasitas penuh dari perjanjian AI cloud terbaru ini tidak akan beroperasi hingga akhir 2026, dengan kemungkinan ekspansi hingga 2027. Garis waktu ini menjadi pengingat bagi eksekutif yang merencanakan implementasi AI bahwa rantai pasokan perangkat keras itu rumit dan beroperasi dalam garis waktu multi-tahun. Akibatnya, para pemimpin perusahaan harus menyadari bahwa perdebatan tentang membangun versus membeli infrastruktur AI sebagian besar telah diselesaikan, dengan OpenAI berinvestasi besar-besaran dalam perangkat keras sewaan. Tren ini kemungkinan akan mendorong perusahaan lain menuju platform yang dikelola, di mana penyedia cloud mengambil risiko infrastruktur. Selain itu, pergeseran menuju model multi-penyedia mungkin menandakan akhir dari pengadaan AI beban kerja dari satu cloud, karena ketergantungan pada satu vendor menjadi semakin berisiko. Akhirnya, penganggaran AI telah beralih dari masalah TI departemen menjadi perencanaan modal perusahaan, mencerminkan komitmen finansial jangka panjang yang kini terkait dengan pengamanan sumber daya komputasi AI.