vikaspota.com – Microsoft secara resmi mengumumkan chip akselerator kecerdasan buatan terbarunya bernama Maia 200. Chip generasi terbaru ini dirancang khusus untuk kebutuhan komputasi AI berskala besar. Microsoft menyatakan Maia 200 telah mulai dipasang di sejumlah data center Microsoft Azure di Amerika Serikat. Kehadiran chip ini menjadi bagian dari strategi Microsoft memperkuat infrastruktur AI internal. Maia 200 menggantikan peran generasi sebelumnya, Maia 100. Microsoft mengklaim performa per dollar meningkat hingga 30 persen. Peningkatan ini ditujukan untuk efisiensi operasional cloud. Chip ini difokuskan untuk beban kerja AI modern. Microsoft menilai kebutuhan komputasi AI terus tumbuh pesat. Karena itu, akselerator internal menjadi solusi strategis. Maia 200 diposisikan sebagai fondasi baru AI Azure.
“Baca Juga: Dreame Masuk Pasar TV, Hadirkan Smart TV Mini LED”
Proses Fabrikasi 3nm dan Spesifikasi Komputasi Tinggi
Maia 200 diproduksi menggunakan teknologi proses 3 nanometer dari TSMC. Chip ini memiliki sekitar 140 miliar transistor. Jumlah tersebut mencerminkan kompleksitas desain tingkat lanjut. Dari sisi komputasi, Maia 200 menawarkan performa FP4 hingga 10 petaFLOPS. Angka ini diklaim jauh melampaui akselerator AI generasi sebelumnya. Microsoft menyebut performa tersebut sekitar tiga kali lebih tinggi dibandingkan Amazon Trainium generasi ketiga. Fokus utama Maia 200 adalah komputasi presisi rendah untuk model AI besar. FP4 dan FP8 menjadi format penting dalam pelatihan AI modern. Chip ini dirancang untuk mengoptimalkan inferensi dan pelatihan. Microsoft menargetkan efisiensi tinggi pada beban kerja nyata. Namun, tidak menyajikan perbandingan langsung dengan Maia 100. Informasi tersebut belum diungkap secara detail.
Arsitektur Memori HBM3e dan Cache On-Chip Besar
Salah satu keunggulan utama Maia 200 terletak pada sistem memorinya. Chip ini dibekali memori on-board HBM3e berkapasitas 216GB. Memori tersebut menawarkan bandwidth sangat tinggi hingga 7 terabyte per detik. Bandwidth besar ini penting untuk pemrosesan model AI skala besar. Selain HBM3e, Maia 200 juga memiliki cache SRAM on-chip sebesar 272MB. Cache ini membantu mengurangi latensi akses data. Kombinasi memori dan cache mendukung aliran data masif. Arsitektur ini dirancang untuk menjaga performa tetap stabil. Microsoft mengoptimalkan desain agar cocok untuk model AI modern. Model besar membutuhkan kapasitas memori signifikan. Dengan konfigurasi ini, bottleneck memori dapat diminimalkan. Namun, konsumsi daya chip tergolong tinggi. Maia 200 memiliki TDP hingga 750 watt. Konsumsi ini sejalan dengan akselerator AI kelas data center.
Desain Jaringan Khusus dengan Bandwidth Dua Arah Tinggi
Maia 200 juga membawa inovasi di sisi jaringan. Chip ini menggunakan desain jaringan khusus dengan integrasi NIC. Lapisan transport dirancang langsung ke dalam arsitektur chip. Maia 200 memiliki nama kode internal “Braga”. Microsoft mengklaim bandwidth bi-directional mencapai 2,8 terabyte per detik. Angka ini tergolong sangat besar untuk akselerator AI. Bandwidth tinggi memungkinkan komunikasi antar chip lebih cepat. Hal ini penting dalam klaster AI berskala besar. Model AI modern sering dijalankan secara terdistribusi. Kinerja jaringan menjadi faktor penentu efisiensi. Dengan desain ini, latensi antar node dapat ditekan. Microsoft menargetkan skalabilitas tinggi pada data center. Desain jaringan ini menjadi pembeda utama Maia 200. Integrasi NIC mengurangi ketergantungan pada komponen eksternal.
“Baca Juga: TikTok Tempuh Skema Perusahaan Gabungan di AS”
Klaim Performa Melampaui TPU Google dan Dukungan Model AI Besar
Selain perbandingan dengan Amazon, Microsoft juga membandingkan Maia 200 dengan akselerator pesaing lain. Dalam pengujian FP8, performa Maia 200 diklaim melampaui Google TPU generasi ketujuh. Microsoft menyebut performanya mencapai lebih dari lima petaFLOPS. Klaim ini menunjukkan ambisi Microsoft di ranah akselerator AI. Namun, detail metodologi pengujian tidak dipaparkan secara rinci. Meski begitu, Microsoft menegaskan kapabilitas chip ini. Maia 200 diklaim mampu menjalankan model AI terbesar saat ini. Model dengan parameter raksasa dapat dijalankan lebih efisien. Chip ini dirancang untuk kebutuhan jangka panjang. Microsoft menilai skala model AI akan terus meningkat. Dengan Maia 200, Azure diharapkan siap menghadapi tren tersebut. Akselerator ini memperkuat posisi Microsoft di persaingan AI global. Maia 200 menjadi langkah penting menuju kemandirian infrastruktur AI.





Leave a Reply