Masa depan komputasi pribadi terlihat seperti M1 Mac
Data Centers

Masa depan komputasi pribadi terlihat seperti M1 Mac

m1-pro-2.jpg

apel

Selama beberapa tahun terakhir, saya bertanya-tanya bagaimana era Intel akan berakhir. Di acara Apple’s Unleashed pada hari Senin, kami melihat sekilas bagaimana hal itu bisa dimainkan.

Saya di sini bukan untuk memberi tahu Anda bahwa masa depan komputasi pribadi adalah Apple Silicon Macs. Tetapi apa yang akan Anda lihat berkembang selama beberapa tahun ke depan adalah arsitektur sistem yang terlihat sangat mirip Mac, terlepas dari sistem operasi mana yang akhirnya Anda jalankan. Dan tidak masalah apakah itu pada chip desain Apple sendiri, atau chip yang dirancang oleh Qualcomm, NVIDIA, Samsung, Microsoft, atau bahkan Google.

Naik ke bis

Arsitektur sistem yang dominan selama 40 tahun terakhir adalah x86. Bukan hanya itu set instruksi, bagaimanapun, yang telah dominan. Ini juga semua komponen lain di PC dan server x86 yang telah dominan, seperti berbagai arsitektur bus dan chip pendukung.

PC, server besi besar, dan benar-benar semua komputer sejak tahun 1960-an telah dirancang menggunakan apa yang disebut sebagai arsitektur bus. Sebuah bus kira-kira analog dengan sistem saraf tubuh manusia; ini digunakan untuk memindahkan data antar bagian sistem komputer, yang mencakup CPU, cache sistem, GPU, dan unit prosesor khusus untuk Pembelajaran Mesin dan fungsi lainnya. Ini juga memindahkan data ke dan dari memori utama (RAM), memori video yang terpasang ke GPU, dan semua komponen I/O — keyboard, mouse, Ethernet, WiFi, dan/atau Bluetooth.

Tanpa bus, data tidak bergerak.

Munculnya SoC

Industri komputer telah mengembangkan arsitektur bus yang berbeda, seperti iterasi PCI yang berbeda untuk komponen I/O dan berbagai jenis lain yang dikembangkan untuk grafik video. Mereka adalah blok bangunan fundamental dalam merancang komputer mikro, terlepas dari perusahaan apa yang membuatnya. Kami memiliki versi desktop dan server ini, dan kami juga memiliki versi seluler/laptop.

Namun, saat kami pindah ke komputasi seluler dan ruang komputasi tertanam, kami harus memasukkan lebih banyak komponen sistem ini ke dalam chip itu sendiri, jadi sekarang kami menyebutnya Sistem pada Chip atau SoC. CPU, GPU, inti ML, memori utama, memori video, dan bahkan penyimpanan utama sekarang dapat hidup dalam satu chip.

Ada beberapa keuntungan utama untuk melakukannya dengan cara ini — miniaturisasi, dan juga pengurangan kemacetan. Saat Anda perlu menggunakan bus untuk mentransfer data dari satu komponen sistem ke komponen sistem berikutnya, Anda harus mengubah teknologi antarmuka. Dalam banyak kasus, Anda mungkin memiliki lebih sedikit jalur data untuk memindahkan informasi tersebut, yang seperti berjalan di jalur off-ramp dari jalan bebas hambatan dengan delapan jalur lalu lintas menjadi dua sebelum Anda dapat masuk ke jalan bebas hambatan lain menuju arah yang berbeda. Ketika ini dilakukan pada chip itu sendiri, kemacetan itu (harus) tidak ada.

ZDNet Merekomendasikan

Mac terbaik 2021

Mac terbaik 2021

Jajaran Mac Apple dapat membingungkan karena transisi perusahaan dari prosesor Intel ke prosesor Apple Silicon-nya sendiri. Tapi kami di sini untuk membantu.

Baca selengkapnya

Tetapi ada batasan untuk apa yang dapat Anda lakukan dengan SoC. Hanya ada begitu banyak inti CPU dan GPU yang dapat Anda masukkan ke dalamnya, dan hanya ada begitu banyak memori yang dapat Anda tumpuk pada cetakan. Jadi, meskipun SoC bekerja sangat baik untuk sistem komputer yang lebih kecil, SoC tidak digunakan untuk beban kerja PC dan server yang paling kuat; mereka tidak skala ke sistem terbesar dari semua. Untuk memiliki skala di desktop, untuk membuat workstation dengan ratusan gigabyte atau terabyte RAM yang Anda lihat di industri film atau dirgantara, Anda harus bisa melakukan ini. Ini adalah kesepakatan yang sama di pusat data atau cloud hyperscale untuk beban kerja perusahaan skala besar. Semakin sedikit penyalinan data melintasi antarmuka bus yang terbatas dan lebih lambat, atau melalui jaringan, semakin baik.

Masuk M1 dan UMA

Dengan Apple M1 Pro dan M1 Max SoCs baru, lebih banyak transistor yang mati, yang biasanya diterjemahkan menjadi lebih cepat. Tapi yang benar-benar menarik dari chip baru ini adalah bandwidth bus memori.

Selama setahun terakhir, saya bertanya-tanya bagaimana Apple akan menskalakan arsitektur ini. Secara khusus, bagaimana mereka akan menangani masalah peningkatan kecepatan bus antara memori utama (RAM) dan GPU. Pada komputer desktop yang menggunakan arsitektur Intel, ini dilakukan dengan cara yang tidak seragam, atau NUMA.

Sistem Intel biasanya menggunakan memori diskrit, seperti DDR, pada GPU, dan kemudian mereka menggunakan interkoneksi bus memori berkecepatan tinggi antara itu dan CPU. CPU terhubung melalui interkoneksi lain ke memori utama. Tetapi seri-M dan seri-A menggunakan Arsitektur Memori Terpadu; dengan kata lain, mereka menyatukan basis RAM antara CPU, GPU, dan inti Pembelajaran Mesin (Neural Engine). Secara efektif, mereka berbagi segalanya.

m1grafik.png

Arsitektur Memori Terpadu pada SoC M1

apel

Dan mereka membagikannya dengan sangat cepat. Di M1 Pro, yaitu 200 Gigabytes per Second (GB/s), dan di M1 Max, yaitu 400GB/s. Jadi inti GPU super cepat itu — yang ada hingga 32 di Max — memiliki bandwidth komunikasi super cepat ke inti CPU super cepat itu — yang ada hingga 10 di M1 Pro dan M1 Maks. Dan kita bahkan tidak berbicara tentang inti Pembelajaran Mesin khusus yang juga memanfaatkan kecepatan bus ini.

Tentu saja, M1 Pro dan M1 Max juga dapat menggunakan lebih banyak memori daripada model tahun lalu — hingga 64GB RAM. Tentu saja, M1 tidak lambat pada basis per-core dibandingkan dengan industri lainnya. Tetapi jika Apple ingin menjalankan beban kerja profesional kelas atas, mereka perlu melakukan ini untuk membuat bandwidth bus terbang.

Scaling Arm dari M1 Mac ke Datacenters dan Big Iron

Sekarang di sinilah hal-hal menjadi menarik.

Saya Betulkah ingin melihat apa yang akan mereka lakukan dengan Mac Mini dan Mac Pro. Saya berharap Mini yang diperbarui menggunakan desain mainboard yang sama dengan sistem Macbook Pro baru ini. Tetapi Pro kemungkinan akan menjadi sistem monster, berpotensi memungkinkan lebih dari satu M1 Max di dalamnya. Itu berarti mereka perlu mengembangkan cara untuk mengumpulkan memori di seluruh SoC — sesuatu yang belum pernah kita lihat terjadi di industri karena masalah latensi bus.

Satu kemungkinan adalah membuat Pro menjadi desktop gugus dari beberapa papan putri Mini yang diikat ke dalam semacam jaringan super cepat. Industri melihat cluster desktop untuk beban kerja ilmiah sekitar 10-15 tahun yang lalu menggunakan chip Arm, Linux, dan perangkat lunak manajemen cluster open-source yang digunakan di superkomputer (Beowulf). Namun, mereka tidak lepas landas; tidak praktis untuk mendesain ulang jenis aplikasi desktop tersebut untuk bekerja dalam fungsi paralel melalui jaringan TCP/IP.

Ini akhirnya dapat berjalan dengan teknologi koneksi bus yang digunakan dalam SoC M1 Apple. Karena jika Anda dapat menghubungkan CPU mati dan GPU mati pada satu mainboard — dan berbagi memori itu dengan kecepatan sangat tinggi — Anda seharusnya dapat menghubungkan matriks CPU dan GPU tambahan di beberapa papan utama atau papan anak. Jadi, mungkin, kluster desktop adalah masa depan Mac Pro.

Semua ini menarik, dan ya, kita akan melihat Mac mengimplementasikan semua teknologi ini terlebih dahulu. Tetapi perusahaan teknologi besar lainnya juga mengembangkan SoC berbasis Arm yang lebih kuat. Jadi, meskipun Anda mungkin tidak menggunakan Mac dalam beberapa tahun ke depan untuk bisnis dan beban kerja lainnya, PC Anda mungkin terlihat seperti di dalam.

Posted By : togel hongkonģ