Dalam analisis numerik dan komputasi, matriks rongga adalah matriks yang sebagian besar elemennya bernilai nol. Sebaliknya, jika sebagian besar elemennya bukan nol, maka matriks tersebut dianggap padat. Tidak ada definisi pasti berapa banyak elemen nol yang diperlukan untuk matriks dianggap rongga, namun kriteria yang sering digunakan adalah banyaknya elemen yang tidak nol kurang lebih sama dengan banyaknya kolom atau baris pada matriks. Sparsity dari matriks didefinisikan sebagai rasio banyaknya elemen yang bernilai nol dengan banyakn semua elemen matriks (contoh, m × n untuk matriks berukuran m × n).
Secara konseptual, sparsity berhubungan dengan sistem dengan sedikit interaksi berpasangan. Sebagai contoh, pertimbangkan bola-bola yang disusun berbaris dan dihubungkan oleh pegas dari satu ke yang berikutnya: ini adalah contoh sistem rongga karena hanya bola-bola yang saling bersebelahan saja yang digabungkan. Sebaliknya, jika setiap bola memiliki pegas-pegas yang dihubungkan ke banyak bola lainnya, sistem tersebut berkorespondensi dengan matriks padat. Konsep sparsity berguna dalam kombinatorika, dan memiliki penerapan pada bidang seperti teori jaringan dan analisis numerik; yang umumnya berurusan dengan sistem dengan kepadatan data atau koneksi yang rendah. Matriks rongga besar sering muncul dalam aplikasi ilmiah atau rekayasa ketika memecahkan persamaan diferensial parsial.
Ketika menyimpan dan memanipulasi matriks rongga di komputer, cukup bermanfaat dan seringkali diperlukan untuk menggunakan algoritme khusus dan struktur data yang menggunakan keuntungan dari struktur matriks rongga. Komputer yang terspesialisasi telah dibuat untuk berurusan dengan matriks rongga,[1] karena mereka sering ditemui dalam bidang pemelajaran mesin.[2] Operasi yang menggunakan struktur matriks biasa dan algoritma yang standar akan lebih lambat dan tidak efisien, bila diterapkan pada matriks rongga karena pemrosesan dan memori terbuang sia-sia. Data yang secara alami bersifat rongga lebih mudah dikompresi dan karenanya membutuhkan penyimpanan yang jauh lebih sedikit. Beberapa matriks rongga yang berukuran sangat besar tidak dapat dimanipulasi dengan menggunakan algoritma matriks padat yang umum.
WSE memiliki 400.000 compute cores yang dioptimalkan untuk AI. Disebut dengan SLAC™, singkatan dari Sparse Linear Algebra Cores, compute cores bersifat fleksibel, dapat diprogram, dan dioptimalkan untuk aljabar linier [matriks] jarang yang mendukung semua komputasi neural network
WSE adalah chip terbesar yang pernah dibuat dengan luas 46.225 milimeter persegi, 56,7 kali lebih besar dari unit pengolah grafis terbesar. Chip ini berisi 78 kali lebih banyak compute core yang dioptimalkan untuk AI, kecepatan yang 3.000 kali lebih tinggi, memori on-chip, bandwidth memori yang 10.000 kali lebih banyak, dan bandwidth komunikasi yang 33.000 kali lebih banyak.