Moderasi konten adalah proses memantau, meninjau, dan mengelola konten yang diunggah atau dibagikan oleh pengguna di platform digital. Tujuannya adalah untuk memastikan bahwa konten tersebut mematuhi pedoman komunitas dan peraturan hukum yang berlaku. Moderasi konten bertujuan untuk menjaga lingkungan digital yang aman dan sehat dengan menghapus atau menandai konten yang melanggar kebijakan seperti konten yang mengandung kekerasan, kebencian, pornografi, atau informasi yang menyesatkan.[1]
Moderasi konten merupakan proses penyaringan, pengawasan, dan pengendalian materi yang diunggah atau dibagikan di platform digital untuk memastikan kepatuhan terhadap pedoman komunitas, hukum, dan standar etika yang berlaku. Moderasi ini dapat dilakukan secara manual oleh manusia atau dengan bantuan teknologi berbasis kecerdasan buatan (AI). Menurut Gillespie (2018) dalam bukunya "Custodians of the Internet", moderasi konten berperan sebagai penjaga ekosistem online yang bertanggung jawab untuk menyeimbangkan kebebasan berekspresi dengan perlindungan terhadap pengguna dari risiko konten berbahaya.[2] [3] Moderasi konten mencakup serangkaian tindakan dan alat yang digunakan oleh platform media sosial untuk menangani konten ilegal dan menegakkan standar komunitas mereka terhadap konten buatan pengguna. Ini biasanya melibatkan penandaan oleh pengguna, pelapor tepercaya, atau filter, serta tindakan seperti penghapusan, pelabelan, penurunan peringkat, demonetisasi konten, atau penonaktifan fitur tertentu. [4]