Als Jitter [englisch für ‚Fluktuation‘ oder ‚Schwankung‘) bezeichnet man das zeitliche Taktzittern bei der Übertragung von Digitalsignalen, eine leichte Genauigkeitsschwankung im Übertragungstakt (engl.: Clock). Jitter ist als Störsignal im Normalfall unerwünscht. Allgemeiner ist Jitter in der Übertragungstechnik ein abrupter und unerwünschter Wechsel der Signalcharakteristik. Dies kann sowohl Amplitude als auch Frequenz und Phasenlage betreffen. Der Jitter ist die erste Ableitung einer Verzögerung (Latenz, engl.: Delay). Die spektrale Darstellung der zeitlichen Abweichungen wird als Phasenrauschen bezeichnet. Jitter ist nicht zu verwechseln mit Quantisierungsfehlern.
] (In der Netzwerktechnik wird mit Jitter außerdem die Varianz der Laufzeit von Datenpaketen bezeichnet. Dieser Effekt ist insbesondere bei Multimedia-Anwendungen im Internet (wie Internetradio und Internettelefonie) störend, da dadurch Pakete zu spät oder zu früh eintreffen können, um noch rechtzeitig mit ausgegeben werden zu können. Der Effekt wird durch einen sogenannten Jitterbuffer, einen speziellen „Datenpuffer“ reduziert, allerdings zum Preis von zusätzlicher Laufzeit, was vor allem bei Dialoganwendungen stört. Dieser Effekt spielt außerdem in der Prozessleittechnik eine Rolle. Kritische Prozessinformationen müssen innerhalb einer bestimmten Zeit verschickt und empfangen werden. Wird der Jitter zu groß, ist ein rechtzeitiges Eintreffen der kritischen Prozessinformationen nicht gewährleistet.