Fast en digital signal är mycket enklare att göra robust än en analog signal. Speciellt när det rör sig om så otrevliga störningsmiljöer som i och runt en dator. Det handlar dessutom om rätt mycket data som ska skyfflas. Varje liten störning på en analog signal ger ju en försämrad kvalité i slutändan medan en digital signal måste misshandlas betydligt mer innan den ger bitfel. Lite brus märks inte alls med digitala signaler. Bitfel går ju dessutom att skydda sig mot genom checksummor som du själv skrev. Nu vet jag inte hur vanligt det är i praktiken. Vet bara att det populära S/PDIF inte har någon felkorrigering inbyggt i protokollet.
Håller med helt. Fasst återigen, det betyder inte att VGA implicerar suddig bild eller att det skulle behöva vara särskilt svårt att få till det. Det är rätt lätt att kolla om bilden blir suddig på en LCD och jag har inte sett några problem ö.h.t. förutom på budgetskärmar som även har digitala ingångar (ibland kan dock vissa skärmar ha problem att synca bilden vettigt automagiskt så att man måste korrigera det själv).
Fanns gott om CRTs som bara tog VGA på 90-talet och det känns ju lite värdelöst om man det hade inneburit att dessa high-end skärmar var suddiga bara för att man körde över VGA.