Minimum på en Windows Vm har varit runt 20GB för några sedan. Idag brukar man skapa den över 100GB/st, vissa uppemot 300GB/St. Sedan har man en drös. Har man 200st så är man uppe i 60TB. Nu har väldigt få 200st, men minskar man till 100st så 30TB.
Och vad har man på dem. Varenda projekt man jobbar med behöver ha ett drös olika VM. Och det går i princip nästan aldrig återanvända något.
Det handlar om att skapa upp en miljö där enbart det man vill ska finnas på miljön ska finnas där. Allt annat ska man skapa en ny miljö till.
Sedan bör man minst ha en backup av allt, vilket halverar hur mycket arbete man kan ha.
Du motsäger dig själv lite, om inte "enbart det man vill ska finnas på miljön" är väldigt stort.
Throwaway webserverimages jag skapar ligger fortfarande på 60 GB för Windows och 20 GB för Linux, och är generellt sett tunt provisionerade, så verklig diskanvändning ligger ofta runt 15 GB för mina Windows-VM:ar (vanlig Core - 20-25 GB för dem som av någon anledning behöver köra Desktop Experience) och storleksordningen 8-10 GB för Linux.
Om man inte behöver spara innehållet från varje miljö utan bara behöver ett skelett att fylla med testdata är något som exempelvis Ansible en bra genväg till mindre diskanvändning: Miljöer jag inte använder består av en VM-template på ett arkivområde som kan läsas av min hypervisor, en katalogstruktur med textfiler (Ansibleroller/-playbooks) i git, plus ett filområde för eventuella installationsfiler som kan behövas av de olika rollerna.
Men naturligtvis: Har du behov av att köra multipla stora miljöer för multipla samtidiga kunder så är det ju bara den verklighet du lever i.