Inlägg

Inlägg som Wixner har skrivit i forumet
Av Wixner

Jag tycker att IT har blivit lite för lätt

Nä men det blir billigare att försöka göra det virtuellt än att köpa två fysiska maskiner att leka med

Av Wixner

XenServer nästlad i VMware ESXi

God kväll,

Är det någon här som har testat nästlad virtualisering med XenServer i VMware ESXi/Workstation?

Jag har en virtuell pool bestående av två XenServer 7.0 i en ESXi 6.någonting och allting fungerar över förväntan utom migreringen från en poolmedlem till en annan: precis när den virtuella gästen (i XenServer då) är färdigmigrerad till den mottagande poolmedlemmen så blåskärmar (i mitt fall en Win2K12R2) gästen.

Detta är förstås ingen supporterad lösning, men det vore intresserant att veta om det är det extra virtuella lagret (ESXi) som ställer till det.

Är det nån som testat virtuella XenPooler under ESXi?

Av Wixner

Äntligen en till VR-standard. Som jag längtat!

Av Wixner
Skrivet av aluser:

Därav min fråga om vad han vill uppnå men jag uttryckte mig tydligen extremt oklart.

Du använder knappast RDM för att köra backup åt hypervisorn.
Men vi kan ju sluta vara fåniga båda två och låta TS förklara varför han vill koppla in en usb disk och använda den inne i en virtuell maskin.

Absolut - låt oss inte vara de som skapar hat på internet

Av Wixner
Skrivet av aluser:

Att koppla usbdiskar till hyper-v är definitivt ett i grunden felaktigt beteende som bara skall förekomma i hemma labbmiljöer.

Att uttala sig så utan att veta vad USB-disken ska användas till är bara fånigt.
Att använda roterande USB-diskar som backup för Hyper-V är inte extremt ovanligt

Av Wixner
Skrivet av aluser:

Vad vill du uppnå med detta normalt sett felaktiga beteend?

Detta är inte alls ett felaktigt beteende i Hyper-V: Det är helt korrekt sätt att ge gästen exklusiv access till en disk a.k.a Raw Device Mapping.
Huruvida det fungerar på en USB-hårddisk som trådskaparen hänvisar till kan jag däremot inte uttala mig.

Av Wixner

Trots 34 år på detta platta klot så kom jag in ganska sent på PC och började spela seriöst först vid UT99 och Quake - men det spel som jag fortfarande spelar någon gång per år är Super Metroid till SNES.

Av Wixner
Skrivet av backspace:

@Wixner: Nu vill jag ju inte peta med en pinne i det här getingboet men du tror inte att du försöker komplicera saker och ting mer än nödvändigt?
Ibland sätter man siktet på något så allt annat bara framstår som icke-intressant och det kan ju vara bra på sitt vis men i ditt fall kanske det är dags att ta ett steg tillbaka och fundera och utvärdera andra alternativ?

Jag förstår helt hur du menar, men just nu har jag inget annat sätt att presentera en RAID-volym till vSphere och därav en NAS/SAN Virtual Appliance med NFS/iSCSI tillbaka till hosten

Av Wixner

@shelter

ZFS är ett filsystems om aldrig (sällan?) blir korrupt och ett mycket högpresterande filsystem som kan utnyttja flera nivåer av cache

@moron

Nu har jag skapat en datastore enligt ditt förslag och mountar upp NFS-sharen i vSphere och läshastigheten är okej likväl den sekvensiella skrivningen (Filkopiering 1.6GiB / s, benchmark 436MiB/S) men jag har fortfarande bara kring 12k IOPS vid skrivning, alltså 1/3 av vad en av mina lokala SSD'er klarar av att trycka...

Konfigurationen än 2 vCPU, 8GiB RAM, VMXNET3 / 9000 och VMware Tools installerat

Av Wixner
Skrivet av Sir. Haxalot:

Rent spontant så lär du ju ha sumpat CPU scheduleringen i vSphere totalt genom att ge 8vCPUer till en VM på en CPU med 6 kärnor. Testa att ge den 2-3 vCPUer.

Menar du att vSphere inte klarar av hyperthreading?

Hursom så fick jag acceptabla (600MiB/s) med en OmniOS-installation så nått knas är det med mina FreeNAS och Nexenta-installationer.

IOPSen är fortfarande låg dock...

Skickades från m.sweclockers.com

Av Wixner

@taliz:

Alla mina installationer har direktaccess till diskarna via VT-d och passthrough av HBA'n

Av Wixner
Skrivet av Zarper:

@Wixner: Nu blev det lite mycket här. Vet inte vad det testat ska visa mer än att det går väldigt snabbt att läsa och skriva till RAM? När du säger att det går i 200 MB/s från RAM till Nexenta, menar du att du skickar via NFS med sync på till din zpool? Bättre att testa en sak åt gången när man felsöker då resultatet kan bli svårt att tyda annars.

Hehe jo det gick lite fort där

Jag kopierar från en RAM-drive (benchmarkat för att påvisa dess hastighet) över SMB till Nexenta.
Deployar en NappIT-OVA nu i vSphere för att utesluta felkonfiguration i Nexenta

Av Wixner

@Zarper:

Nu har jag flyttat min "benchmark-server" från ZFS-poolen till en vSphere-lokal SSD, skapat en 8GiB Ramdrive benchmarkat enligt nedan:

http://i.imgur.com/SgePhkG.png

och kopierar jag då från RAM => VMXNET3 => Nexenta så ligger filöverföringen konstant i 200MiB/S

Av Wixner

@Zarper:

SMB och 'sync=disabled'

http://i.imgur.com/OxarCLm.png

Av Wixner

Jag har inte testat baremetal-ZFS om det är det du refererar till. Den lustiga är att jag fick liknande (har inga mätningar kvar) prestanda med FreeNAS också så jag vet inte riktigt vad som är knasigt.

Antingen är det kontrollerkortet som är problemet eller bakplanet för diskarna

Skickades från m.sweclockers.com

Av Wixner

Fördelen med Proxmox är att du saknar det virtuella lager (i mitt fall Nexenta, men vanligen FreeNAS) mellan Hypervisorn och ZFS. Huruvida Proxmox och FreeNAS kräver cache (och inte funkar med All-Flash utan Cache) får någon annan svara på

Av Wixner

Tredje försöket med ZFS-baserad lagring

För er som kanske känner igen mitt nick så kanske ni kommer ihåg att jag vi två tillfällen tidigare har utvärderat ZFS-baserad lagring, men bägge gångerna har mina zpooler blivit korrupta och alla filer skrivits sönder...

Nu tänkte jag omkonsolidera min labbmiljö och lägga vSphere i botten för nästlad virtualisering (Hyper-V / vSphere) och tänkte göra ett sista försök med ZFS och NexenetaStor Community Edition och jag är fortfarande besviken.

I vSphere har jag skapat en virtuell NexentaStor med 8 vCPU (Intel Xeon E5-2620v3), 32GiB DDR4 ECC och ett LSI/Avago 2308 (IT) i VT-d-Passthrough. Till HBA'n har jag 4 Samsung EVO 840 250GiB i stripe (experimentellt) som delas ut via NFS tillbaka till vSphere där min "benchmark-server" ligger installerad.

Ingen NFS-trafik går över fysiska länkar. VMXNET3 används i NexentaStor (med VMware Tools installerat)

http://i.imgur.com/8LZMkXZ.png

Men trots detta så får jag förskräckliga siffror på min "benchmark-server":

http://i.imgur.com/2ToYicC.png

Deduplicering är av och kompression (LZ4) är aktivt vid testet ovan
Jämför dessa med siffrorna mot en enkel Intel 520 120GiB:

http://i.imgur.com/p8WLLFI.png

Är det så, oavsett vilken lagring du har i botten, att ZFS kräver ZIL/SLOG/L2ARC-cache för att det ska vara användbart?

Av Wixner

Så då är det bara att spotta i ett e-sata eller USB-anslutet glas när det börjar bli trångt på NAS'en

Av Wixner

Jag fattar inte varför spelutvecklare idag behöver gå ut med sådan här information. Borde det inte vara självklart att försöka laga sin produkt?

Av Wixner

mtputty - multitabbad frontend för putty.
Har stöd för hosts och användarnamn/lösenord om du känner för det.