Permalänk
Medlem
Skrivet av Veni:

Plus att SAS enheter alltid har sin LED utgång tänd om enheten är påslagen och blinkar vid aktivitet, medan SATA blinkar bara vid aktivitet och är annars inte tänd.

Det är väl klart att det skall lysa!! - Om du har större samling av disk i en rack så vill du att de skall lysa eller blinka så att du ser om du har svarta gluggar i raderna med diskarna - en ickelysande disk betyder att det är en strömlös eller trasig disk. - är det omvänt så vet man inte om disken är igång och inte accessas just då eller är trasig - tänk på dem som skall skall förvalta och underhålla dessa stora antal diskar, detta är för att underlätta deras jobb helt enkelt och det är sådana saker som har kommits på med tiden för att det just behövs!

Många servrar med diskarrayer har förvisso sidokanal för att ytterligare kunna driva en lysdiod per disk och kan indikera vid fel - eller viktigare - kunna peka ut vilken disk man jobbar med just nu via diskmanagenemt-mjukvara, har man många diskar samtidigt blir det plötsligt viktigt så att man inte tar fel disk om man tex. skall byta en disk...

Man kan med stor sannolikhet invertera funktionen med SCSI-kommando och/eller bygling av ett par pinnar på diskens kontrollerkort - men default så är det att det lyser och blinkar vid access eftersom det är det man vill ha på servrar och lagring med många diskar samtidigt.

Permalänk
Medlem
Skrivet av LemurenSwe:

Det är inte alls bara ett mekaniskt hinder. Spänningen på datasignalerna är annorlunda på SAS, varför du måste ha ett sas-kort.

Tror TS har väldigt lite nöje i att bara få kontakten att passa.

Skickades från m.sweclockers.com

Jovisst men SAS-HBA är kompatibla med SATA-diskar och för aktuella sladden med SATA-kontakter i ändan som ofta följer med billigare SAS-HBA så kan man ta bort/klippa bort plastbiten på SATA-kontakten som hindrar att anslutas till en SAS-disk utan att det på signalerings-sidan blir något bekymmer.

det finns inga SATA-kort som passar för den här typen av kabelkit så risken för fel är minimal.

att koppla en SAS-disk till en uppklippt SATA-anslutning till moderkort eller SATA-kort kommer dock _inte_ att fungera - men det kommer heller inte att gå sönder om man ändå försöker...

---

Spänningskillnaden handlar om 0.2V mer i sving så det går inte sönder om det skulle bli felkoppling trots allt - även eSATA kör med större sving och det har inte sönder några SATA-diskar om de skulle kopplas in direkt på sladden och inte via adapterkort (oftast för flera diskar)

Permalänk
Medlem

Fantastiskt nyttig och bra tråd detta. TS gjorde ett misstag och nu lär sig mängder av andra av det. Skitbra
Samt massa matnyttig information om vad SAS är. 👍

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av SCORPIUS:

Fantastiskt nyttig och bra tråd detta. TS gjorde ett misstag och nu lär sig mängder av andra av det. Skitbra
Samt massa matnyttig information om vad SAS är. 👍

Jag ska göra fler misstag 😉😂

Du har helt rätt

Permalänk
Medlem

Det är inget misstag, men blir det om du har inte gått hela vägen och införskaffat nödig SAS-HBA (och flasha den i IT-mode då dessa normalt är konfigurerade i RAID-mode för minimum 2 diskar) ännu - och med halvdana satsningar når man aldrig månen

Att tänka på SAS-HBA-kort måste ha en en 8xPCIe-kortplats ledig - den behöver inte vara fullbestyckad med PCI-lanes då det är kompatibelt med färre - men fysiskt sett måste sockeln vara för 8xPCIe och större för att överhuvudtaget få ned kortet.

På stationära datorer och gamermoderkort så brukar 8xPCIe-sockets lysa med sin frånvaro, men går att använda även i delbestyckade 16xPCIe sockets som normalt är tänkta för 2'a grafik-kort. På serverjärn så brukar det drälla av just 8xPCIe-socklar och det är ganska uppenbart till varför - ja, just det, SAS-HBA och multiports nätverkskort...

De billigare SAS-HBA korten man köper toppar på 600 MB/s/disk då de är SATA3/SAS2, skall man ha SAS3 så börja det bli kostsamt och för hobbybruk har man sällan behov av det.

Permalänk
Medlem
Skrivet av Medo71:

Jag hittade ett äldre moderkort Asus P5Q PRO Turbo Lga775.
Skulle det funka att koppla in SAS-disken?

Jag blir helt snurrig av att läsa något jag inte förstår 😵

Nej, med 99% sannolikhet inte. SAS är för serverhårdvara, så ska du använda den köp en beg server, tex:
https://www.ebay.de/itm/DELL-PowerEdge-R320-Xeon-E5-2403v2-QC...
Samt nån vagga till disken.

Kan ju vara intressant om du vill sätta upp en NAS eller dylikt.

Permalänk
Medlem

I princip inga moderkort för konsumentbruk kan använda SAS-diskar direkt utan det måste alltid gå igenom en separat SAS-HBA-kort.

Somliga servermodekort (typ HP-proliant) kan ha SAS-HBA/SAS HW-RAID nedlyft direkt på moderkortet, men även dessa använder oftast lösa SAS/HBA-kort eller rena SAS-HWRAID-kort för att ansluta diskarna.

Permalänk
Medlem
Skrivet av xxargs:

Det är väl klart att det skall lysa!! - Om du har större samling av disk i en rack så vill du att de skall lysa eller blinka så att du ser om du har svarta gluggar i raderna med diskarna - en ickelysande disk betyder att det är en strömlös eller trasig disk. - är det omvänt så vet man inte om disken är igång och inte accessas just då eller är trasig - tänk på dem som skall skall förvalta och underhålla dessa stora antal diskar, detta är för att underlätta deras jobb helt enkelt och det är sådana saker som har kommits på med tiden för att det just behövs!

Många servrar med diskarrayer har förvisso sidokanal för att ytterligare kunna driva en lysdiod per disk och kan indikera vid fel - eller viktigare - kunna peka ut vilken disk man jobbar med just nu via diskmanagenemt-mjukvara, har man många diskar samtidigt blir det plötsligt viktigt så att man inte tar fel disk om man tex. skall byta en disk...

Man kan med stor sannolikhet invertera funktionen med SCSI-kommando och/eller bygling av ett par pinnar på diskens kontrollerkort - men default så är det att det lyser och blinkar vid access eftersom det är det man vill ha på servrar och lagring med många diskar samtidigt.

Jag tror inte att Du är inkompetent, så jag tror att Du har medvetet valt att missuppfatta den meningen. Jag varken tog ställningen för varken det ena eller det andra i den meningen. I den meningen beskrev jag en av dom ytliga skillnaderna mellan SAS och SATA lagringsenheter.

Visa signatur

Grundregel för felsökning: Bryt och begränsa.

Permalänk
Medlem

@Veni:

Oj, det var inte alls meningen att det skulle uppfattas på det sättet - skriven text är ju tyvärr en smal kanal som filtrerar bort sidoinformation som gör att det kan uppfattas i fel riktning, ber om ursäkt.

Permalänk
Medlem

Jo, Du är inte den första som påpekar det gällande skriven text och mig. Ibland när jag skriver så glömmer jag att det är människor jag skriver till och inte till en PIC. PIC:arna gör oftast enbart det jag skriver.

Visa signatur

Grundregel för felsökning: Bryt och begränsa.

Permalänk
Medlem
Skrivet av Veni:

Jo, Du är inte den första som påpekar det gällande skriven text och mig. Ibland när jag skriver så glömmer jag att det är människor jag skriver till och inte till en PIC. PIC:arna gör oftast enbart det jag skriver.

Då tror jag vi är i samma sällskap - kan också springa iväg textmässigt utan att tänka på mottagaren ibland eller snarare mer att det kan tolkas i en mer negativ aspekt än vad jag själv menar med det.

Permalänk
Medlem
Skrivet av xxargs:

Det är inget misstag, men blir det om du har inte gått hela vägen och införskaffat nödig SAS-HBA (och flasha den i IT-mode då dessa normalt är konfigurerade i RAID-mode för minimum 2 diskar) ännu - och med halvdana satsningar når man aldrig månen

Att tänka på SAS-HBA-kort måste ha en en 8xPCIe-kortplats ledig - den behöver inte vara fullbestyckad med PCI-lanes då det är kompatibelt med färre - men fysiskt sett måste sockeln vara för 8xPCIe och större för att överhuvudtaget få ned kortet.

På stationära datorer och gamermoderkort så brukar 8xPCIe-sockets lysa med sin frånvaro, men går att använda även i delbestyckade 16xPCIe sockets som normalt är tänkta för 2'a grafik-kort. På serverjärn så brukar det drälla av just 8xPCIe-socklar och det är ganska uppenbart till varför - ja, just det, SAS-HBA och multiports nätverkskort...

De billigare SAS-HBA korten man köper toppar på 600 MB/s/disk då de är SATA3/SAS2, skall man ha SAS3 så börja det bli kostsamt och för hobbybruk har man sällan behov av det.

Fast nu gör du ju avsteg från vad som är sant och inte.
Finns många HBA-kort som kommer i JBOD-konfig. Jag förstår att du tänker på LSI-kort av specifik modell/firmware när du skriver som du gör, men det är knappast hela marknaden och din slutsats blir därför något fel.

Vidare så är det direkt felaktigt att hävda att ett SAS-kort måste ha en fysisk 8x (eller större) port. Finns flertalet kort som tar en 4x-plats. Exempel på detta är ASR-6405E

Skickades från m.sweclockers.com

Permalänk
Medlem

Jag tror att han menar att flera serverbräddor kommer med enbart massa x8 PCI-e platser, som dessutom är s.k. "öppna" så att man t.o.m. kan få ett x16 kort(grafikkort?) att fungera i dessa platser. Och beroende på plattform så kan dom fysiskt vara x8 men i verkligheten vara x4(elektriskt). Inte att han menar att alla HBA/RAID kort är enbart x8 och måste sitta i en x8 plats.

Visa signatur

Grundregel för felsökning: Bryt och begränsa.

Permalänk
Medlem

@LemurenSwe

Tack för tillrättavisningen - det jag stött på är främst billigare LSI-kort under olika varunamn och firmwaren brukar ha alternativ som RAID1, RAID10, RAID5(?, kommer inte ihåg just nu, kan förväxla med P400 och PERC6) och JBOD (det sistnämnda är jag dock bränd av, aldrig mer flerdisklösning utan en minimum av redundans och tåla en diskbortfall) och minimum 2 diskar för att ens gå att använda (och inte flashat om för IT-mode) och är färgad av det.

Också att om man köper en SAS-HBA och upptar en kortplats i burken så nöjer jag sig inte med mindre än 8 disk-uttag då en med färre är inte speciellt mycket billigare och tar fortfarande upp i stort sett lika mycket plats i burken som en med 4 diskuttag.

ASR-6405E jag surfade på har förvisso 4 diskuttag men bara 1x PCIe-lanes och PCIe gen 2 vilket gör att det kommer flaskhalsa vid ca 500 MB/s delat på alla 4 diskarna - dvs. inte ens SATA3-fart totalt.

Hur vanligt är det med 4xPCIe socket på konsument-moderkort idag? - det hade varit mer passande för 4-disk kort som ASR-6405E men i 4-lanes format då varje disk hade fått en varsin PCI-lanes i kapacitet och anständigt nära SATA3 kapacitet per disk i parallell drift.

(surfade vidare) ASR-6805E har 4 PCIe-lanes men är då 8 diskars kort, men annars är absoluta majoriteten av korten just 8xPCIe-interface

Permalänk

Jag kan tänka mig att köpa SAS disken. Kan du skicka specs till mig i ett PM?

Skickades från m.sweclockers.com

Visa signatur

i5 2500K @ 4.2Ghz | 8GB Corsair Vengeance 1600Mhz | Asus R9 290X DirectCU II 4GB @ 1060/5500

Permalänk
Medlem

@inkräktare: Vågar man göra affärer med någon som kallar sig "inkräktare"

Visa signatur

Citera för svar!

Permalänk

@xxargs:
JBOD krävs om man kör redundansen med ZFS istället. Vilket är mycket bättre och säkrare än HW RAID.
Jag kör med ett LSI kort som jag flashat om med firmware för JBOD.

Permalänk
Medlem
Skrivet av JesseJames:

@xxargs:
JBOD krävs om man kör redundansen med ZFS istället. Vilket är mycket bättre och säkrare än HW RAID.
Jag kör med ett LSI kort som jag flashat om med firmware för JBOD.

Jag tror att råder ett missförstånd gällande JBOD. JBOD är en benämning på flera lagringsenheter som man kan få presenterat för operativsystemet som en enda "logisk" enhet. Med JBOD och ZFS så lär man aldrig få redundans, eftersom all lagring presenteras som en logisk enhet år ZFS och då är i praktiken ZFS mer livsfarligt om metadatan skadas(samma exempel om man kör 1 styck lagringsenhet med filsystemet ZFS).

Den officiella benämning för JBOD är "Spanning".

JBOD inom lagringssammanhang betyder inte fristående lagringsenheter som presenteras just som fristående lagringsenheter. Ett typexempel som Windows användare kan känna igen sig i är det som Microsoft kallar dynamiska diskar, och hur man där kan välja en funktion som blandar alla möjliga fysiska storlekar med varandra och därefter få en logisk enhet som består utav summan av dom fysiska. Nackdelarna är att man vet inte vart Windows har lagrat olika delar utav en fil, så räddning är inte alltid möjlig men det går inte säga att den är omöjlig med att få ut en stor fil, i motsats till t.ex. RAID0.

Jag misstänker att Du menar att ditt LSI kort är flashat till IT-läge, och där finns inga JBOD eller RAID funktioner från själva kortet kvar(såvida man inte flashar tillbaks den till IR-läge).

Visa signatur

Grundregel för felsökning: Bryt och begränsa.

Permalänk
Medlem

I min värld har JBOD alltid stått för "Just a Bunch Of Disks" vilket står i motsats till RAID som för det mesta förutom 0) har redundans sett ur ett hårdvaruperspektiv.