Apple överger AMD Radeon vid övergången till egna ARM-processorer

Permalänk
Medlem
Skrivet av Yoshman:

Linux fungerar rätt uselt redan på dagens x86-baserade MBP, har gjort det under flera år.

Windows "fungerar", men det har alltid fungerat mycket sämre än MacOS bl.a. p.g.a. att drivarna för Windows tendera sakna vissa funktioner och uppdateras väldigt sällan. Man köper helt enkelt inte en Mac om man inte avser köra MacOS på den!

Stödet för att utveckla mot Linux är ändå riktigt bra på MacOS. Bl.a. så är Docker designat så att man faktiskt kör Linux-containers på MacOS, finns egentligen inget container-stöd för MacOS (varför bry sig om det då "ingen" kör MacOS på servers?).

Så för oss som tror på ARM på servers/datacenter, system som kommer köra Linux, är faktiskt kommande ARM64 baserade Mac den bästa utvecklingsplattformen man kan ha för ARM64 på Linux

Medans jag inte är helt förvånad, så fanns det ju alltid en möjlighet att stödet, på olika sätt, skulle kunna förbättras. Nedlåst hårdvara gör ju det alldeles omöjligt.

Man köper inte en mac för att inte köra macos på den, men i en situation där apple inte längre stödjer hårdvaran så kan det ju vara trevligt att kunna installera annat på den. Bättre än att som sagt använda den som pappersvikt.

Plattformen kommer aldrig att bli så bra att jag skulle få för mig att använda den så länge den är nedlåst.

Och det som sker är bara början, den som inte tror att apple går mot en inlåst appstore för macos....

Permalänk
Medlem

@Yoshman: I ren metal-prestanda?

Permalänk
Medlem
Skrivet av Xinpei:

För att det inte är så enkelt. Bara för att man har en effektiv arkitektur så betyder det inte per automatik att man skala upp den och konkurrera.

Tror ingen säger att det Apple försöker göra kommer vara enkelt, var mer intresserad av varför man ska ta för givet att dom kommer att misslyckas?

Personligen tyckte jag de demos som visades upp var väldigt imponerande och gav hopp om att dom kommer lyckas.

Visa signatur

7800X3D | RTX 4080 Super | 32GB DDR5 | LG 48 C1 OLED

Permalänk
Datavetare
Skrivet av Petterk:

@Yoshman: I ren metal-prestanda?

Och hur spelar det någon roll för något förutom spel?
Och om Apple går all-in på TBDR, fungerar det ens på AMD/Intel GPUer?

Om man använt en 16" MBP märker man att datorn kan vara rätt tyst, i alla fall fram till att man startar något som tvingar igång dGPU-delen. Så själv skulle jag kunna betala extra för att slippa dGPU i en sådan dator, men nu löser det sig själv!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av loevet:

@PlogarN97: Det är så klart svårt att sia om så här tidigt, men jag skulle tro att både Microsoft och Adobe stöder Intel-Macar via Rosetta 2 under lång tid. Med tanke på hur stor andel Intel-baserade Mac-datorer kommer vara under flera år under övergången till Apple Silicon kommer de behöva stöda båda läger likvärdigt under längre tid.

Det är väl däremot inte osannolikt att exempelvis hårdvaruaccelererade grafikfunktioner i Adobe-mjukvarorna kommer prestera sämre när Apple introducerar nya funktioner i Metal (grafikkortet och utvecklargränssnittet) som inte stöds eller fungerar sämre med Intel- och Radeon-grafikkort.

Okej kanske inte är så illa då. Vi får se hur det går.

Visa signatur

Ryzen 5 7600
Rx 6650xt
32Gb

Permalänk
Medlem

Tycker det är bra att de kör sitt eget race och syr sina egna kläder. Det är absolut inget för mig, men det blir säkert bra för de som gillar macs.

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Skrivet av Yoshman:

Fast slår dem i vad?

AMDs primära problem med deras GPUer är att de har bedrövligt programvarustöd, drivrutiner för 3D-grafik är bra, men stannar ungefär där. Spelar ingen roll hur bra kislet kan prestanda om det saknas stöd för att använda det.
...
MacOS är ingen spelplattform. Om man ta bort det ur ekvationen, vad finns då kvar där Apples GPUer rimligen kommer vara en flaskhals? Framförallt om de används effektivt tack vare bra integration med programvara.

Nu har man ju faktiskt "pro" maskiner som mängder av användare använder sig av GPUn för att få mer arbete gjort. Och även om AMD-stödet i dessa mjukvaror generellt är sämre än t ex CUDA så finns det ju faktiskt massa programvaror där GPU-kraft gör mycket nytta. T ex resolv där AMD har rätt god prestanda, det är även en fråga om mångden VRAM som gör stor skillnad för mycket arbete i t ex after effect osv.

Dock så gav man ju redan dessa användare fingret när man slutade erbjuda nvidia-kort och man kan säkert göra det igen, men dom behöver fortfarande någon GPU i workstationklass om man vill ha kvar Mac som en produktivitetsprodukt. För renderare som Octane och Redshift håller redan på med stöd för Metal och AMD-gpuer som ser ut att komma ut i år. Nu har redan många flytt plattformen för "skapande" men om dom nu ska vara kvar i den marknaden så måste dom ju ha något som kan erbjuda likvärdig prestanda som t ex Nvidia på PC för att hålla sig konkurranskraftiga.

För en som jobbar med IT i den branchen, så såg jag klart och tydligt vad som hände förra gången Apple tappade bollen för denna kundgrupp. Men i en del marknadader, och framförallt i USA har Mac fortfarande ett stort fäste inom detta segment där GPU-accelerering kan och gör stor nytta. Och apple har ju uppenbarligen tänkt att stanna kvar iom nya mac pro, samt att man faktiskt börjar se bättre programstöd, så är väl självklart att det finns ett behov av ordentlig med gpu-kraft på platformen.

Permalänk
Medlem

Det är lite rörande att se hur bekymrade folk som kör något annat är för oss Mac-användare i och med den här övergången.

Skrivet av Petterk:

@Yoshman: Med tanke på att Apples GPUer troligen fortfarande är baserade på PowerVR/IMG så tar det nog ett tag innan de slår Vega II. Särskilt om de inte ska ha något dedikerat kisel då.

Apple har sin egen GPU-IP (som också använder tile based deferred rendering) och som redan påpekats är ju GPUer enkelt skalbara. Och de nya konsolerna kommer att prestera bra, med måttlig kiselyta redan på 7nm. Apples Mac-SoCs kommer att göras på TSMC 5nm och bättre, så de kommer nog att kunna prestera väl, budskapet från konsolkonstruktionerna är väl då bara att man får se till att ha ett minnessystem som är rejält dimensionerat, vilket naturligtvis också kommer en multi-core CPU till godo.
Vilket är det som intresserar mig allra mest egentligen de närmaste par åren - hur Apple sköter den övergripande systemdesignen. Generell prestanda kommer att vara utmärkt, en två år gammal surfplatte SoC från Apple på en sämre process presterar redan riktigt anständigt. Att SPEC och GB5 siffror kommer att se bra ut är en självklarhet, det är vad Apple tar tillfället i akt att implementera som inte har sin direkta motsvarighet i x86/PC som är mest spännande.

Permalänk
Medlem

Det blir ju intressant att se vilken typ av CPU Apple silicon är när det väl lanseras i motsvarigheten till Mac Pro...
128 Kärnor eller mer, (https://www.anandtech.com/show/15871/amperes-product-list-80-...)
Finns det någon poäng i att lägga in en GPU i pcie-format eller lägger de bara till beräkningskärnor...

Permalänk
Medlem
Skrivet av Yoshman:

Och hur spelar det någon roll för något förutom spel?
Och om Apple går all-in på TBDR, fungerar det ens på AMD/Intel GPUer?

Om man använt en 16" MBP märker man att datorn kan vara rätt tyst, i alla fall fram till att man startar något som tvingar igång dGPU-delen. Så själv skulle jag kunna betala extra för att slippa dGPU i en sådan dator, men nu löser det sig själv!

Klart API:t fungerar på Intel och AMD?

Final Cut Pro X och DaVinci Resolve använder lite mer än ren videoacceleration.

Utan dedikerat kisel kommer de konkurrera med Intels och AMDs integrerade grafik mer eller mindre, där båda konkurrenterna har börjat gå mot större integrerade GPUer än tidigare. Det förbättras ju över tiden, men det tar nog ett tag innan de slår Vega II och dylikt även med sina egna applikationer utvecklade av Apple.

Permalänk
Medlem
Skrivet av Petterk:

Klart API:t fungerar på Intel och AMD?

Final Cut Pro X och DaVinci Resolve använder lite mer än ren videoacceleration.

Utan dedikerat kisel kommer de konkurrera med Intels och AMDs integrerade grafik mer eller mindre, där båda konkurrenterna har börjat gå mot större integrerade GPUer än tidigare. Det förbättras ju över tiden, men det tar nog ett tag innan de slår Vega II och dylikt även med sina egna applikationer utvecklade av Apple.

Kanske. Vi får se vad de satsar på. Det faktum att de inte bara släppte Mac Pron, utan också sitt eget video-accelleratorkort (de har en snygg demo med tre parallella 8k Pro Res videoströmmar) visar att de är beredda att stödja även ganska små nischer med kisellösningar. Så det är svårt att göra förutsägelser.

Permalänk
Medlem
Skrivet av EntropyQ3:

Apple har sin egen GPU-IP (som också använder tile based deferred rendering) och som redan påpekats är ju GPUer enkelt skalbara. Och de nya konsolerna kommer att prestera bra, med måttlig kiselyta redan på 7nm. Apples Mac-SoCs kommer att göras på TSMC 5nm och bättre, så de kommer nog att kunna prestera väl, budskapet från konsolkonstruktionerna är väl då bara att man får se till att ha ett minnessystem som är rejält dimensionerat, vilket naturligtvis också kommer en multi-core CPU till godo.
Vilket är det som intresserar mig allra mest egentligen de närmaste par åren - hur Apple sköter den övergripande systemdesignen. Generell prestanda kommer att vara utmärkt, en två år gammal surfplatte SoC från Apple på en sämre process presterar redan riktigt anständigt. Att SPEC och GB5 siffror kommer att se bra ut är en självklarhet, det är vad Apple tar tillfället i akt att implementera som inte har sin direkta motsvarighet i x86/PC som är mest spännande.

Det vet vi inte så mycket om, och det är svårt att se skillnaden för utomstående då de fortsätter att använda samma drivrutiner som Imagination hjälpte till att utveckla. Det finns förmodligen arv även i kiseln.

I teorin kan man skala upp alla GPUer som finns i mobilvärlden, men det finns nog anledning till att man inte gör det. Sen får vi se om Apple är redo att göra kretsar som är 300-400 mm².

Skrivet av EntropyQ3:

Kanske. Vi får se vad de satsar på. Det faktum att de inte bara släppte Mac Pron, utan också sitt eget video-accelleratorkort (de har en snygg demo med tre parallella 8k Pro Res videoströmmar) visar att de är beredda att stödja även ganska små nischer med kisellösningar. Så det är svårt att göra förutsägelser.

Men eftersom detta bara är en liten del av arbetsflödet så behöver de en GPU som är stark på Metal för att det ska finnas någon nytta med det hela.

Permalänk
Datavetare
Skrivet av Petterk:

Klart API:t fungerar på Intel och AMD?

Final Cut Pro X och DaVinci Resolve använder lite mer än ren videoacceleration.

Utan dedikerat kisel kommer de konkurrera med Intels och AMDs integrerade grafik mer eller mindre, där båda konkurrenterna har börjat gå mot större integrerade GPUer än tidigare. Det förbättras ju över tiden, men det tar nog ett tag innan de slår Vega II och dylikt även med sina egna applikationer utvecklade av Apple.

Självklart fungerar Metal (APIet) även på Intel/AMD GPUer. Men om man nu säger att alla GPUer, vare sig det är på iOS eller MacOS, så kommer folk förutsätta att trix likt detta alltid är möjligt

"Since iOS 10 Metal also supports memoryless render targets that have no RAM backing. These surfaces exist only in tile-local memory and only for the duration of a single pass. The benefit of this feature is that no load/store bandwidth is used when using the surface. Depth textures are a good use case for memoryless render targets as they are usually not used as textures for future passes (unless they are shadow maps, of course)."

Möjligt att ovan logiskt sett fungerar även på Intel/AMD, men man kommer inte få avsedd effekt då HW-stödet saknas.

Förutsätter att de program du nämner har mer avancerat stöd än ren videoacceleration. Historiskt har det varit rätt skralt med detta, framförallt på PC, så även om GPU-kraften sjunker lite i närtid kan ändå applikationsprestanda öka om man faktiskt utnyttjar de funktioner som finns betydligt bättre.

Vad jag förstått finns vissa av dessa program redan på iPad Pro och presterar riktigt bra där. Det borde rimligen bara vara möjligt om iOS versionen redan idag utnyttjar tillgängligt kisel bättre än vad som är fallet på PC.

Sedan: GPUer är relativt "lätta" att skala upp just då uppgiften de gör är så skalbart över kärnor. Apple är en av världens absolut rikaste företag, de borde kunna lägga erforderliga FoU-resurser för att skapa en bra GPU (för GPGPU) om de bara anser att det är en marknad värd att behålla. I det korta loppet kan man ju fortsätta köra AMDs dGPU, de lär knappast ta bort PCIe på Mac Pro.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Förutsätter att de program du nämner har mer avancerat stöd än ren videoacceleration. Historiskt har det varit rätt skralt med detta, framförallt på PC, så även om GPU-kraften sjunker lite i närtid kan ändå applikationsprestanda öka om man faktiskt utnyttjar de funktioner som finns betydligt bättre.

Compositing och färgkorrigering är en del av FCPX och DaVinci Resolve. Utan VFX och färgkorrigering är dessa lösningar inte särskilt användbara. Compositing använder GPUn via Metal och är inget som kommer flytta till specialkisel/funktioner.

För övrigt inte givet att plattformen kommer vara öppen nog för att släppa in diskret GPU, även på de stationära macarna. Krävdes ju bara lite ändringar i programvaran för att stänga ute Nvidia från att skeppa drivare själva.

Permalänk
Medlem
Skrivet av Petterk:

Det vet vi inte så mycket om, och det är svårt att se skillnaden för utomstående då de fortsätter att använda samma drivrutiner som Imagination hjälpte till att utveckla. Det finns förmodligen arv även i kiseln.

Man anropar ju GPUerna via systemanrop, och Apple kontrollerar själva Metal. Som du påpekar så är det svårt att se precis hur de underliggande hårdvaruelementen är implementerade. Men Apple har under ett decennium värvat GPU folk med den uttalade ambitionen att utveckla sin egen "world class" GPU-IP, meddelade ImgTech att de skulle sluta licensiera deras IP, gjorde detta, sa att de använde sina egna konstrutioner f.o.m. A11, och lyfte inte ett finger när ImgTech sedan såldes till ett kinesiskt holding-bolag.
Det är lite akademiskt nu när de just har ingått ett nytt licensavtal, så de kan använda bra lösningar som Img har patent på. Apple har värvat stora delar av ImgTechs ingenjörsstab (och tekniska ledning) och de vet naturligtvis precis vad som skulle vara gynnsamt att kunna inkorporera i sina GPUer.

Citat:

I teorin kan man skala upp alla GPUer som finns i mobilvärlden, men det finns nog anledning till att man inte gör det. Sen får vi se om Apple är redo att göra kretsar som är 300-400 mm².

Har inte funnits någon marknad för uppskalade mobil-GPUer. Vem skulle investera i diskreta lösningar, och fullständigt Direct-X stöd från Hedenhös och framåt? Vem skulle de sälja till när Intel och AMD har sina egna lösningar, och dessutom i konkurrens med Nvidia? Låter som en urusel affärsidé.
Hur stora kretsar Apple är beredda att göra står skrivet i stjärnorna. De kan ju också göra multi-chip lösningar t.ex. Vi vet helt enkelt inte. Det ligger nära till hands att anta att de skulle hålla sig till massmarknadsdesigner, men det faktum att de alls brydde sig om att göra en Mac Pro, och dessutom utveckla en dedikerad videoprocessor till den antyder att vi kanske inte skall ta något för givet.

Permalänk
Medlem

Apple bara fuck vulkan vi gör ett eget gränsnitt metal, fattar inte varför. Jaja egna grafik kort är ett smart val kanske blir lättare för dem att integrera deras bärbara mobila och desktop datorer som dom tänkt göra verkar det som när dom portade ios till desktop och kallade det big sur.

Visa signatur

CachyOs. MSI MPG Z490 GAMING PLUS// Intel Core i5-10600K@4800Mhz// Radeon rx 6800 16gb // Corsair VENGEANCE LPX 32GB.

Permalänk
Medlem

Bra för oss PC användare!

Nu kan de koncentrera sig på Ryzen och Radeon.

Visa signatur

Fractal Design Define R4 | ASUS Z170-A | i7 6700K @ 4.6 GHz med CM Hyper 212 Evo
ASUS GTX 1070 Ti Cerberus Advanced | Corsair LPX Black 3000 Mhz 16 GB CL 14
Samsung m2 970 Evo 1 TB | EVGA Supernova G2 750W | Huawei Mate 20 X

Permalänk
Medlem

Jag tycker att Apple borde klargöra sin plan för Mac Pro i framtiden. Ska det komma en modulär ARM-Mac med CPU-socket och PCIe-slots? Kommer man kunna stoppa in grafikkort tillverkade av Apple i den eller till och med faktiskt fortsätta med AMD-kort då de kan fortsätta ha stöd för Metal?

Det är inte riktigt Apple att prata om produkter de inte lanserat, men de har behövt göra undantag tidigare (2017 om jag minns rätt) där man fått säga till proffsdemografin vad som kommer ske framöver. Det var klokt gjort då och vore klokt gjort nu, för vet man inget alls lär man snegla på förutsägbara HP Z workstations återigen.

Visa signatur

i9-10980XE ~4.6GHz | 128GB DDR4-3600 | ASUS WS X299 PRO | RTX 4070 Super, Founders Edition
i7-7820X 4.8GHz | 64GB DDR4-3200 | ASUS WS X299 PRO | RTX 3080, Founders Edition

Permalänk
Medlem

@EntropyQ3: Du pratade om konsoler tidigare, vilket var vad jag kommenterade på bland annat – de har sina egna operativsystem, APIer och drivrutiner (särskilt när vi pratar Nintendo och Sony). PowerVR fanns i diskreta grafikkort fram till 2001-2002, sen dess har de inte skalats upp till större än SoCs för gamla iPads.

Qualcomm har all anledning då de vill in på notebook/desktop-marknaden för den delen. Det de kommer med kommer ju inte lägga fokus på GPU utan hamnar som mest på samma ställe som Intel och AMD, vilket är varför diskreta kort är så vanligt bland bärbara.

Permalänk
Medlem

Detta med att Apple ska tillverka egna processorer kommer inte som någon direkt överraskning. De har övergett sina användare minst två gånger tidigare genom att helt byta arkitektur. De är inte rädda för att experimentera på sina kunders bekostnad. Och varför inte? Deras kunder går som vanligt på det mesta Apple påstår. Jag tror detta blir någon sorts repris på deras PowerPc-satsning de hade tidigare. Då påstod de sig att köra cirklar runt Intel i hastighet och vara helt överlägsna. Detta var en grov osanning men de i "Applesekten" och många andra svalde påståendena utan att tveka. Sen bytte de som bekant till Intelprocessorer. Kanske kommer de att lyckas med att få en hyfsad prestanda ur en ARM-baserad processor sett till energieffektivitet. Men att hota Intel eller AMD när det gäller högpresterande CPUer kommer de nog bara göra i sin egen marknadsföring, inte i verkligheten. För varje steg Apple tar blir jag lyckligare att jag valt PC-sidan.

Permalänk
Medlem
Skrivet av filbunke:

Man köper inte en mac för att inte köra macos på den, men i en situation där apple inte längre stödjer hårdvaran så kan det ju vara trevligt att kunna installera annat på den. Bättre än att som sagt använda den som pappersvikt.

Varför skulle det bli en pappersvikt för att senaste versionen av MacOS inte går att installera?
Finns gott om macar i bruk som inte har stöd för senaste OS, för att inte prata om iphones och ipads.

Visa signatur

"When I get sad, I stop being sad and be awsome instead, true story."

Permalänk
Skrivet av Scirocco:

Apple bara fuck vulkan vi gör ett eget gränsnitt metal, fattar inte varför. Jaja egna grafik kort är ett smart val kanske blir lättare för dem att integrera deras bärbara mobila och desktop datorer som dom tänkt göra verkar det som när dom portade ios till desktop och kallade det big sur.

Ta av dig nattmössan eller gå och lägg dig. Alternativt läs på. 😉😚

Craig Federighi på Apple talar om att Mac-datorer ska få fortsätta vara Mac-datorer:
https://youtu.be/Hg9F1Qjv3iU?t=3187

Skrivet av Ceji:

Detta med att Apple ska tillverka egna processorer kommer inte som någon direkt överraskning. De har övergett sina användare minst två gånger tidigare genom att helt byta arkitektur. De är inte rädda för att experimentera på sina kunders bekostnad. Och varför inte? Deras kunder går som vanligt på det mesta Apple påstår. Jag tror detta blir någon sorts repris på deras PowerPc-satsning de hade tidigare. Då påstod de sig att köra cirklar runt Intel i hastighet och vara helt överlägsna. Detta var en grov osanning men de i "Applesekten" och många andra svalde påståendena utan att tveka. Sen bytte de som bekant till Intelprocessorer. Kanske kommer de att lyckas med att få en hyfsad prestanda ur en ARM-baserad processor sett till energieffektivitet. Men att hota Intel eller AMD när det gäller högpresterande CPUer kommer de nog bara göra i sin egen marknadsföring, inte i verkligheten. För varje steg Apple tar blir jag lyckligare att jag valt PC-sidan.

Ja just – folk som kör Apples grejor är blåsta för egentligen är det mycket bättre på annat håll, men Apple fortsätter att finnas trots att det inte finns någon direkt substans bakom deras produkter. Tack för att du påminner om detta, det var länge sedan jag hörde någon säga det. 🙄

Men att hota Intel eller AMD när det gäller högpresterande CPUer kommer de nog bara göra i sin egen marknadsföring.

Citerar dig gärna om ett par år på den. 🙂

Alltså – är för kritik mot Apple när de gör fåniga saker, men svepande kritik utan direkt innehåll och komma dragandes med att Apple-användare är korkade är bara tråkigt att läsa. Men härligt att du är lycklig!

Visa signatur

• Fractal Design North | ASUS ROG Strix B650E-F | Ryzen 7 7800X3D | Radeon RX 7900 GRE | 64 GB RAM | Windows 11
• Mac Pro (Mid 2010) | 6-Core Intel Xeon ”Westmere” | Radeon RX 5700 XT | 32 GB RAM | macOS 12 Monterey | Windows 10
• MacBook Pro 14" | M2 Max | 96 GB RAM | macOS 14 Sonoma

Permalänk
Medlem
Skrivet av Json_81:

Varför skulle det bli en pappersvikt för att senaste versionen av MacOS inte går att installera?
Finns gott om macar i bruk som inte har stöd för senaste OS, för att inte prata om iphones och ipads.

När du inte längre kan installera de senaste versionerna av program, när säkerhetsfixar inte kommer, osv.

Citat:

This Application requires iOS 13.0 or later. You must update to iOS 13.0 in order to download and use this application.

Som sagt, den som inte tror att apple vill låsa macos på samma sätt som ios är låst...

Permalänk
Medlem
Skrivet av filbunke:

När du inte längre kan installera de senaste versionerna av program, när säkerhetsfixar inte kommer, osv.

Som sagt, den som inte tror att apple vill låsa macos på samma sätt som ios är låst...

Det befintliga slutar ju inte fungera för det.

Visa signatur

"When I get sad, I stop being sad and be awsome instead, true story."

Permalänk
Medlem

@Ceji: Skulle inte säga att det är en repris. Bytet till Intel förde med sig massor andra saker som virtualisering utan emulering, och senare bootcamp. Långt senare Thunderbolt. De fick även EFI från Intel istället för att bygga vidare på på Open Firmware. Det de inte kommer licensiera får de bygga själv nu.

Blir intressant att se hur det blir med virtualisering, GNU/Linux kommer ju stödjas i någon mån, men det blir intressant och se om Parallels kommer köra med med egen hypervisor eller den inbyggda.

Permalänk
Medlem

Jag tycker det är förbannat skönt de gör allt själv så slipper man se ful röd logo med AMD på det! ALL HAIL APPLE! Detta är jäääävligt spännande och kommer bli ruskigt kul!

Permalänk
Medlem
Skrivet av Yoshman:

På GPU-sidan finns ju en till teknisk anledning varför övergången kan bli rätt snabb. Tile Based Deferred Rendinging (TBDR) har massor med fördelar när man är TDP-begränsad, men det finns också fördelar med Immediate Mode Rendering (IMR) om man har möjlighet till massiv RAM-bandbredd och hög TDP. Det krävs lite olika strategier i applikationerna för att optimera för respektive modell, Apple har ju nu helt valt sida här så frågan är varför någon skulle lägga resurser på IMR om man siktar på MacOS?

Sen angående prestanda. Dels tror jag folk underskattar prestandan hos Apples GPUer, framförallt då en GPU är långt enklare att skala uppåt än en CPU då arbetet GPUer normalt gör skalar nära nog perfekt med fler kärnor -> har man mer TDP-utrymme är det bara att lägga mer kisel på GPU-delen för i princip linjär skalning.

Dels, hur mycket GPU-kraft behövs egentligen i professionella applikationer (d.v.s inte spel och inte maskininlärning, det senare har Apple en ännu bättre lösning än GPGPU i form av NPU)? En fördel MacOS haft för t.ex. videoredigering är att GPGPU-acceleration implementerades långt tidigare och i större utsträckning än på PC (även om det nu också börjar hända på PC-sidan).

Även en rätt medioker GPU demolerar en CPU i uppgifter som lämpar sig för GPGPU-acceleration. Senaste versionen av Adobe Premier har fått utökat stöd för GPGPU, "The new version 14.2 of Premiere Pro will leverage NVENC to boost encoding by over 5 times compared to CPU.".

Så om Apple bara arbetar med de stora 3:e-parts tillverkarna så de använder deras kisel (GPGPU och NPU) så kommer det ge en klar prestandafördel om man så ställer Ipad Pro mot desktop x86 med dGPUer då de senare helt enkelt har rätt begränsad utnyttjandegrad av den beräkningskraft som primärt sitter i dGPUn.

Alltid intressanta inlägg från dig Yoshman

Det är inte bara så enkelt att säga TDP. Utan det handlar också om kiselyta. Just GPU beräkningsenheter brukar ha låga klockfrekvenser. Har man säg 8 st sådana så tar det stop någonstans även om vi i teorin skulle kunna kyla bort mer effekt.

Det finns ju exempel på grafikkort där det med fler enheter presterar bättre än ett med färre trots att de ligger på snarlik TDP och det med färre enheter är klockat högre.

Du får gärna utveckla vad som är för och nackdelar med TBDR

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem
Skrivet av Petterk:

@EntropyQ3: Du pratade om konsoler tidigare, vilket var vad jag kommenterade på bland annat – de har sina egna operativsystem, APIer och drivrutiner (särskilt när vi pratar Nintendo och Sony). PowerVR fanns i diskreta grafikkort fram till 2001-2002, sen dess har de inte skalats upp till större än SoCs för gamla iPads.

Qualcomm har all anledning då de vill in på notebook/desktop-marknaden för den delen. Det de kommer med kommer ju inte lägga fokus på GPU utan hamnar som mest på samma ställe som Intel och AMD, vilket är varför diskreta kort är så vanligt bland bärbara.

Man kan ju hoppas att Apples initiativ gör att Microsoft börjar bruka lite allvar vad gäller Windows för ARM. Det vore otroligt kul att se vad Qualcomms Adreno-grupp (som Qualcomm köpte av AMD när Intel dödade AMDs möjligheter på den mobila marknaden med sin "counter revenue"), skulle kunna göra om de fick sträcka på benen! Eric Demers och grabbarna skulle nog tycka det var motiverande att utmana sina gamla kollegor, och visa att de inte legat på latsidan. 😀

Permalänk
Medlem
Skrivet av Yoshman:

Och hur spelar det någon roll för något förutom spel?
Och om Apple går all-in på TBDR, fungerar det ens på AMD/Intel GPUer?

Om man använt en 16" MBP märker man att datorn kan vara rätt tyst, i alla fall fram till att man startar något som tvingar igång dGPU-delen. Så själv skulle jag kunna betala extra för att slippa dGPU i en sådan dator, men nu löser det sig själv!

Beställde min MBP 15 utan dGPU. Kostade inget extra men inte heller billigare. Kostade exakt på kronan samma med eller utan. Dock längre leveranstid utan.. Detta var hösten 13.

Visa signatur

Idag kom Athlon64

Permalänk
Datavetare
Skrivet av Herr Kantarell:

Alltid intressanta inlägg från dig Yoshman

Det är inte bara så enkelt att säga TDP. Utan det handlar också om kiselyta. Just GPU beräkningsenheter brukar ha låga klockfrekvenser. Har man säg 8 st sådana så tar det stop någonstans även om vi i teorin skulle kunna kyla bort mer effekt.

Det finns ju exempel på grafikkort där det med fler enheter presterar bättre än ett med färre trots att de ligger på snarlik TDP och det med färre enheter är klockat högre.

Du får gärna utveckla vad som är för och nackdelar med TBDR

Har ingen hands-on erfarenhet av TBDR, det är på "TODO" listan över saker att testa när jag köper en ARM-baserad Mac

Har däremot läst en hel del om TBDR, bl.a. därför att jag läste så mycket om vad dess fördelar är att det lät för bra för att vara sant. För om det inte fanns nackdelar, varför skulle då någon köra IMR? Nvidia och AMD är väldigt kompetenta när det kommer till GPU-design, de har trots allt valt att stanna med IMR.

Fördelen med TBDR är primärt väldigt bra perf/W och möjlighet till långt mindre krav på hög RAM-bandbredd. TBDR kan effektivt hantera hög upplösning samt man kan utföra MSAA väldigt billigt.

Men det finns aldrig några gratisluncher, akilleshälen hos TBDR (från vad jag kunnat läsa mig till) är att vissa populära post-processing algoritmer behöver tillgång till hela bilden, inte bara en tile, och fungerar därmed i praktiken inte alls. Och även om man effektivt kan hantera höga upplösningar (perfekt match för moderna mobiler och pekplattor) så skalar TBDR sämre med komplex geometri jämfört med IMR.

Dagens rätt komplexa spel har av rätt naturliga skäl gått i en riktning som lämpar sig bättre på IMR. De enklare spel vi typiskt hittar på mobiler/pekplattor visar i stället styrkorna hos TBDR.

Spontant känns det också som raytracing måste passa IMR långt bättre än TBDR, detta då det finns väldigt lite korrelation mellan startpunkten hos en stråle och dess vidare färd genom scenen.

En av de absolut mest energikrävande uppgifterna i moderna CPU/GPUer är dataförflyttning, TBDR är hårdoptimerad för att minimera just detta vilket är orsaken till dess perfekta match för enheter med låg TDP. Men vissa avancerade tekniker har i princip noll datalokalitet, de kan därför inte effektivt hantera med hjälp av olika former av cache utan man måste ha en stor rejäl motor! Det finns helt klart fall där "there's no replacement for displacement" även i datorvärlden! Men tror att många ändå klarar sig hur bra som helst med liten turboladdad motor, d.v.s. TBDR

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer