Har inte hört något om dessa innan. Men har inte speciellt svårt att tro på "mer energieffektiva än Nvidia" för något som specifikt satsar på AI då sådant lär lösas med någon form av NPU.
Nvidia har i.o.f.s. sina Tensor-cores, men NPUer tror jag är än mer specialiserade mot AI. Mellan tummen och pekfingret brukar man säga att funktioner som implementeras i HW (ASIC) är runt en tiopotens mer energieffektiva jämfört med motsvarande funktion implementerad i mjukvara på en mer generell HW.
ML kommer in i allt mer, så råder inget tvivel om att framtida datorer kommer ha alla möjliga former av HW-acceleration för AI/ML. Det i sig betyder inte att alla som satsar på detta kommer bli rika som troll, rimligen kommer rätt många ge sig in i den branschen likt hur alla nya branscher brukar utveckla sig (se t.ex. på grafik-kretsar i 3D-grafikens tidigare år...).
Slutligen, Nvidia lär också stoppa in allt mer AI/ML specifikt kisel vad det lider. Problemet för de mer etablerade drakarna är att de är relativt få, de flesta små uppstickare misslyckas men räcker ju att någon enstaka träffar väldigt rätt för att de med tiden ska bli den man borde ha satsat på