Analytiker räknar med snabb tillväxt för AI-PC

Permalänk
Medlem
Skrivet av medbor:

Skulle vara intressant att se vad HPs memristorer hade kunnat göra på det här området, de var väl ungefär så nära neuroner man kunde komma?

Tyvärr är HP's memristorer fortfarande så nära vapourware som men kan komma.

Det finns några andra företag som också kollar på analog "inferens".
För inferens behövs inte hög precision heller, så på digital hårdvara kan t.om en precision på så låg som fyra bittar räcka.
Men för "inlärning" är det fortfarande större mängder hårdvara med hög precision som gäller.

Visa signatur

För övrigt anser jag att tobak ska förbjudas.

Permalänk
Medlem
Skrivet av Neon:

"en vän" säger väldigt lite, hur testade man, vilken LLM använde man? Har du kanske något länk, hade varit intressant att se mer.

När det gäller programmering så kommer man väldigt väldigt nära redan nu :

https://www.youtube.com/watch?v=F1bXfnrzAxM&ab_channel=Matthe...

Men sen är det möjligt att andra frågor kan bli problematiska? Hade som sagt varit intressant att se mer på det.

Den gratis tillgängliga versionen av chatGPT för kanske... två veckor sedan? Metoden har jag iprincip redan beskrivit. Tror jag har screenshots på det någonstans.

Poängen är.. det är inte ovanligt att de ger svar som är helt påhittade. Det finns ju till och med termer för att beskriva det. Och det kluriga är att det är otroligt svårt att veta om svaret är en ren "halucination" eller om den faktiskt hämtat fakta någonstans ifrån.

Permalänk
Medlem
Skrivet av Neon:

"en vän" säger väldigt lite, hur testade man, vilken LLM använde man? Har du kanske något länk, hade varit intressant att se mer.

När det gäller programmering så kommer man väldigt väldigt nära redan nu :

https://www.youtube.com/watch?v=F1bXfnrzAxM&ab_channel=Matthe...

Men sen är det möjligt att andra frågor kan bli problematiska? Hade som sagt varit intressant att se mer på det.

Jag mindes fel, det var avståndet till solen han bad om, inte till månen. Jag gjorde om experimentet nu. Den gav lite annat svar nät jag skrev "try again" jämfört med när min vän testade, men det är ungefär lika fel. Rätt svar är altså ca 360m antaget att en valnöt är ca 3cm i diameter.

Edit: ska försöka få in rätt bild snart...

Permalänk
Datavetare
Skrivet av DevilsDad:

En till väldigt relevant skillnad är att dessa LLM relativt ofta ger nonsenssvar.. en vän försökte fråga chatgpt "om jorden är stor som en valnöt, hur långt borta är månen?" Och den svarade något random som var heeelt fel. Då svarade han "try again" varpå chatgpt gav ett nytt random svar som var i princip lika mycket fel.. det är inte direkt något som är svårt att ta fram baserat på information från wikipedia. Tar någon minut att räkna ut..

Det spelar ju rätt stor roll hur frågan är formulerad, vill man ha "vettiga" svar måste man försöka slå fast ramarna tillräckligt väl.

Ställer man frågan precis som beskrivs ovan finns osäkerhet i hur stor en valnöt är, och framförallt huruvida man bara ska skala med storleken på jorden eller om rester också ska skalas på liknade sätt.

Tycker man får rätt bra beskrivning till hur beräkningen är gjort

Ställer man frågor om andra saker får man ofta, men inte alltid, rätt bra referenser till var informationen kommer ifrån.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av DevilsDad:

Jag mindes fel, det var avståndet till solen han bad om, inte till månen. Jag gjorde om experimentet nu. Den gav lite annat svar nät jag skrev "try again" jämfört med när min vän testade, men det är ungefär lika fel. Rätt svar är altså ca 360m antaget att en valnöt är ca 3cm i diameter.

Edit: ska försöka få in rätt bild snart...

Klantade till screenshotten så fick göra om det. Ännu en gång fick jag nya svar som är lika nonsens.

Edit: Vet inte riktigt vad som händer.. försöker ladda upp en screenchot från telefonen, men för mig är den bara svart..

Permalänk
Medlem
Skrivet av Yoshman:

Det spelar ju rätt stor roll hur frågan är formulerad, vill man ha "vettiga" svar måste man försöka slå fast ramarna tillräckligt väl.

Ställer man frågan precis som beskrivs ovan finns osäkerhet i hur stor en valnöt är, och framförallt huruvida man bara ska skala med storleken på jorden eller om rester också ska skalas på liknade sätt.

Tycker man får rätt bra beskrivning till hur beräkningen är gjort

<Uppladdad bildlänk>

Ställer man frågor om andra saker får man ofta, men inte alltid, rätt bra referenser till var informationen kommer ifrån.
<Uppladdad bildlänk>

Intressant att copilot gav så mycket bättre svar i detta fallet. Faktum kvarstår att de inte är ovanligt att de ger helt påhittade svar och låter som de vet vad de pratar om. Har man inte lite koll själv så kan det vara otroligt svårt att genomskåda om det är ett rimligt svar eller ej man fått.

Tex de två frågeställningarna du gav. Det första kan jag bekräfta om svaret är rimligt eller ej. Men i det andra saknar jag kompetens för att avgöra rimligheten. Den ger referenser, så att kolla upp dem är ju en bra start. Iaf chatGPT har blivit påkommen med att hitta på referenser också.

Det är kul om de blir mer pålitliga. Min poäng är bara att man bör vara väldigt försiktig med att lita på dem ett tag till.

Permalänk
Medlem

Generativ AI i sin nuvarande form är rejält överskattat.

Största problemet är att LLM's dras med barnsjukdomar som det inte finns några lösningar på i sikte. Varav den största är att AI modellerna håller på att kollapsa på grund av all AI genererad skräp-data som håller på att spilla över och förorena nätet. Nödlösningar som man har implementerat för att motverka detta, är att begränsa träningsdatan till 2021/2022.

AI är utmärkt för att träna att utföra specifika uppgifter, men totalt värdelösa för generell användning.

Visa signatur

| Corsair Obsidian 1000D | AMD Ryzen 9 5950x 3.4 GHz(5 GHz boost) med Corsair iCue H170i Elite Capellix | Asus ROG Crosshair VIII Dark Hero | G.Skill Trident Z neo, 2x16GB 3600MHz C16 | ROG Strix LC GeForce 3090 Ti 24GB | 1x Seagate FireCuda 520 1TB, 1x Samsung 850 EVO 250GB, 1x Samsung 970 EVO 1TB, 2x 1TB HDD, 1x Seagate Ironwolf 16TB HDD | Corsair AX860i | ASUS PG279Q & ASUS XG27AQM|

Permalänk
Medlem
Skrivet av DevilsDad:

Klantade till screenshotten så fick göra om det. Ännu en gång fick jag nya svar som är lika nonsens.

<Uppladdad bildlänk>

Edit: Vet inte riktigt vad som händer.. försöker ladda upp en screenchot från telefonen, men för mig är den bara svart..

Permalänk
Medlem
Skrivet av DevilsDad:

Den gratis tillgängliga versionen av chatGPT för kanske... två veckor sedan? Metoden har jag iprincip redan beskrivit. Tror jag har screenshots på det någonstans.

Poängen är.. det är inte ovanligt att de ger svar som är helt påhittade. Det finns ju till och med termer för att beskriva det. Och det kluriga är att det är otroligt svårt att veta om svaret är en ren "halucination" eller om den faktiskt hämtat fakta någonstans ifrån.

Skrivet av DevilsDad:

Jag mindes fel, det var avståndet till solen han bad om, inte till månen. Jag gjorde om experimentet nu. Den gav lite annat svar nät jag skrev "try again" jämfört med när min vän testade, men det är ungefär lika fel. Rätt svar är altså ca 360m antaget att en valnöt är ca 3cm i diameter.

Edit: ska försöka få in rätt bild snart...

Ser att det blev en missuppfattning här, jag antog att du pratade om lokal LLM(artikelämnet).

Jag använder ChatGPT 4 dagligen, både i jobbet och privat, det är väldigt, väldigt sällan den hittar på grejer. Det händer, absolut, och det kluriga är när den väver ihop det med delvis riktig fakta. Förvirgt, det är ganska stor skillnad på ChatGPT 3.5 och 4.

Nackdelen med ChatGPT är att den inte inkluderar länkar till källor vilket gör det svårare att verifiera. Vad jag förstår ska Googles nya Gemini Ultra vara klart bättre på detta och den ska ligga i nivå med ChatGPT 4.

Förövrigt är en vanlig google sök inte alltid heller vidare tillförlitlig, skulle faktiskt säga mindre tillförlitlig och mer tidskrävande. MEN det finns en fördel här, man ser var informationen kommer ifrån vilket tydligare verifierar "fakta".

När det gäller kodgenerering så är det oftast inga problem att få den att generera enstaka metoder som gör även lite mer komplexa beräkningar. Men så snart problemet sträcker sig djupare, mellan flera metoder och klasser så blir det uppenbart svårare för den att hålla ihop. Unit Test är oftast små så här här det oftast bara till att klippa in metoderna som ska testas och be om X antal rimliga tester, sällan behöver man juster dem. All kod måste såklart verifieras innan man lägger in den i kodbasen vilket på sätt och vis blir en fakta koll. Det vill såklart till att man varit noga med att speca vad det är man är ute efter annars kan det ta mer än ett par försök.

Artikeln pratar om lokala LLM:er och detta är extra intressant för utvecklare av flera anledningar. Som man kan se i videon jag postade så kommer man uppenbarligen redan väldigt långt även om de inte presterar riktigt som de stora LLM:erna.

Visa signatur

CPU : AMD Ryzen 5 5600X Moderkort : ASUS ROG Strix B550-F GAMING Grafikkort :EVGA GeForce GTX 1080 Ti FTW3 iCX Gaming HDMI 3xDP 11GBMinne : Corsair 16GB Chassi :Fractal Design Define 7 Compact Nätdel : Corsair RM750x Skärm #1 : Asus VG349Q Ultrawide Skärm #2 : Acer X34 Ultrawide

Permalänk
Medlem
Skrivet av Neon:

Ser att det blev en missuppfattning här, jag antog att du pratade om lokal LLM(artikelämnet).

Jag använder ChatGPT 4 dagligen, både i jobbet och privat, det är väldigt, väldigt sällan den hittar på grejer. Det händer, absolut, och det kluriga är när den väver ihop det med delvis riktig fakta. Förvirgt, det är ganska stor skillnad på ChatGPT 3.5 och 4.

Nackdelen med ChatGPT är att den inte inkluderar länkar till källor vilket gör det svårare att verifiera. Vad jag förstår ska Googles nya Gemini Ultra vara klart bättre på detta och den ska ligga i nivå med ChatGPT 4.

Förövrigt är en vanlig google sök inte alltid heller vidare tillförlitlig, skulle faktiskt säga mindre tillförlitlig och mer tidskrävande. MEN det finns en fördel här, man ser var informationen kommer ifrån vilket tydligare verifierar "fakta".

När det gäller kodgenerering så är det oftast inga problem att få den att generera enstaka metoder som gör även lite mer komplexa beräkningar. Men så snart problemet sträcker sig djupare, mellan flera metoder och klasser så blir det uppenbart svårare för den att hålla ihop. Unit Test är oftast små så här här det oftast bara till att klippa in metoderna som ska testas och be om X antal rimliga tester, sällan behöver man juster dem. All kod måste såklart verifieras innan man lägger in den i kodbasen vilket på sätt och vis blir en fakta koll. Det vill såklart till att man varit noga med att speca vad det är man är ute efter annars kan det ta mer än ett par försök.

Artikeln pratar om lokala LLM:er och detta är extra intressant för utvecklare av flera anledningar. Som man kan se i videon jag postade så kommer man uppenbarligen redan väldigt långt även om de inte presterar riktigt som de stora LLM:erna.

Ja, just för kodgenerering kan jag se värdet. Men det känns som en väldigt annan grej än att söka fakta.

Men för kodgenerering kan det ta bort väldigt mycket av de repetativa uppgifterna i programmering. Men det ersätter inte expertisen hos en programmerare. Men tex hade jag inte litat på den att göra en större omfaktprering av en kodbas.

Permalänk
Medlem
Skrivet av Xeonist:

Jag menar inte det här så drygt som det låter, men testa själv!? Så kan du rekommendera den motorn/modellen som ger dig rätt svar.
Sen vet jag inte riktigt vad du menar med modell, men viktigare än den LLM som används är ju den indata du matar den med.

Vad betyder "väldigt nära"? I någon mån är ju programmering binärt (no pun intended..), antingen funkar det eller inte.

Funkar inte kan betyda mycket!

Uppgradering, ux, ui, kompilera, räkna rätt i tillräckligt många fall, … absolut inte binärt rätt/fel

Permalänk
Skrivet av EntropyQ3:

"När allt yngre barn lär sig att använda AI i sin inlärning kommer de bli mer självledda." - hur i hela friden tänker du här?
Din mening känns ironiskt nog som AI-genererad text, autogenererad filler. Det finns yrkesgrupper (copywriters) som kommer att i längden kunna ersättas av det, men det är väl ett argument för att undvika att söka framtida försörjning inom områden som mest går ut på att göra varianter av befintligt material och där generativ AI är effektiv.

Det jag tar i åtanke när jag menar att lärarnas roll hotas är att AI faktiskt är den bättre läraren.
Helt enkelt eftersom den (till skillnad från en lärare som jobbar 40 h i veckan, nej förresten 20 h för resten går till förberedelse/administration osv) är en oändlig resurs som man kan fråga om och om och om igen, tills man förstår och kan gå vidare i sin förståelse till mer avancerade koncept. Den lämnar inga luckor och har oändligt med tålamod. För den motiverade eleven är den därför en oslagbar lärare. Till och med en fysisk privatlärare kan inte komma i närheten, för han/hon är för dyr i längden. Frågestuden når även där också till slut sin ände.

Svaren som fås från generativ AI är i dagsläget kanske inte helt korrekta och koncisa, men detta är för den frågvise strunt samma, eftersom det bara är att fortsätta fråga tills förståelsen är helt gjuten på sin plats. När jag läser din kritik får jag uppfattningen att du inte använt generativ AI särskilt mycket på detta sätt.

Skrivet av EntropyQ3:

Sannolikheten att den inre nyfikenheten skall leda till den på arbetsmarknaden efterfrågade kompetensen är måttlig. Mina döttrar är mest intresserade av TikToks, drama i kompisgänget, och smink. Jag var intresserad av att läsa fantasy och science fiction (som till 95% hade kunnat producerats av generativ AI) och att spana in tjejer. Inget som samhället efterfrågar precis, något av det.

Jag förstår ditt perspektiv. Själv har jag alltid presterat bäst i skolan när jag varit självledd men fått strategiskt stöd från läraren i min kunskapsinhämtning och resursanvändande (ge rimliga avgränsingar och bra litteratur t.ex.). Visst har jag varit en slarvpelle jag också, men som slarvpelle kan man ju också vara glad för att lära sig, när det tänder till i huvudet. Sen kommer högstadiet alltid förbli högstadiet. Så är det bara.

Men viktigt att tänka på är att generativ AI har förmåga att också skapa motivation, även för slarvpellar, detta eftersom de snabba specifika svaren den ger skapar dopaminkickar (aka nyfikenhet). Dessa dopaminkickar är viktiga eftersom de direkt konkurrerar med TikTok, tjejer och så vidare.

Skrivet av EntropyQ3:

Alla som lärt sig eller lär ut något på något annat än den trivialaste nivån vet dessutom att man måste tillägna sig färdigheter, träna in dem, göra dem till sina egna. Lärares uppgift är att guida i den processen. (Efter att den primära dagisfunktionen är uppfylld, vilket av allt att döma är det som huvudsakligen upptar lärares tid idag.) Generativ AI kommer säkert att hjälpa stat och kommun att skära lite till i skol- och utbildningsbudgetar, men det finns i princip ingen koppling till vad lärare faktiskt håller på med.

Vi människor är ju sociala varelser; vi behöver känna ansvar mot någon annan och ett sammanhang för att bli motiverade. Men inte nödvändigtvis. Det rena inlärandet är också starkt motiverande. Därav finns vi nördar. Jag tror starkt på att vi kommer se AI-assistenter som läraren tar hjälp av för att stötta elever som både fallit efter eller är före genomsnittet. Och jag tror att de mest lärda i framtiden kommer lovorda generativ AI som teknologi, dels för att de själva lär av den, dels för att den avlastar dem i sitt ansvar att lära ut sitt ämne till studenter i sitt ämnesområde.

Visa signatur

Snålt, smått och raffinerat är min melodi :-)

Permalänk
Medlem

Vanliga datorer med nytt namn kommer öka för att namnet inte fanns förut… finns det något som inte är en ai-dator om några år?

Permalänk
Skrivet av jockos:

Innan man ens börjar titta på hur lärarrollen eventuellt ska förändras behöver man titta på om de här verktygen överhuvudtaget bidrar till inlärning.
Kan man inte bevisa det så har AI ingenting i skolan att göra, och kan man inte hålla det borta från datorerna så kanske man bör titta på att gå tillbaka till papper och penna.

Jag tycker det är goddag yxskaft på denna fråga. Självklart är detta fallet. Ingen kan lära ut induktionsbevis som ChatGPT.

Visa signatur

Snålt, smått och raffinerat är min melodi :-)

Permalänk
Medlem
Skrivet av LessIsMoore:

Svaren som fås från generativ AI är i dagsläget kanske inte helt korrekta och koncisa, men detta är för den frågvise strunt samma, eftersom det bara är att fortsätta fråga tills förståelsen är helt gjuten på sin plats. När jag läser din kritik får jag uppfattningen att du inte använt generativ AI särskilt mycket på detta sätt.

Hur tänker du att du ska komma till den förståelsen med ständigt varierande svar?
Om du frågar AI hur mycket 5+5 är, och den hälften av gångerna säger 9, och hälften av gångerna säger 10, hur ska du veta, utan någon tidigare indata?

Skrivet av LessIsMoore:

Men viktigt att tänka på är att generativ AI har förmåga att också skapa motivation, även för slarvpellar, detta eftersom de snabba specifika svaren den ger skapar dopaminkickar (aka nyfikenhet).

Så vägen till motivation är snabba felaktiga svar?

Skrivet av Neon:

Artikeln pratar om lokala LLM:er och detta är extra intressant för utvecklare av flera anledningar. Som man kan se i videon jag postade så kommer man uppenbarligen redan väldigt långt även om de inte presterar riktigt som de stora LLM:erna.

Var det verkligen det man såg i videon du länkade till? Jag har kollat på den videon ett par gånger nu faktiskt, och det jag ser är någon som använder "AI" för att skapa något extremt rudimentärt, jag förstår inte riktigt hur det är att "komma väldigt långt"!?
Jag sätter hälften av alla pengar jag har på att det där dessutom är något han har gjort tidigare, så han har redan svaret.

Programmering handlar ju många gånger om att lösa problem som man kanske inte själv vet svaret på initialt, där processen är en del av skapandet.

Skrivet av Neon:

Drygt? Nej det tycker jag inte, däremot onödigt om någon redan testat och kan förklara vad man verkligen baserar vetskapen på?

Men med effektivisering i fokus (och AI handlar ju om någonting om effektivisering) så är det ju mycket effektivare att göra det själv.

Det är ju bara att testa själv, jag gjorde det, och fick 2 helt olika svar.
Det tog mig kanske 1/10 så lång tid att testa och förstå precis vad han menade, mot hur lång tid det tar för honom att sitta och förklara i ett inlägg.

Alternativ borde man kunna fråga AI!?

Permalänk
Medlem
Skrivet av LessIsMoore:

Jag tycker det är goddag yxskaft på denna fråga. Självklart är detta fallet. Ingen kan lära ut induktionsbevis som ChatGPT.

Tycka och veta är två helt olika saker. Många tyckte att det var väldigt modern och bra att ungarna skulle ha datorer och paddor i skolan med, men nu står vi här med 20% av femtonåringar som inte har läsförståelse på basnivå.

Pedagogik behöver tas på allvar i det här landet igen. Barnen är inte labbråttor, de är vår framtid, och därför behöver man utreda nya verktyg och metoder innan man tar dem i bruk.

Visa signatur

Gaming: 5800x, 32Gb Dual Rank B-Die 3800MHz 16-16-16-32, RTX4080S
Desktop: 4750G, 32Gb 3200MHz, A300 DeskMini Hotrod
På huvudet: ZMF Auteur & Verité closed, Feliks Echo 2, Topping E30

Permalänk
Medlem
Skrivet av Xeonist:

Var det verkligen det man såg i videon du länkade till? Jag har kollat på den videon ett par gånger nu faktiskt, och det jag ser är någon som använder "AI" för att skapa något extremt rudimentärt, jag förstår inte riktigt hur det är att "komma väldigt långt"!?
Jag sätter hälften av alla pengar jag har på att det där dessutom är något han har gjort tidigare, så han har redan svaret.

Programmering handlar ju många gånger om att lösa problem som man kanske inte själv vet svaret på initialt, där processen är en del av skapandet.

Par gånger? Varför? Det är ganska tydlig, finns många andra klipp som denna på nätet ex här : https://www.youtube.com/watch?v=YvwPoz9hAq4&ab_channel=Proleg...

Det är såklart rimligt att vara skeptisk, så vad har du funnit som talar emot?

Skrivet av Xeonist:

Men med effektivisering i fokus (och AI handlar ju om någonting om effektivisering) så är det ju mycket effektivare att göra det själv.

Det är ju bara att testa själv, jag gjorde det, och fick 2 helt olika svar.
Det tog mig kanske 1/10 så lång tid att testa och förstå precis vad han menade, mot hur lång tid det tar för honom att sitta och förklara i ett inlägg.

Alternativ borde man kunna fråga AI!?

Här rekommenderar jag dig att läsa HELA konversationen innan man tar något ur sitt kontext. Men visst jag kan ge dig en ledtråd, det var ett missförstånd.

Visa signatur

CPU : AMD Ryzen 5 5600X Moderkort : ASUS ROG Strix B550-F GAMING Grafikkort :EVGA GeForce GTX 1080 Ti FTW3 iCX Gaming HDMI 3xDP 11GBMinne : Corsair 16GB Chassi :Fractal Design Define 7 Compact Nätdel : Corsair RM750x Skärm #1 : Asus VG349Q Ultrawide Skärm #2 : Acer X34 Ultrawide