Microsofts chattbott Copilot gav ut felaktig information om politiska val

Permalänk
Melding Plague

Microsofts chattbott Copilot gav ut felaktig information om politiska val

När man granskade den fakta som Copilot utlämnade kring nyligen avgjorda val i bland annat Schweiz, var en tredjedel av informationen falsk.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Ska vi ha en nyhet varje gång chattbottarna säger något fel?

Permalänk

För väldigt länge sedan på en praktikplats hade jag en riktigt allmänbildad person som kunde hur mycket som helst om precis vad som helst. Alla som mötte honom fascinerades hur bildad han var.
Det fanns bara ett pyttelitet problem. Det var att om han inte visste något så hittade han bara på information, det innebär att han hade svaret på vartenda fråga någon ställde honom, men precis allt fick faktagranskas. Och det kunde även vara så att han var insatt i något, men just detaljen hittade han på.

Exakt samma sak känner jag med Ai botarna idag, de som personen ovanför måste säga att de är mindre säkra på saker som de är osäkra på.

Jag ser detta dock bara som en naturlig utveckling. Liksom smartphones kom slutet av 90talet, när de blev så bra så att den stora skaran kände att en sådan skulle jag köpa kan diskuteras. Troligen någonstans mellan 2010 och några år senare.

*edit*
Ett exempel på personens påhitt. Var att säkert borttagning av maskinvara i Windows gör man för att skydda datorn emot ESD laddningar och han förklarade utförlörligt var ESD. Alla i rummet förutom mig imponerades.

Permalänk
Medlem

En tredjedel sann? De är ju mer än vad reddit, twitter, fb eller vad andra ställen brukar vara Bra jobbat! (j/k)

Permalänk
Medlem

ChatGPT's chatbot gör ganska stort nummer ur att informera att den information den letar upp kan vara felaktig och att du aldrig ska lita 100% på dennes svar, utom göra granskning och faktakoll själv.

Och det är bara sund förnuft i.af.

Permalänk
Medlem

Det står både att en tredjedel var sant och att 31% var felaktigt. Vad är det som gäller?

Visa signatur

Lätt som Paj

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

För väldigt länge sedan på en praktikplats hade jag en riktigt allmänbildad person som kunde hur mycket som helst om precis vad som helst. Alla som mötte honom fascinerades hur bildad han var.
Det fanns bara ett pyttelitet problem. Det var att om han inte visste något så hittade han bara på information, det innebär att han hade svaret på vartenda fråga någon ställde honom, men precis allt fick faktagranskas. Och det kunde även vara så att han var insatt i något, men just detaljen hittade han på.

Exakt samma sak känner jag med Ai botarna idag, de som personen ovanför måste säga att de är mindre säkra på saker som de är osäkra på.

Jag ser detta dock bara som en naturlig utveckling. Liksom smartphones kom slutet av 90talet, när de blev så bra så att den stora skaran kände att en sådan skulle jag köpa kan diskuteras. Troligen någonstans mellan 2010 och några år senare.

*edit*
Ett exempel på personens påhitt. Var att säkert borttagning av maskinvara i Windows gör man för att skydda datorn emot ESD laddningar och han förklarade utförlörligt var ESD. Alla i rummet förutom mig imponerades.

Det är exakt så AI fungerar så här längt

Permalänk
Inaktiv
Skrivet av LeonHart:

Det står både att en tredjedel var sant och att 31% var felaktigt. Vad är det som gäller?

För att vara opartisk så avböjde copilot att svara på resten av frågorna/ svarade undvikande.

förtydling
Permalänk
Medlem
Skrivet av LeonHart:

Det står både att en tredjedel var sant och att 31% var felaktigt. Vad är det som gäller?

Det kanske var Copilot som räknade ut det.

Visa signatur

Corsair Obsidian 1000D* Corsair AX1600i* Asus Z790 Prime-A* Intel 13900K* 32GB G-Skill DDR5 7600Mhz/36* Asus RTX 4090* Corsair MP600 1TB* Samsung 980 Pro 1TB

Permalänk

Läskigt att enskilda företag har sån makt. Hoppas verkligen på open source för sån typ av AI.

Permalänk
Medlem

'AI' visade sig inte alls vara neutral. Color me surprised.

Permalänk
Medlem

AI idag är en avancerad sökmotor. Sökmotorer censureras

Visa signatur

Windows 10 | AMD Ryzen 9 5900x | RTX 3070 8 gb | 32 GB RAM | 720 GB SSD | 1 TB HDD

Permalänk
Medlem
Skrivet av LeonHart:

Det står både att en tredjedel var sant och att 31% var felaktigt. Vad är det som gäller?

Båda kan gälla. Om 31% verifierats vara sant och 33% verifierats som falskt och resten är påståenden som inte kan bevisas vara sant eller falskt. Bara för att det som sägs inte kan bevisas vara sant behöver inte betyda att det är falskt. Och vice versa.

Permalänk
Medlem

De låter som "AI:n" borde vara med på Drunk History, där folk försöker berätta om historiska händelser samtidigt som de dricker alkohol .

Copilot, go home you're drunk.

Visa signatur

“The dollar is our currency, but it's your problem.” -John Connally, President Nixon's Treasury Secretary to a group of European finance minsters
"Keep the Russians out, the Americans in, and the Germans down" -NATO Secretary General, Lord Ismay

Permalänk
Medlem

Enligt ChatGPT så bombades Göteborg under WWII. Efter det så litar jag inte mycket på ren fakta. Sammanfattningar däremot är den grym på.

Så som med alla andra verktyg så måste man lära sig hur de används.

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk
Skrivet av Xinpei:

Ja och nej. Orsaken är flertalet så som att AI som t.ex. ChatGPT generellt blivit påkommen att hitta på information och framförallt källor. Detta är en brist i kodningen och knappast medveten. Hur det däremot är relevant till "Vänstersidan" på den politiska skalan kan man ju undra..

Den hittar inte bara på information, den har också uttryckt åsikter om känsliga ämnen och konflikter där den aktivt valt sida istället för att presentera information. Den har blivit bättre på att undvika detta, men den är långt ifrån neutral. Det var oerhört intressant att ställa den politiskt laddade frågor när den först blev tillgänglig för allmänheten, kan jag ju säga. Orkar dock inte gå in på det mer än så.

Permalänk
Medlem
Skrivet av talonmas:

Enligt ChatGPT så bombades Göteborg under WWII. Efter det så litar jag inte mycket på ren fakta. Sammanfattningar däremot är den grym på.

Så som med alla andra verktyg så måste man lära sig hur de används.

Bara för tydlighetens skull så fälldes inga bomber över just Göteborg (så vitt jag vet) men av misstag så bombades Malmö av britterna och Stockholm och Pajala av Sovjet... Plus att det skedde flera nödlandningar i Sverige bla Bulltofta flygplats (Malmö) under andra världskriget med bombplan...

Permalänk
Medlem

Alltså, den är tränad på material framtaget av människor. Människor har känslor som yttrycker sig i materialet och färgar åt vad som skrivits åt ena eller andra hållet.

Vi människor förskönar, ljuger, demoniserar, baserat på vår agenda.

Så jag är inte det minsta förvånad över dessa resultat, och skulle aldrig använda mig av en ChatBot för att få fram fakta om något. Men finns andra sätt att utnyttja dessa bottar som inte innebär att man vill ha ren fakta, och det kan man ha stor nytta av dem med.

Men misstänker samtidigt att alla som predikar om hur AI är framtiden kanske inte är fullt så skeptiska som jag anser att man bör vara

AI har så oerhört mycket svagheter (precis som oss människor) så att sätta sin tillit till dem är nog ingen bra idé

Visa signatur

5700x3D | RTX 2060 Super | 2 TB M.2 | 32 GB RAM | Gigabyte DS3H| 750 WATT

Permalänk
Medlem
Skrivet av Xinpei:

Ja och nej. Orsaken är flertalet så som att AI som t.ex. ChatGPT generellt blivit påkommen att hitta på information och framförallt källor. Detta är en brist i kodningen och knappast medveten. Hur det däremot är relevant till "Vänstersidan" på den politiska skalan kan man ju undra..

Det är ingen brist i kodningen egentligen, det är en matematisk modell som inte kan resonera. En LLM kommer ge dig det statistiskt mest relaterade svaret till din input. Det som du kan ändra på är typ träningsdata, hur länge du tränar den och vad den får svara på. Det sistnämnda är det vanligaste sättet att hantera hallucinationer på.

Permalänk

Med tanke på hur mycket korruption och lögner som är vardag inom politik kan man inte klandra Bings AI i detta fall. :'D

Permalänk
Medlem
Skrivet av ronnylov:

Båda kan gälla. Om 31% verifierats vara sant och 33% verifierats som falskt och resten är påståenden som inte kan bevisas vara sant eller falskt. Bara för att det som sägs inte kan bevisas vara sant behöver inte betyda att det är falskt. Och vice versa.

Efter att ha kollat källan är det faktiskt precis så det var. Men det var 30% som var korrekt och 31% som var felaktig.

Således är det faktafel i sweclockers artikel och sättet det är skrivet på gör att man tror att de förväxlat sant och falskt.

Visa signatur

Lätt som Paj

Permalänk
Medlem
Skrivet av Dravond:

Bara för tydlighetens skull så fälldes inga bomber över just Göteborg (så vitt jag vet) men av misstag så bombades Malmö av britterna och Stockholm och Pajala av Sovjet... Plus att det skedde flera nödlandningar i Sverige bla Bulltofta flygplats (Malmö) under andra världskriget med bombplan...

Lund bombades 1943.
https://sv.wikipedia.org/wiki/Bombningen_av_Lund_1943

Visa signatur

XFX Radeon RX 7700 XT Speedster QICK 319 Black Edition | AMD Ryzen R7 5700X | Noctua NH-D15 | Asus TUF Gaming B550-Plus | Kingston Fury Beast DDR4 3600MHz 4x8GB | Samsung 990 Pro 1TB | Corsair HX1000i | Fractal Design Define S | LG 27GL83A | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair Void Elite Wireless

Permalänk
Medlem

Förstår inte varför det ens blir en nyhet, alla ai har ju fel och är ändå bombsäkra i sitt sätt att skriva. Om det är just politik eller annat spelar ingen större roll, allt som kommer ur dem behöver faktagranskas

Permalänk
Medlem
Skrivet av LeonHart:

Efter att ha kollat källan är det faktiskt precis så det var. Men det var 30% som var korrekt och 31% som var felaktig.

Således är det faktafel i sweclockers artikel och sättet det är skrivet på gör att man tror att de förväxlat sant och falskt.

Då har den rätt lika ofta som den har fel. Ungefär lika träffsäker som en aktierådgivares förmåga att slå börsindex

Permalänk
Inaktiv
Skrivet av LeonHart:

Efter att ha kollat källan är det faktiskt precis så det var. Men det var 30% som var korrekt och 31% som var felaktig.

Således är det faktafel i sweclockers artikel och sättet det är skrivet på gör att man tror att de förväxlat sant och falskt.

De blandar ihop det i källan också.

Citat:

Figure 2 shows that 30% of the answers contained some sort of factual error, accurate answers only amount to 31%.

Keep in mind that “factual errors” in the chart refers to the combination of answers labeled “misleading factual errors” and “nonsense factual errors.” Consid­ering that many answers had more than one label, this 31% includes any answer that had either or both of the aforementioned labels.

Från PDF-filen länkad i https://algorithmwatch.org/en/study-microsofts-bing-chat/

Permalänk
Medlem

Problemet är väl inte så mycket att språkmodellerna ger oss felaktig information. Det är väl att många stannar i tanken att AI är dåligt och opålitligt när det borde gå vidare i reflektion att AI bara speglar oss människor och hur vi fungerar och beter oss. Jag är ofelbar, det är alltid någon annans fel. Hur kommer vi tillrätta med det problemet i samhället?

Permalänk
Medlem
Skrivet av o0Oo:

Problemet är väl inte så mycket att språkmodellerna ger oss felaktig information. Det är väl att många stannar i tanken att AI är dåligt och opålitligt när det borde gå vidare i reflektion att AI bara speglar oss människor och hur vi fungerar och beter oss. Jag är ofelbar, det är alltid någon annans fel. Hur kommer vi tillrätta med det problemet i samhället?

Fattar inte vad du menar här. Det är inte ett problem att AI för med osanning för det gör människor också?

Visa signatur

Lätt som Paj

Permalänk
Skrivet av pine-orange:

Det är inte så det fungerar. Det kan visst bli att LLMs statistiskt sett oftare svarar åt det ena hållet än det andra hållet men det har ingenting att göra med vilken sida som utmålar sig själv som god.

När en säger ”det är inte så det fungerar” kan det vara bra att förklara hur det fungerar.

Permalänk
Skrivet av Celeritax:

När en säger ”det är inte så det fungerar” kan det vara bra att förklara hur det fungerar.

AI är i det här fallet en ren marknadsföringsterm. Verktyget heter LLM, som står för Large Language Model. Det är inte ett verktyg för att få faktabaserade svar - modellen själv saknar omdöme - utan för att få statistiskt plausibel respons på inmatade meningar, baserat på vansinniga mängder inläst och behandlad text. Vilken sorts text du matar modellen med har betydelse för vilken sorts svar du får. I tillägg kan modellen begränsas - ”censureras”, om man så vill - för att undvika givna ämnen. Det görs relativt ofta av större företag som inte vill att deras varumärke associeras med exempelvis porr, konspirationsteorier eller politisk extremism.

Permalänk
Skrivet av o0Oo:

Problemet är väl inte så mycket att språkmodellerna ger oss felaktig information. Det är väl att många stannar i tanken att AI är dåligt och opålitligt när det borde gå vidare i reflektion att AI bara speglar oss människor och hur vi fungerar och beter oss. Jag är ofelbar, det är alltid någon annans fel. Hur kommer vi tillrätta med det problemet i samhället?

Men LLM:er är uttryckligen ett dåligt verktyg för att få aktuell och uppdaterad fakta: det är alltid upp till operatören att avgöra om svaret man fått är vettigt eller om det ens är värt att ställa en viss fråga.

Återigen: LLM:er har inget omdöme och inget konsekvenstänk. De lär sig inte varaktigt av sina interaktioner och kommer aldrig att ”tänka om” - helt enkelt för att de inte tänker. De är inte AI.

Vi människor har verktyg för att korrigera för våra felslut. Ett exempel är den vetenskapliga metoden, som när den utförs av en grupp människor leder till självkorrigerande beteende över tid även om individer i gruppen är mänskliga och gör mänskliga dumheter. Ett av problemen med denna metod är att den är ansträngande och obekväm att tillämpa och riskerar att leda till slutsatser man kanske inte gillar trots att de överensstämmer med kända data. En betydande del av jordens mänskliga befolkning vill inte betala det priset.