Skrivet av Tea42BBS:
gissar att ni som är superpositiva till självkörande bilar INTE har körkort utan ser detta som en enkel räddning
Jag jobbar med AI och trafik just nu inom stockholm stad - o skulle inte lita på en självkörande bil alls. Tekniken är inte mogen, vägnät o infrastruktur är inte mogna. Om 10 år kan det funka, dvs om man väljer på satsa på att bygga infra för det. Sen har man den lilla utmaningen med att under en lång övergångsperiod så kommer trafiken bestå av gamla fordon samt nya självkörande...
Detta är en inte helt ovanlig inställning bland svenskar inom AI, ex är professor Niklas Lavesson (HJ) inne på samma linje:
https://www.svt.se/nyheter/lokalt/jonkoping/ai-professorn-tror-det-drojer-med-sjalvkorande-bilar-pa-vagarna
Samtidigt så blir det allt tydligare att det kanske inte är tekniken i sig som är omogen, utan snarare vår förståelse av den – särskilt i Europa/Sverige. Om man analyserar Teslas autopilot, så framstår det inte som att autonoma fordon skulle behöva vara särskilt avlägset.
https://www.tesla.com/autopilot
Däremot tycks många inom svensk/europeisk AI-utveckling (ex professor Niklas Lavesson ovan) sakna kunskaper elementär neurovetenskaplig förståelse av hjärnans/intelligensens mekanismer. Tyvärr har vi i Europa/Sverige en övertro till värdet av specialisering, exempelvis inom traditionell maskininlärning – varför exempelvis många tekniker läser mycket få ”icke-tekniska” ämnen, och därmed får svårt att sätta sin specialiserade kunskap i lämplig kontext, när vi börjar prata om neurala nätverk. Det är knappast någon slump att flera av de som är ledande inom AI, exempelvis Demis Hassabis, VD/Grundare av Google DeepMind, har en bakgrund inom både data och neurovetenskap. Om man är det minsta intresserad av AI/neurala nätverk borde det därför vara en självklarhet att först studera den intelligens som vi alla jämför med, jag kan därför inte nog rekommendera Harvards www.mcb80x.org, som både finns som online och campus-kurser. Baserat på Niklas Lavessons kommentarer så saknar han uppenbarligen denna kompetens.
Sannolikt är det även detta utbredda silotänkande som resulterat i att så många svenska företag tycks ha svårt att följa med i utvecklingen, även med europeiska mått mätt (och inte blir det bättre om man jämför med amerikanska eller kinesiska företag).
Utmaningarna med AI-utvecklingen blir om möjlig än tydligare om man jämför de olika regionernas (EU:s, Kinas och USAs) policy för AI. Nedan följer tre olika citat – med flit skriver jag inte ut vilken region som står för vilket citat, men det borde vara uppenbart i vilket fall.
Exempel 1:
“Trustworthy AI has three components: (1) it should be lawful, ensuring compliance with all applicable laws and regulations, (2) it should be ethical, ensuring adherence to ethical principles and values and (3) it should be robust, both from a technical and social perspective since to ensure that, even with good intentions, AI systems do not cause any unintentional harm. Each component is necessary but not sufficient to achieve Trustworthy AI. Ideally, all three components work in harmony and overlap in their operation. Where tensions arise, we should endeavour to align them.
…
Accountability: Mechanisms should be put in place to ensure responsibility and accountability for AI systems and their outcomes. Auditability, which enables the assessment of algorithms, data and design processes plays a key role therein, especially in critical applications. Moreover, adequate an accessible redress should be ensured.”
Exempel 2:
“Federal agencies must avoid regulatory or non-regulatory actions that needlessly hamper AI innovation and growth. Where permitted by law, when deciding whether and how to regulate in an area that may affect AI applications, agencies should assess the effect of the potential regulation on AI innovation and growth. Agencies must avoid a precautionary approach that holds AI systems to such an impossibly high standard that society cannot enjoy their benefits. Where AI entails risk, agencies should consider the potential benefits and costs of employing AI, when compared to the systems AI has been designed to complement or replace.”
Exempel 3:
“Shared responsibility. AI developers, users, and other interested parties should possess a strong sense of social responsibility and self-discipline, and strictly abide by laws, regulations, ethics, morals, standards, and norms. Establish an AI accountability mechanism to clarify the responsibilities of developers, users, beneficiaries, etc. The AI application process should ensure the human right to know and give notice of possible risks and impacts. Prevent the use of AI for illegal activities.”
En annan fråga är ju vad som krävs för att anse att tekniken är tillräckligt bra? Räcker att den är på samma nivå som en mänsklig förare, eller 5 gånger så bra, eller 10 ggr? Även om tekniken blir 10 ggr så bra, så motsvarar det över 20 döda/år i Sverige, och 370 döda/dag globalt. Som framgår av grafen nedan så tycks Teslas system ha kommit en bit på vägen, även om systemet ännu inte täcker alla kör-situationer.
Skrivet av hakd:
Problemet med självkörande bilar är att tillverkaren har inget ansvar alls utan "föraren" tar allt.
Kör din t.ex. Tesla ihjäl någon med autopilot så är du som förare ensam ansvarig.
Med tanke på att även ett system som är 10 ggr så säkert som dagens förare ändå skulle medföra dödsolyckor, så skulle dessa system ge upphov till skadeståndsanspråk som inget bilföretag skulle ha råd med (särskilt inte i USA) – utan rimligen är detta något för samhället att lösa. Med hänsyn till samhällsnyttan borde inte detta vara något problem.
/M