Kategoriarkiv: Trafiksäkerhet

Barn och automatiserade fordon

Många av prototyper av automatiserade fordon som visats hittills är designade av vuxna – för vuxna. Men hur skulle automatiserade fordon fungera för barn? Är folk villiga att sätta sina barn i ett sådant fordon, eller låta sina barn att vistas runt ett sådant fordon?

För att belysa den här problematiken har designföretaget Teague från Seattle i USA tagit fram ett konceptfordon kallat Hannah som är specialdesignat för barn [1]. Hanna är helt självkörande och kan transportera upp till 6 barn åt gången. Den kommer kunna kommunicera med barn och känna igen deras ansikten. Tanken är att den ska fungera som skolbuss.

Men enligt Fred Andersky från Bendix Commercial Vehicle Systems är det inte där som behovet ligger. Statistiken visar att skolbussar är långsamma att anamma nya teknologier, och dessutom skadas väldigt få barn i skolbussar (6 dödsfall i USA per år). Däremot kan det finnas ett behov att transportera barn till och från skolbussen med automatiserade fordon.

Vi på RISE Viktoria har också utforskat den här problematiken något. I en studie utförd ihop med en grupp forskare vid Twente University i Holland har vi undersökt om automatiserade bilar behöver speciella externa gränssnitt för att underlätta samverkan med barn [2].

En av våra slutsatser är att barn över 7 år (det är vid den ålder som de börjar vistas i trafiken på egen hand) skulle gynnas av gränssnitt som utrycker fordonets intention, givet att dessa är designade efter deras behov. Tillsammans med barn har vi tagit fram några förslag på hur externa gränssnitt på automatiserade bilar skulle kunna utformas för att uppfylla barnens behov.

Källor

[1] Marshal, A. Wired. Who’s ready to put their kid on a self-driving school bus? 2017-11-01 Länk

[2] Charisi, V., Habibovic, A., Andersson, J., Li, J., Evers, V. “Children’s Views on Identification and Intention Communication of Self-driving Vehicles” in Conference: Interaction Design and Children IDC’17, 2017, pp. 399–404.

Hellre halvdana än inga automatiserade bilar?

RAND Corporation, som är ett oberoende och icke-vinstdrivande forskningsinstitut, har publicerat en ny rapport som visar att legalisering av automatiserade fordon som är bara 10% bättre än mänskliga förare skulle kunna spara tusentals liv i USA per år [1]. Studien är baserad på amerikanska olycksdata och amerikanska förare. Forskarna landade i denna siffra genom att studera 500 olika framtidsscenarier.

Slutsatsen är att vi inte har råd med att vänta på automationen ska bli helt perfekt. Vi har mycket att vinna genom att ersätta icke perfekta förare med icke perfekt automation. Den så kallade mänskliga faktorn är så pass vanligt förekommande orsak till dödsolyckor att även bristfällig automation kan göra skillnad.

På RANDs hemsida finns också ett verktyg där man kan själv skapa ett framtidsscenario och se utgången i termer av dödsolyckor och sparade liv.

Rapporten återfinnes här.

Egen kommentar

Det är inte sällan som jag hör att ”säkerheten är ingenting som vi ska kompromissa med”. Den här studien visar just att gör det om vi inte tänker om och underlättar snabbare introduktion av automatiserade fordon i vårt samhälle. Det är kanske så att vi måste tillåta och acceptera olyckor med automatiserade fordon så länge det innebär att vi undviker många fler olyckor?

I RANDs studie hänvisas det återigen till att över 90% av alla olyckor är orsakade av den mänskliga faktorn. Värt att läsa till detta är artikeln om missvisande procenträkning som vi publicerade i nyhetsbrevet förra veckan.

Källor

[1] RAND. Why Waiting for Perfect Autonomous Vehicles May Cost Lives. 2017-11-07 Länk

Missvisande procenträkning

Gérard Yahiaoui, chef för Nexyad, ett franskt företag som utvecklar moduler till aktiva säkerhetssystem, varnar i ett inlägg för vantolkning av procentsatser när man utvärderar potentialen av självkörande fordon [1].

Vi har alla hört uttalandet “94% av alla allvarliga olyckor med dödsfall eller allvarliga personskador beror på mänskliga misstag”. Men att tolka detta som att med automatiserad körning kan vi undvika dessa 94% är helt enkelt felaktigt.

Som vanligt när det gäller procenträkning så gäller det att fråga “procent av vad”. Författaren reder ut detta:

Olyckor med dödsfall eller allvarliga personskador kan ses som toppen av ett isberg:

  • Q = antalet olyckor med dödsfall eller allvarliga personskador
  • P = antalet allvarliga olyckor (kanske 10 gånger så många som Q)
  • O = totala antalet olyckor (kanske 10 gånger så många som P)
  • N = antalet incidenter och olyckor (kanske 10 gånger så många som O).

Så procentsatsen 94% är antalet olyckor med dödsfall eller allvarliga personskador som orsakats av mänskliga fel dividerat med Q. Men samtidigt så har förarna undvikit N-O olyckor. Alltså borde man inte räkna ut procentsatsen genom att dividera med Q utan med N vilket leder till en tusendel av 94% i räkneexemplet ovan. Och eftersom dagens förare är inblandade i en olycka (lätt eller svår) i genomsnitt endast efter 70 000 km, så kan man sluta sig till att det verkligen är många incidenter som aldrig leder till olyckor.

Poängen är att dessa incidenter inte studeras, inte hamnar i statistik och inte heller därmed används för att designa automatiserade fordon. Därmed löps risken att dagens olyckor bara ersätts med andra som bilarna inte undviker men dagens förare gör.

Så det verkliga målet för självkörande fordon att slå är en olycka per 70 000 km!

Egen kommentar

Det är alltid farligt med procenträkning. Själv tycker jag man borde vara försiktig med att lära ut det i skolorna. Jag tycker att Gérard har en poäng i att man inte bara ska titta på antalet olyckor utan också ta med incidenter.

Men författarens påstående att incidenter inte studeras stämmer inte helt; man samlar in stora mängder fältdata från vardaglig körning och däribland finns förstås också incidenter att lära sig av.

Källor

[1] Gérard Yahiaoui: Bad interpretation of percentages may lead to terrible misunderstanding : use case of self-driving car, LinkedIn 2017-10-28 Länk

Toyota tar det säkra före det osäkra

Vid ett seminarium hos Toyota Research Institute sade chefen Gill Pratt att fordon på SAE-nivå 5 kommer att kräva en ny nivå av artificiell intelligens som ännu ingen vet hur den ska byggas [1].

“Om någon anger en tidplan för nivå 5, pressa dem hårt med frågor. Vi är i de första dagarna av en lång resa,” sade Pratt.

Toyota tar det säkra före det osäkra vad gäller utvecklingen av autonoma bilar, med målet att nå noll dödade i trafikolyckor involverande teknologin. “Vårt mål är att skapa en bil som aldrig orsakar en olycka, oavsett vad föraren gör,” sade Pratt.

På vägen dit har redan utvecklat ett antal olycksundvikande system, vilka efter 2020 kommer att följas av mer avancerade funktioner som kommer att tillåta att föraren släpper ratten (SAE nivå 2).

Egen kommentar

De olika fordonstillverkarna har verkligen olika syn på hur snabbt det kommer att gå, med Tesla som kanske har den snabbaste tidplanen medan Audi ju lanserat en nivå 3-bil (med dispens från myndigheterna) och alltså Toyota och till exempel nog även Volvo Cars alltså är mer försiktiga.

Källor

[1] Toyota taking a cautious safety-based approach to autonomous driving, Autovista Group 2017-11-07 Länk

Waymos säkerhetsrapport och utbildning

Waymo har nu offentliggjort en säkerhetsrapport som beskriver hur företaget arbetar med att säkerställa att deras automatiserade fordon är säkra [1, 2].

Säkerhetsrapporten är ganska detaljerad och adresserar de 12 designegenskaperna som beskrivs i NHTSAs senaste riktlinjer för automatiserade fordon (Automated Driving Systems 2.0: A Vision for Safety). Rapporten beskriver bland annat parametrar som Waymo använder för att avgöra om ett fordon är säkert för drift, hur och när det samlar in data och vilka gränssnitt som används för att göra fordon användbara för en bredare krets av användare, såsom ljud och bild för användare med syn eller hörselskador.

Företagets förhoppning är att rapporten ska öka transparens och förståelse av dess teknologi men också leda till en större konversation om säkerhet.

Waymo har också lanserat ett program för utbildning av allmänheten och potentiella användare om automatiserade fordon [3, 4]. Programmet kallas Let’s Talk Self-Driving och görs i samarbete med amerikanska organisationer Mothers Against Drunk Driving, National Safety Council, Foundation for Blind Children, East Valley Partnership och Foundation for Senior Living. Utbildningen startar i Arizona med informationsspridning via digitala annonser, skyltar, reklam på bensinmackar och radio.

Egen kommentar

Säkerhetsutvärderingen som NHTSAs uppmuntrar aktörerna att utföra är frivillig och det är första gången som en aktör publicerar en sådan rapport. Waymos säkerhetsrapport har därmed starkt symboliskt värde, och förhoppningen är så klart att fler aktörer ska följa i Waymos spår.

Källor

[1] Waymo. On the Road to Fully Self-Driving. Waymo Safety Report. 2017-10-12 Länk

[2] Waymo. Waymo’s Safety Report: how we’re building a safer driver. 2017-10-12 Länk

[2] Let’s Talk Self-Driving. 2017-10-09 Länk

[3] Waymo, Medium. Let’s Talk Self-Driving Cars. 2017-10-09 Länk

 

Halvåret som gått

  • Det senaste halvåret har karakteriserats av Nvidias frammarsch inom fordonsbranschen. Ett tiotal nya samarbeten med leverantörer och fordonstillverkare är något att skryta om! Utöver Nvidias samarbete har vi också fått skåda några andra spännande samarbeten, som exempelvis mellan Waymo och Avis, robotikföretaget ZMP och taxiföretaget Hinomaru Kotsu, kinesiska Baidu och tyska Bosch och Continental, samt mellan Waymo och Lyft.
  • Dödsolyckan med en automatiserad Tesla Model S som skedde förra året i maj har utretts av den amerikanska trafikmyndigheten NTSB och slutsatsen blev att olyckan kan ha berott på den mänskliga faktorn – innan olyckan skedde, släppte föraren ratten vid upprepade tillfällen trots att Autopilot-funktionen uppmanade honom att ha dem där. Tesla har också blivit stämda av tre kunder i Kalifornien som anser att Autopilot inte håller vad den lovar.
  • Volvo Cars har presenterat första familjen som ska testa automatiserad körning inom ramen för Drive Me-projektet. Waymo följde lite i Volvo Cars spår, och offentliggjorde sina planer på att låta vanliga kunder nyttja dess mobilitetstjänst med automatiserade bilar i Phoenix.
  • Lastbilssidan har mest uppmärksammats på grund av striden mellan Waymo/Google och Uber/Otto. Men utöver det har vi fått veta att Waymo utökar verksamheten och inleder testning av automatiserade lastbilar med fokus på att utveckla lösningar som möjliggör automatiserad körning på motorväg. Volvo Group har visat en något annorlunda tillämpning – en självkörande sopbil. Sedan har Einride utlovat en ny typ av lastbil som är helt självkörande – vi väntar med spänning på att se den.
  • Alltfler länder börjat tillåta testning av automatiserade fordon utan krav på att en förare ska sitta bakom ratten, så länge det finns en operatör som kan fjärrkontrolera fordonet. Som ett resultat av detta har fler tester med exempelvis självkörande bussar blivit aktuella.
  • Ikonen för självkörande fordon, Waymos Firefly, har gått i pension, och den kan vi framöver se endast på museer. Den kommer dock utan tvekan fortsätta pryda många presentationer.
  • Apple har bekräftat att de utvecklar autonoma system och kallat det hela ”the mother of all AI”, de har fått tillstånd för testning i Kalifornien och deras bilar har skådats ute i trafiken. Att AI är en viktig, och utmanande, komponent för automatiserad körning framgår också av flera nya samarbeten som fokuserar på AI.
  • Och den eviga diskussionen om automationsnivåer fortsätter…Är det nivå 3 eller 2,5? När är det nivå 5? Kopplat till den här problematiken, hörde jag häromdagen en undra: Automationen är till för att hjälpa människor. Varför då prata om nivåer och inte om vilka problem som tekniken hjälper människor med?

Trafikvarningar från Autodrive och NordicWay

Inom ramen for det brittiska Autodrive-projektet har en rad tester utförts på en testanläggning (Horiba Mira), och fler tester kommer att utföras i verklig trafik senare under 2017 och under 2018 [1].

Bland systemen som testats är varning för utryckningsfordon (Emergency Vehicle Warning), korsningsvarning (Intersection Collision Warning) och trafikinformation (In-Vehicle Signage). Principen är för dessa system är densamma: bilen varnar och informerar föraren via olika gränssnitt i bilen när en fara eller annan relevant information upptäckts. Många av dem är baserade på trådlöskommunikation mellan fordon och/eller infrastrukturen.

Autodrive utförs i samarbete mellan flera olika aktörer däribland Jaguar Land Rover, Ford och Tata Motors.

Liknande tester har också utförts på hemmaplan inom projektet NordicWay där bland annat Ericsson, Trafikverket, Volvo Cars och Scania deltar [2].

Här kan ni få en överblick över diverse system som demonstrerats inom Autodrive och NordicWay.

Egen kommentar

Inom kort kommer en ny liknande studie att inledas på hemmaplan. Av specifikt intresse är hur Volvo Cars automatiserade fordon som ingår i Drive Me-projektet ska kunna samverka med utryckningsfordon.

Källor

[1] UK Autodrive. UK Autodrive completes proving ground trials. 2017-06-22 Länk

[2] NordicWay. Länk

En ny metod accelererar testning

En grupp forskare vid University of Michigan har tagit fram en ny metod, eller process, för snabbare testning av automatiserade fordon [1].

Den är baserad på data från över 40 miljoner kilometer i verklig trafik och går ut på att bryta ner svåra/farliga trafiksituationer i flera komponenter som kan testas eller simuleras upprepade gånger. På det viset kan data från en 1 600 km lång körning ”ersätta” mellan en halv miljon och en miljon kilometer kördata. Det innebär i princip att 99,9 % av testningstiden kan sparas.

Egen kommentar

Forskarna har än så länge använt den här metoden för två potentiellt farliga trafiksituationer: en där en automatiserad bil följer en bil som framförs av mänsklig förare, och en där en bil som körs av en mänsklig förare är på väg att köra in framför en automatiserad bil. Det återstår att se hur den fungerar för alla andra trafiksituationer.

Källor

[1] Zhao, D., Peng, H., University of Michigan. From the Lab to the Street: Solving the Challenge of Accelerating Automated Vehicle Testing. May 2017 Länk

Kunder stämmer Tesla

Tesla har hittills sålt runt 47 000 bilar  utrustade med den ökända stödfunktionen Autopilot. Nu blir företaget stämt av tre kunder i San Jose i Kalifornien som anser att Autopilot inte håller vad den lovar [1].

I stämningsansökan anger de att de blivit beta-testare av halvfärdig mjukvara som gör Tesla-fordon farliga. Vidare skriver de att fordonen ibland överskrider körfältslinjer, sätter an bromsarna utan anledning och misslyckas med att sakta in eller stanna när de närmar sig andra fordon när Autopilot är aktiverad. Kunderna vill nu ha pengarna tillbaka för bilarna.

I ett uttalande kring stämningsansökan förtydligar Tesla att de aldrig hävdat att deras fordon är helt självkörande. Vidare menar företaget att just sådana här handlingar som baseras på felaktig information om teknologin är farliga för kunder:  This lawsuit is a disingenuous attempt to secure attorney’s fees posing as a legitimate legal action, which is evidenced by the fact that the suit misrepresents many facts. The inaccurate and sensationalistic view of our technology put forth by this group is exactly the kind of misinformation that threatens to harm consumer safety.

Egen kommentar

Tesla har fram till nyligen varit involverad i en annan tvist där företaget hade stämt teknikföretaget Aurora Innovation grundat av före detta Teslaingenjören Sterling Anderson och före detta ledaren för Googles självkörande fordon Chris Urmson. Tesla anklagade Anderson att han hade kränkt sitt Tesla-kontrakt genom att försöka anlita Tesla-medarbetare för sitt nya företag och att han hade behållit säkerhetskopior av proprietär Tesla-data efter att ha lämnat företaget. Nu har dock företagen rett ut detta och Tesla kommer att dra tillbaka stämningen mot att Aurora Innovation betalar 100 000 dollar till Tesla och tillåter Tesla att genomföra en revision för att säkerställa att Aurora Innovation inte använder deras data. Mer om den här tvisten kan ni läsa om här.

Källor

[1] Mehotra, K., Bloomberg. Tesla Sued Over ‘Dangerously Defective’ Autopilot Software. 2017-04-20 Länk

Olyckorna kommer inte ens att halveras

Alan Thomas från konsultföretaget CAVT skriver i ITS International att det är felaktigt att anta att automatiserade fordon kommer eliminera 90 % av dagens olyckor [1]. Automatiserade fordon kommer inte ens kunna halvera dem. I bästa fall kan automatiserade fordon eliminera ungefär 43 % av dagens olyckor. Här är några av förklaringar som han anger:

  • Ett vanligt antagande är att över 90 % av dagens olyckor är orsakade av mänsklig faktor. Men det är sällan som en olycka uppstår endast på grund av en orsaksfaktor. Olycksforskning i USA och Europa visar att det är en kedja av interrelaterade orsaker som leder till olyckor (t.ex. en parkerad bil skymde sikten – fotgängaren kom springande bakom den – det var halt på vägen – föraren missade att notera fotgängaren i tid – föraren hann inte bromsa). Att anta då att alla olyckor kommer undvikas för att man eliminerat den mänskliga faktorn bakom ratten är felaktigt.
  • Mänskliga förare är oerhört bra på att snabbt lära sig nya saker, tolka andras beteenden, uppfatta förändringar och anpassa sig därefter. Men trots det missar mänskliga förare att notera allt nödvändigt i vissa oförutsägbara och plötsliga händelser. Det råder ingen tvekan om att moderna sensorer och artificiell intelligens kommer kunna klara av mycket, men det finns en risk att även de blir hjälplösa i situationer som uppstår plötsligt och som de inte stött på innan.
  • Det råder stora skillnader i infrastrukturen och många av elementen i infrastrukturen är unika för ett visst område. Det gäller framförallt trafikskyltar som kan i många fall vara svåra att läsa av och tolka, och leda till exempelvis onödiga undanmanövrar som i sig kan orsaka incidenter och olyckor.
  • Det kommer alltid att finnas en viss osäkerhet i sensorer (och algoritmer) oavsett hur bra de är, och för att undvika falska alarm kommer undanmanövrar att initieras så sent som möjligt. Men givet att tidigare olycksforskning visat att gränsen mellan konflikter och olyckor är hårfin så finns det en risk att vissa undanmanövrar missas eller initieras försent.

Källor

[1] Thomas, A., ITS International. Autonomous vehicles will not prevent half of real-world crashes. 2017-03 Länk