Läs om datadriven utveckling
dSPACE och Fengco erbjuder en omfattande högpresterande lösning för dataloggning direkt i fordonet, avancerade insikter kring data och integrerad datauppladdning.
Den robusta, modulära och flexibla dataloggern från AUTERA-produktfamiljen erbjuder dig en lösning för alla dina dataloggningsutmaningar. AUTERA har en unik kombination av hög beräkningsprestanda och en stor databandbredd (50 Gbit/s) i en kompakt formfaktor, vilket gör att du kan ansluta fler sensorer och gränssnitt via en enda enhet.
Med AUTERA AutoBox kan du utforma ditt dataloggningssystem snabbare och specifikt för just dina krav. Det breda utbudet av bussar och nätverk som stöds, inklusive gränssnitt för rådata för kamerasensorer, förenklar integrationen och minimerar därför arbetet.
Som den kompletterande programvaran för upptagning av data under körning, kan du använda antingen RTMaps från Intempora eller valfri mjukvaruprodukt som erbjuder API. Med RTMaps, data från flera heterogena sensorer (kamera, lidar, radar, fordonsbussar, nätverk, kommunikation) fångas upp och spelas in på ett synkroniserat sätt med tidstämpling med hög precision. Varje dataprov fångas med en tidsstämpel i sin egen takt. Detta säkerställer att all data är tidskorrelerad. RTMaps är en komponentbaserad programvara som erbjuder dig ett omfattande och lättanvänt grafiskt användargränssnitt samtidigt som det även tillhandahåller ett API för processautomatisering.
För enkel kontroll av datainspelningen och den manuella taggningen av data under provkörningen kan du använda RTag från Intempora som kan installeras på en bärbar dator eller en mobil enhet som en tablet. Tableten kan fästas på instrumentpanelen för enkel åtkomst under körning
RTag är ett mobilprogram som används för loggning av data och fall där man vill annotera datan, utöver dataloggningsprogrammet (RTMaps) som körs på AUTERARTag låter dig styra inspelningen (start/stopp) och låter dig övervaka fordonssensorernas status och kan dessutom användas för att annotera datan under körning. Annoteringar av relevanta situationer kan läggas till genom att trycka på en användardefinierad knapp på skärmen, till exempel för att lägga till taggar som ’vägarbeten’, ’tillfällig hastighetsbegränsning’, eller någon annan användardefinierad tagg. Den här beskrivningen är användbar för att filtrera data senare och möjliggör enklare navigering av den loggade datan i framtida sökningar. Om taggarna är synkroniserade med inspelningarna kan relevanta situationer också hittas snabbare bland de stora datavolymerna med hjälp av Intempora Validation Suite (IVS).
För effektiv uppsamling av data från fordonet till ditt lokala eller molnbaserade datacenter har dSPACE utvecklat AUTERA Upload Station.
AUTERA Upload Station är en öppen plattform med gränssnitt av hög bandbredd som möjliggör enkel integrering i din datapipeline och snabbt intag av data.
AUTERA SSD:er, som snabbt kan bytas ut under drift, säkerställer en mycket enkel process för datalagringsutbyte och minimerar därför onödig dötid i garaget eller ute på testbanan.
Om du har, eller planerar på att ha, en större flotta av testfordon kan dSPACE förse dig med ett kontroll- och hanteringsverktyg som hjälper dig att fullt ut utnyttja din fordonsflotta. Verktyget är en webbaserad lösning som låter dig kontinuerligt övervaka statusen för inspelningen i varje enskilt fordon i flottan.
Dessutom kan system- och konfigurationsuppdateringar effektivt utföras over-the-air i flera fordon samtidigt.
Du kan använda taggning direkt vid loggningskällan ihop med avancerade algoritmer (som stöds av en högpresterande GPU) för att filtrera och minska loggade datavolymer till en relevant delmängd. Du vill inte betala för att lagra data som inte tillför mervärde till din utveckling och validering. Filtrering sparar inte bara kostnader vid dataintag, lagring och överföring, det minskar också den värdefulla tiden för dataintag och förkortar på så sätt datacykeln. Särskilt intressanta situationer som upptäcks genom filtrering i inspelningen kan prioriteras för att snabbt nå till utvecklaren genom trådlös överföring direkt under körningen. Definering av den typen av situationer som du vill spela in kan stödjas av algoritmer för artificiell intelligens (AI). I detta fall kommer utvecklare och testingenjörer inte att behöva explicit lista specifika händelser utan algoritmen kan välja ut dem automatiskt.
Ingenjörstjänster
Varje lösning är lika individuell som kraven. Varje modellbaserad algoritm är lika bra som träningsdatan. Tack vare vår erfarenhet inom kommunikationsbuss- och AI-domänen, vår etablerada datapipeline, beräkningsinfrastruktur och synergi med annotering kan dSPACE hjälpa dig att integrera lösningen och snabbt anpassa den till dina krav.
För dataloggning erbjuder dSPACE specifika ingenjörstjänster i:
- Råa sensorgränssnitt anpassningar (TAP-läge)
- Sensorkonfigurering
- Integrering av inteag av data
- Datafiltrering och minskning av redundans
I enlighet med dataskydds- och sekretessbestämmelser som GDPR, APPI och CCPA måste personuppgifter automatiskt tas bort från som samlats in under verkliga körningar, innan de kan bearbetats vidare. Identity Protection Anonymizer från Understand.ai anonymiserar inspelade bilddata (gatuscener) genom att upptäcka och sudda ut ansikten och registreringsskyltar i en lång rad situationer. Anonymiseringen drivs av flera deep learning-algoritmer och stöder både enkel- och multi-GPU plattformar för att möjliggöra hög bildgenomströmning och precision. Lösningen är flexibel i sin användning, anpassningsbar för att täcka specialfall, och helt integrerad i UAI:s databerikningspipeline.
Verktyg för 3D-annotering
UAI Annotator täcker alla dina behov av snabb, hög kvalitet och tillförlitlig märkning av 3D Bounding Boxes eller cuboids för LiDAR, genom ett högautomatiserat verktyg som är utformat för att ge dina annoterare superkrafter. Tack vare överlägsen 3D-punktmolnshantering kan miljontals punkter bearbetas smidigt, navigeras med lätthet, och integreras sömlöst i arbetsflödet.
Verktyg för 2D-annotering – Bounding Boxes
Den vanligaste annoteringstypen är s.k. 2D Bounding Boxes. De är lätta att tillämpa i maskininlärningsmodeller och snabbare att annotera i jämförelse med andra annoteringstyper. Till skillnad från segmentering kan Bounding Boxes också innehålla osynliga delar av det klassificerade objektet genom att approximera ocklusioner eller trunkeringar. På grund av den inneboende instans-medvetenhet om begränsningsramar, kommer dina algoritmer få en bättre förståelse för begreppet specifika objekt och -om du vill – spåra vissa objekt i hela sekvensen. Begränsningsramar används oftast för testning och validering av nya sensorer eller för spårning av objekt i sekventiella data.
2D & 3D – Semantiska segmenteringar
Eftersom världen inte är gjord av lådor, erbjuder vi också en mer exakt metod för att kommentera data – semantisk segmentering.
Beroende på rådatan kan det bli så att Bounding Box-annoteringarna innehåller störningar i form av bakgrund och ocklusioner. Detta kan man lösa med hjälp av semantisk segmentering, där varje pixel som tillhör en fördefinierad objektklass kan annoteras. Det är därför så nära man kommer en sann representation av verkligheten i 2D & 3D-space, gällande klassificeringar. Det är också mer mångsidigt eftersom det är mycket lätt att skilja på olika objekt, till exempel, väg, körfält och trottoarkanter samt att spåra instanser av dem i hela sekvensen
- Realistisk simulering baserad på verkliga data
- Testa kritiska situationer och specialfall
- Färdiga att använda scenarion för dSPACE simuleringsverktygskedja
- Helhetslösning för scenariogenerering och storskalig simulering
Validering och säkerhetsbedömning av autonoma körsystem kräver storskalig simulering med tusentals realistiska scenarion som utförs för att säkerställa maximal provtäckning. Det är orimligt att utvecklare ska hantera den enorma ansträngningen manuellt, eftersom de måste komma på kritiska scenarion och skapa dem på egen hand i begränsande redigeringsprogram. Däremot är ett stort antal intressanta scenarier redan tillgängliga som mätdata som samlats in av kunder under många riktiga provkörningar och är redo att extraheras för att få den verkliga komplexiteten i simulering.
Lösningen för scenariogenerering från dSPACE och UAI möjliggör skapandet av realistiska scenarion som baseras på registrerade verkliga data för storskalig testning av funktioner för autonom körning. Skapandeprocessen består av extrahering- och generering av scenariot. Scenariots extrahering bygger på ren 2-D bild från en främre kamera och drivs av sofistikerade algoritmer från UAI. För ännu högre noggrannhet, kan ytterligare sensordata som punktmoln från lidar, radarträffar och HD-Map data dessutom användas. Detta resulterar i hög noggrannhet för objekt och rörelser som tas som input för vidare behandling. Under scenariogenereringen omvandlas indatan till ”replay” och logiska scenarion samt vägnätverk med 3D-landskap – allt klart att användas i dSPACE verktygskedja. Vidare kan logiska scenarier parametriseras för att möjliggöra ett stort antal variationer och täcka en stor del av det testutrymme som krävs. Om så önskas kan även objektlistor användas som indata för scenariogenerering.
Validera ADAS/AD-komponenter med hjälp av inspelade verkliga data
Validering av sensor-, sensorfusions- och perceptionskomponenter för uppfattning av omvärlden är en utmanande uppgift. På grund av deras komplexitet och kritiska roll inom ADAS/AD-området ställs högre krav på deras säkerhet och noggrannhet. För att överkomma detta används inspelade verkliga data som en viktig del av valideringen innan utgivande. Till skillnad från syntetiska simuleringsdata kan inte graden av realism och verklighetstrogenhet i inspelade data överträffas. Fengco och dSPACE erbjuder flera lösningar för validering och testning av ADAS/AD-perceptionsfunktioner och sensorfusionskomponenter med sätt att spela upp inspelade data.
Att uppnå hög precision och realism är en krävande uppgift. Systemet under test (SUT) måste matas med inspelad data precis som det skulle vara under en riktig körning. Heterogena dataströmmar, inklusive sensor- och nätverks-/bussdata, måste synkroniseras under uppspelningsprocessen fast deras paket-/meddelandestorlek kan skilja sig. Dessutom ökar hela tiden den totala mängden data som behöver strömmas. Komplex realtidsanpassning av den inspelade datan för att klara end-to-end kryptering och säkerhetskontroller i testsystemet är också en utmaning. Dessutom är det avgörande att effektivt kunna skala testet för att kontinuerligt mata miljontals inspelade kilometer och att hantera flera testsystem.
dSPACE verktygskedja erbjuder dedikerade lösningar för alla data replay behov, oavsett om SUT är fysiskt tillgänglig (HIL) eller fortfarande i en tidig utvecklingsfas (SIL), och om det endast är en enkel sensorkomponent eller en komplex central beräkningsplattform för autonom körning.
Alla dSPACE data replay lösningar säkerställer synkron sensor- och bussdata uppspelning med minimalt . Dessutom, genom att ta en modulär approach, är systemuppgradering för att passa nya krav på bandbredd en lätt uppgift. Sömlös övergång och interoperabilitet mellan ren programvarumiljö (SIL) och fysisk SUT (HIL), och mellan tester med sluten kontroll-loop och uppspelning av data säkerställs också. Denna interoperabilitet förenklar övergången för SUT från sluten kontroll-loop med syntetiska data till att börja injicera inspelad data.
dSPACE data replay lösningar stöder ett brett utbud av standard- och kundspecifika buss- och sensorgränssnitt. Dessutom, med hjälp av dSPACE realtidssystem säkerställs realtidsanpassning av den uppspelade datan med säkerhet och tidsinformation, och live övervakning och manipulation av den uppspelade datan.
Exempel på några typiska användningsområden för data replay och de passande dSPACE-lösningarna för var och en av dem:
- Sensorkomponenter
Använd inspelade data för att validera beteendet hos kamera-, lidar- och radarsensorer i en hårdvaruvarumiljö (HIL). - ADAS/AD Plattformar (ECUs)
Testa omvärldsuppfattning(perception)- och sensorfusionsfunktioner på ADAS/AD-plattformar med inspelade data från den verkliga världen i en hårdvaruvarumiljö (HIL). - Virtuella ECUer och mjukvarukomponenter
Testa uppfattning(perception) och sensorfusionsfunktioner i en komplett mjukvarumiljö (SIL) innan implementering på målsystemet.
Closed-Loop HIL Testning för Multisensorsystem
- GPU-baserade sensormodeller i MotionDesk för att generera rådata för flera sensorer och strömma all data till Environment Sensor Interface Unit
- Environment Sensor Interface Unit för att separera input efter de enskilda sensorerna och för att infoga tidskorrelerade data bakom respektive sensor front-end
Autonoma körsystem kommer att använda flera kamera-, radar- och lidarsensorer. Att integrera alla dessa sensorer i en HIL-miljö inför releasetestning, med hjälp av flera kameralådor, over-the-air radar provbänkar, till exempel, kan gå utöver projektets begränsningar. Dessutom är det väsentligt att exakt synkronisera stimuleringen av de enskilda sensorerna. Lösningen är Environment Sensor Interface Unit som stöder tidskorrelerad matning av sensorrådata till en eller flera kamera- eller lidar-ECUs, till exempel.