Teknisk: AP hw 2.0 / Full Self-Driving Capability

Startet av lunitiks, torsdag 20. oktober 2016, klokken 06:29

« forrige - neste »

Longice

Sitat fra: lunitiks på mandag 24. oktober 2016, klokken 05:58
@Longice, se etter disse tre kodene:
- APE1
- APE
- APF

Har du alle eller noen av de ovennevnte, og ikke noen av disse:

- DA01
- DA02

så skal du ha fått ny HW.

Har APEC, APF1, APH0.
Ingen DA01/02 så da er jeg vel med for håpentlig vis. ☺️

eha

Sitat fra: o.b.lix på mandag 24. oktober 2016, klokken 10:22
Her var poenget at bilen skulle bli bedre enn mennesket å kjøre, og da er sensorer utover det mennesket har til god hjelp.

Veibane som er glatt blir ofte ikke oppdaget før det er for sent sånn det er i dag. Så hvordan vite at veibane er glatt? Man kan anta, basert på værmelding. Men hva hvis det er oljesøl? Slaghull i veien er heller ikke lett å se.

Jada, men for det første så har den allerede flere sanser enn oss: 8 øyne, 12 sensorer og en radar. I tillegg fungerer disse øynene på mange måter bedre enn våre, siden de hver seg fokuserer på et langt større felt enn et menneskes relative "tunnelsyn".

Men selv hvis bilen hadde en robot med kun to øyne, temperatursensor, og kanskje noe hørsel i tillegg - altså selv hvis bilen kun hadde nøyaktig identiske sanser som oss - så vil den kunne bli mye bedre å kjøre enn oss pga. de fire punktene jeg nevner i innlegget mitt.

Når den da i tillegg altså har langt bedre og flere sanser enn oss, så ligger mye til rette for at den blir mange ganger bedre enn oss. Men, som sagt, enda flere sensorer vil alltid kunne forbedre ytterligere.
2017 Tesla Model X 90D
201X Tesla Model 3 reservert

RuneW

Sitat fra: o.b.lix på mandag 24. oktober 2016, klokken 10:22
Sitat fra: eha på mandag 24. oktober 2016, klokken 10:05
Snu litt på det:

  • Har kroppen din en egen sans som registrerer glatt eller utslitt veibane?
  • Klarer du som person å bedømme hvorvidt veibanen er glatt eller slitt?

Her var poenget at bilen skulle bli bedre enn mennesket å kjøre, og da er sensorer utover det mennesket har til god hjelp.

Veibane som er glatt blir ofte ikke oppdaget før det er for sent sånn det er i dag. Så hvordan vite at veibane er glatt? Man kan anta, basert på værmelding. Men hva hvis det er oljesøl? Slaghull i veien er heller ikke lett å se.

Ja og poenget er at systemer basert på "menneskelige sanser" (les kameraer) er i ferd med å banke mennesker på flere og flere områder. Den ene bastionen etter den andre faller. Allerede for et halvt år siden var maskiner bedre enn mennesker til å analysere bilder for å se etter kreft.

Det er nesten ikke mulig å ta inn over seg fremgangen til disse systemene. Ting som vi bare for 3-4 år siden antok at maskiner aldri ville bli like gode som oss i er de nå mye bedre enn oss på - og de ser seg aldri tilbake.

Det jeg prøver å si er at man ikke skal undervurdere den potensielle kraften til disse systemene. Jeg ser ingen grunn til at de 3 kameraene i front ikke skal kunne bruke visuelle hint for å gjenkjenne en glatt veibane, mye bedre enn noe menneske kan. Når systemet er godt nok trent vel og merke... ;D

TMY LR AWD
TM3 LR AWD FSD (solgt)

eha

2017 Tesla Model X 90D
201X Tesla Model 3 reservert

lunitiks

Kjøper også det meste @eha skriver her - i alle fall teorien. Men så er det praksis da. Ekstremt spennende tider ettersom vi kan være vitne til en meget stor revolusjon om kun få år *hvis* dette vil fungere
2015 Tesla Model S 70D
2014 Nissan Leaf 6,6 kW

eha

Sitat fra: lunitiks på mandag 24. oktober 2016, klokken 11:03
Kjøper også det meste @eha skriver her - i alle fall teorien. Men så er det praksis da. Ekstremt spennende tider ettersom vi kan være vitne til en meget stor revolusjon om kun få år *hvis* dette vil fungere

Jeg ser hva jeg selv skriver og mener, men har allikevel noe som stritter imot inni meg. Jeg klyper meg litt i armen. Er dette virkelig sant? Men det var iallfall ingen vanskelig avgjørelse å avbestille min AP1-bil og bestille en ny  ;D
2017 Tesla Model X 90D
201X Tesla Model 3 reservert

JanBrede

Sitat fra: o.b.lix på mandag 24. oktober 2016, klokken 10:22
Sitat fra: eha på mandag 24. oktober 2016, klokken 10:05
Snu litt på det:

  • Har kroppen din en egen sans som registrerer glatt eller utslitt veibane?
  • Klarer du som person å bedømme hvorvidt veibanen er glatt eller slitt?

Her var poenget at bilen skulle bli bedre enn mennesket å kjøre, og da er sensorer utover det mennesket har til god hjelp.

Veibane som er glatt blir ofte ikke oppdaget før det er for sent sånn det er i dag. Så hvordan vite at veibane er glatt? Man kan anta, basert på værmelding. Men hva hvis det er oljesøl? Slaghull i veien er heller ikke lett å se.

Jeg skal vel være den første til å rekke hånden i været og si at jeg har bommet på dette, noen andre? Bilene mine for over 10 år siden derimot varsler fare for svart is flere grader før jeg tenker at det er glatt i det hele tatt... Olje har jeg tilgode å ha noen nære hendelser med, mens hull i veien klarer jeg innimellom å treffe selv på godt kjente veier...

Har en sterk mistanke om at jeg blir slått av maskiner på flere av disse områdene, at maskinene derimot kanskje ikke tar like mye sjangser som meg og dermed tilslutt kanskje kommer litt senere frem, men antakelig da også tryggere frem.  ;)

Helelektrisk familie :)
Tesla S90D 2017, "Blu", siden Mars 2017

Leaf Tekna 2013, "Bawwy", med 6,6 kW lader siden September 2013
2013-2014: 14000 km
2015: 17000 km
2016: 17000 km

cstromme

"Bedre" vil ikke si at det er like bra eller bedre i alle situasjoner, men at det er bedre i de fleste situasjoner.

Vi kommer nok til å se ulykker som ikke hadde skjedd hadde et menneske kjørt. På den andre siden blir det nok betraktelig flere ulykker som blir avverget av at bilen kjører selv.
Tesla Model X 100D 2023 Ultra Red
Tesla Model X 75 2017 (SOLGT)
Tesla Model S 85 2014 (SOLGT)

Ellemelle

Sitat fra: JanBrede på mandag 24. oktober 2016, klokken 13:07
Har en sterk mistanke om at jeg blir slått av maskiner på flere av disse områdene
Og hvis maskinen feiler i å oppdage en konkret fare, så vil den ihvertfall dele informasjonen videre slik at neste bil vet hva som venter.

eha

Sitat fra: Ellemelle på mandag 24. oktober 2016, klokken 13:50
Sitat fra: JanBrede på mandag 24. oktober 2016, klokken 13:07
Har en sterk mistanke om at jeg blir slått av maskiner på flere av disse områdene
Og hvis maskinen feiler i å oppdage en konkret fare, så vil den ihvertfall dele informasjonen videre slik at neste bil vet hva som venter.

Ikke nødvendigvis for Tesla, tror jeg. Kanskje etter hvert. Men den dype læringen går på prinsipper og generaliteter mer enn spesifikke objekter. I denne omgang.
2017 Tesla Model X 90D
201X Tesla Model 3 reservert

eha

For å nyansere svaret mitt litt: Det kan godt hende at Tesla vil ha en eksplisitt distribuering av faremomenter i tillegg, men det jeg mente var at deep learning og det nevrale nettverket ikke i utgangspunktet vil være spesifikt.
2017 Tesla Model X 90D
201X Tesla Model 3 reservert

lunitiks

Hovedproblemet med å begripe hvordan dette skal fungere, er at vi intuitivt tenker oss at bilen, på forhånd, må være oppdatert med en enorm database med konkrete *erfaringer* (typeeksempler) fra menneskelig kjøring, som bilen skal måtte "hente frem" i enhver konkret trafikksituasjon. Altså en database som liksom skal utfylles etter hvert med softwareoppdateringer. Dette fremstår som et veldig usannsynlig opplegg, fordi det er uendelig mange unike situasjoner som kan oppstå som vi ikke har tenkt på, men som likevel enhver menneskelig sjåfør vil være i stand til å takle uten problem. Feks eksempelet med glatt føre i en sving, olje på veien, telehiv - what ever.

Skal dette systemet virke i praksis, må derfor bilen ha en evne til å ta enhver unik utfordring på strak arm (rett og slett "tenke selv"), helt uavhengig av om denne - eller en lignende - situasjon ligger i robotens "erfarngsarkiv" fra før
2015 Tesla Model S 70D
2014 Nissan Leaf 6,6 kW

lunitiks

Vi er vant til roboter i "tradisjonell" forstand: En maskin som alltid må forhåndsprogrammeres nøye og målbevisst for å gi et bestemt output
2015 Tesla Model S 70D
2014 Nissan Leaf 6,6 kW

eha

#193
Jeg har tenkt litt på dette med læringen og tror det kan fungere omtrent slik:

  • En erfaring gjøres i bilen. Dette består av sensordata som bilder, ultrasonisk, radar, fart, temperatur, kraft, brems, rattbevegelse, abs, bakkekontakt, last m.m.
  • Datamaskinen i bilen forenkler dataene. Dette krever enorm datakraft. Bilder etc. forkastes underveis.
  • Forenklingen passer inn i en definert modell og det lages en erfaringsgraf.
  • Denne erfaringsgrafen lastes opp til Tesla over 4G-nettet på et senere tidspunkt.
  • Teslas datasenter mottar svært mange slike erfaringer i døgnet.
  • Alle erfaringen tygges i det nevrale nettverket hos Tesla.
  • Etter at erfaringene er gode nok, lages det grafer som distribueres til bilene.
Det nevrale nettverket og den dype læringen ligger og foretas altså på Teslas servere, i tilfelle noen var i tvil. Men resultatet av disse erfaringene er grafer som hver bil vil bære på. Neste gang en bil kommer overfor en situasjon, skjer nesten det samme som over. Bilen tygger på dataene, lager en graf, bruker denne grafen til å søke i sine erfaringsgrafer, finner en tilpasset match og foretar en handling. Dette gjør den absolutt hele tiden mens den kjører. Men den behøver altså ikke lete gjennom alle grafene i verden, den bruker de lærte grafene som datasentrene hos Tesla har tygget ferdig.
2017 Tesla Model X 90D
201X Tesla Model 3 reservert

eha

Sitat fra: lunitiks på mandag 24. oktober 2016, klokken 14:03
Skal dette systemet virke i praksis, må derfor bilen ha en evne til å ta enhver unik utfordring på strak arm (rett og slett "tenke selv"), helt uavhengig av om denne - eller en lignende - situasjon ligger i robotens "erfarngsarkiv" fra før

Delvis ja, men mest baserer den sine handlinger på sine lokale erfaringsgrafer. Disse er lastet ned fra Tesla, og det er hos Teslas datasenter at selve læringen har foregått. Det er altså mest AI sentralt, men litt AI lokalt :)
2017 Tesla Model X 90D
201X Tesla Model 3 reservert

© 2025, Norsk elbilforening   |   Personvern, vilkår og informasjonskapsler (cookies)   |   Organisasjonsnummer: 982 352 428 MVA