Bli medlem i Norsk elbilforening og støtt driften av Elbilforum. Som medlem får du i tillegg startpakke, medlemsfordeler og gode tips om elbil og lading. Du blir med i et fellesskap som jobber for mindre utslipp fra veitrafikken. Medlemskap koster 485 kroner per år. elbil.no/medlemskap
Hovedmeny

Sv: Et kraftig spark bak til produsentene!

Startet av tiff, onsdag 13. september 2017, klokken 12:30

« forrige - neste »

Belloq

Var ikke i tvil om å ta med fsd , er rimelig sikker å at innen 1-2 år så får vi som har denne pakken funksjoner som ap2 ikke har.
P85 2014

Nasatech

Jeg digger Tesla som bil og som selskap, men at de gir noen form for kompensasjon fordi noen føler seg snytt tror jeg ikke noe på.

Bestilte selv en Model X P90DL for 2 år siden. Prisen da var 1.4 millioner. Ca 1 måned etter levering så lanserer de 100 pakken og AP2. Så senker de prisene. Litt senere så oppgraderer de 75-bilene så de blir raskere og nå gjør de det jammen igjen. Jeg bestilte en bil og la på over 100.000 for å få den raskere. Så la jeg på over 100.000 til for å få den enda raskere. 3 måneder senere så er biler til halve prisen nesten like raske. Spurte om jeg kunne få tilbud på oppgradering fra 90 til 100. Svaret var blankt nei. Men kunne oppgradere for 200.000 om jeg ville :(

daktari

Det regulatoriske ved FSD er ikke et problem, kun ved noen forventninger.

Hvis du vil ha level 3-5 der man kan sitte i baksetet uten sjåfør, ja da er Tesla juridisk ansvarlig og regulering ikke klar.

Hvis du sitter foran og er klar til å ta over, Tesla gir deg ansvaret selv om bilen takler alle scenarier  selv, da er det ingen regulatorisk utfordring. Det er som en assistent, som Ap2 i dag.

turfsurf

Jeg tror nok biler med FSD gradvis vil få features som skiller de fra EAP. Siste SW release har allerede algoritmer som bruker alle kamera (sikkert i shadow mode).
Model Y Performance Pearl White - i bestilling
I-Pace HSE Corris Grey 2019 - The Englishman
i3 120Ah Imperial Blue 2019  - city fun
x - Model X 100D Pearl White 2017 - Flying Circus
x - Model X 90D premium - kansellert
x - Stormtrooper i3 2015 (lobotomized perfection)
x - Pearl White S 85D 2015 (Release Candidate)
x - Pearl White S 85 2013 (Beta)

daktari

Om n+3, senest 6 måneder!
Har allerede sendt en klage, når skal vi be om prisavslag?

EAP var dobbelt så dyr som AP1, FSD i tillegg...

o.b.lix

Jeg vil også sende klage, hvordan formulerte du deg?
«Vi må passe oss for å overinvestere i vei»

2017 Tesla model X 90D (Ap2.0) / 2019 Leaf Tekna 40kW
2015 Tesla model S 85D (Ap1.0) / 2014 Leaf Acenta 24kW

Øyvind.h

Ettersom Tesla ikke vet når sw er klar eller hva myndighetene mener har de tatt klare forbehold som man leser når man konfigurerer.
Mtp at AP2 bruker såpass lang tid på å passere AP1 (nærmer seg vel tangering med siste dagers sw) er nok vesentlig verdi av fsd et par år unna. Tror jeg. Men det kommer nok.

Bare å smøre seg med tålmodighet :)
Mercedes EQC AMG 2020
Model Y Performance bestilt
x Tesla Model X90D 2016
x Kia eNiro 2019
x Tesla Model S 90D 2016
x Nissan Leaf mars 2012
x Model S aug 2013

Muffinman

Det tar nok så lang tid at de første som kjøpte for lengst har solgt bilene videre uten å få varene levert. Må si jeg har ekstremt lite til overs for en slik måte å drive butikk på. Det rasles veldig med sablene over dammen på dette nå, så spørs det om Tesla tvinges til å rulle ut noe halvferdig ræl for å unngå rettssak, eller om det faktisk blir advokatmat. Bra er det uansett ikke.

Cirion

Sitat fra: Øyvind.h på lørdag 28. oktober 2017, klokken 20:22Mtp at AP2 bruker såpass lang tid på å passere AP1 (nærmer seg vel tangering med siste dagers sw) er nok vesentlig verdi av fsd et par år unna. Tror jeg. Men det kommer nok.
Ikke urimelig å tenke slik, men en post på TMC  av de som snoker i FW oppdateringene, viser en annen teori som gir mer håp.

Hoderulling hos Tesla, og ny head of AI and AP for 4 måneder siden:
https://electrek.co/2017/06/20/tesla-autopilot-chris-lattner-software-vision/
https://electrek.co/2017/06/21/tesla-ai-autopilot-vision/

Teorien er at Tesla startet på scratch. Det har tatt 4 måneder, og nå vil vi se raskere fremgang.

SitatJ1mbo, Oct 19, 2017  Last edited: Oct 19, 2017 It seems to me that there has been a lot of work put into cleaning things up before moving forward.
I would guess that the clean-up work was Chris Lattner's legacy - in his resume he states: "I advocated for and drove a major rewrite of the deep net architecture in the vision stack, leading to significantly better precision, recall, and inference performance."

.40 is the first release with a new NN since June(?), which was when Lattner left, so probably Karpathy's debut

Sitatjimmy_d, Thursday at 3:37 PM
Ok, I guess I have to take back some of my trash talking. After looking at the fisheye wiper and repeater networks it's pretty clear that these aren't strictly cut-and-paste. They are all based on GoogLeNet, but tweaked. The wiper network is pretty dramatically cut down.

Of note - the wiper network seems to be outputting 5 different classes of wiper operation, so I'm guess "off" plus 4 speeds of "on".

The repeater networks are straight GLN with outputs that suggest they are being used to generate 4 flavors of bounding box at 104x160 resolution and 6 other kinds of output at full resolution. That feels a lot like what you'd use to look for, say, vehicles in your blind spot. Could the bounding boxes be 4 different kinds of vehicle maybe? The other full res categories could help to understand the context of the view: pavement, walls, trees, curbs, etc?

The fact that they bother to use a different network for the repeater suggest that the GLN layers aren't being trained as generic recognizers. If they were then you could use the same network for the main as for the repeaters. If you find value in using a different network it's probably because you want to take advantage of the fact that what you see from a repeater is different from what you see from the main camera.

There's only one repeater network, so I'm assuming that maybe it gets used for both repeaters? I wonder if they reverse the image for the left one relative to the right one to make them match better? Or are they only using one of the repeater cameras right now?

Also, crawling through the differences in these newer networks led me to notice something about the main camera network that I missed the first time - the final two pre-deconvolution layers in the GLN portion (5a and 5b) are both using dilation. Dilation is a new-ish technique as of this year (more or less). The presence of dilation in this network suggests that whoever is generating it is keep up with latest developments and actively trying new stuff.

Finally, I took a look at the 4 months older 17.26.76 main camera network and found it to be different in some interesting ways from the recent stuff. The core was still built on GLN but the interpretation layers were quite different and arguably more complicated than the recent main camera networks.

Saying this is kind of a reach based on not a lot of info, but I wonder if maybe they were unhappy with what it was doing and started over with something simpler sometime in the last 4 months.

Sitatjimmy_d, Yesterday at 1:35 PM
A while back I was wondering why the same NN was being run on both the main and narrow cameras. Using one net on two cameras with different focal lengths is going to damage your detection scores, but then @verygreen said at some point that he believed both main and narrow were being cropped to the same FOV to run through the network. So that fixes the detection score problem, mostly, but it brings up another question. If you're just doing object detection then doing it on two side by side cameras with the same FOV doesn't get you much beyond a bit of redundancy, so why? @verygreen also suggested that he thought maybe they were doing stereo for the front cameras and I was pretty skeptical because I hadn't seen anyone doing it that way. And I've looked.

Well, looks like I could be wrong about that (again). I seem to be wrong alot, unlike some other folks.

So yesterday @verygreen shared some output from a profiler that includes names of function calls from inside the vision process, and low an behold we can see "init_undistortmap_for_stereo" among the active functions. The most common methods of doing binocular stereo for computer vision requires that you raster align the left and right image, which in turn requires that you do some preprocessing to remove lens distortion and make both the right and left images completely 'flat'. Stereo processing then just measures the left right offset of pixels at various places in the image to create a depth map. (incidentally that LR offset is called disparity by the stereo vision folks) There's a bunch of information on that stuff here if you're interested:

The KITTI Vision Benchmark Suite

Basically, you have to "undistort" both the main and narrow before you run a raster-aligned algorithm on them to generate a stereo depth map. Which got me to wondering if main and narrow were far enough apart to generate any decent amount of binocular vision for a car application. They're pretty close together after all, and cars and stuff are pretty far so maybe you don't get much disparity from them. And once again the valiant @verygreen comes to the rescue with a set of images that @bjornb turned into this mosaic:

https://teslamotorsclub.com/tmc/attachments/merged_text-png.245225/

Which tells us two interesting things. One is that the fisheye is in the middle of the 3 forward facing cameras, so main and narrow have the largest separation, which is good if you want to use them for stereo vision. And the other thing is apparent when you look at the part of the mosaic where narrow is embedded in main. It's pretty obvious that the box around main and the box around narrow are not concentric, and that offset is the 'disparity' of the stuff near the boundary of the 'narrow' frame - which is mostly a couple of car lengths away. So yes, there is definitely plenty of disparity for things that are a few car lengths away, especially when you consider that these are high def images so there are a lot of raw pixels in there. So you can definitely get useful distance measurements using main and narrow as a pair of stereo cameras. And that undistort_for_stereo function implies that this is probably happening in AP2.

Though whether they use it to make driving decisions or it's one of those 'shadow mode' things is still unknown.
Kjører Model S Signature P85+ eller X100D 7s. X90D 5s solgt.

turfsurf

Har fulgt med på den tråden på TMC. Gir grunn til forsiktig optimisme. Gir Tesla til nyttår før jeg klager (både på EAP og FSD)
Model Y Performance Pearl White - i bestilling
I-Pace HSE Corris Grey 2019 - The Englishman
i3 120Ah Imperial Blue 2019  - city fun
x - Model X 100D Pearl White 2017 - Flying Circus
x - Model X 90D premium - kansellert
x - Stormtrooper i3 2015 (lobotomized perfection)
x - Pearl White S 85D 2015 (Release Candidate)
x - Pearl White S 85 2013 (Beta)

cra

FSD er som en lottokupong, men med mye høyere pris og mye mindre potensiell gevinst. Oddsene for å "vinne" gidder jeg ikke engang regne på.
Tesla Model S75D 30/6/17
Tesla Model S85 26/3/14-30/6-17, 82500km
Leaf 9/5/12
Think City, Har ACTIA diagnoseapparat.
Sykkylven (Sunnmøre)

Knut Røe

Ganske tvilsomt at AP2 noen gang kommer forbi level 2, når man ser på utviklingstakten hittil. Og de små enkle ting som de "aldri" klarer å få orden på. Noen som oppriktig kan si de er fornøyd med bytte fra AP1 til 2 hittil?
Mye er lovet men lite er levert.

Cirion

Sitat fra: cra på mandag 30. oktober 2017, klokken 08:02
FSD er som en lottokupong, men med mye høyere pris og mye mindre potensiell gevinst. Oddsene for å "vinne" gidder jeg ikke engang regne på.
Jeg tipper oddsene er vesentlig høyere enn Lotto ;)
Kjører Model S Signature P85+ eller X100D 7s. X90D 5s solgt.

krister461

Man betaler ikke for FSD fordi man tror bilen plutselig har lvl 5 en dag. Man betaler for å være med på utviklingen.

Det samme gjorde jeg med AP1. I starten hadde den ikke adaptiv cruise en gang og ting tok lang tid, men jeg synes det var kult å være med på utviklingen og jeg er godt fornøyd med hvor langt AP1 var kommet når jeg solgte bilen.

Cirion

Sitat fra: tiger``n på mandag 30. oktober 2017, klokken 08:11Noen som oppriktig kan si de er fornøyd med bytte fra AP1 til 2 hittil?
Jeg har ikke eid AP1 men jeg har lånt nok til å gjøre meg opp et bilde... Jeg kjørte AP1 bil til Monte Carlo i Mai i år. Funket meget bra på motorvei, og var ubrukelig på småvei med mindre det var en bil foran den hadde lock på. Fungerte ikke i det heletatt en rå morgen med dugg på vinduene. Da tok det et par timer før jeg fikk lov til å bruke ACC eller Autopilot. Passe idiotisk.

AP2 fikk jeg testet godt i sommer med 13500km roadtrip i europa. Fantastisk! Fikk AP2 bilen 4t før avreise, og den var kliss ny og ukalibrert. Så Autopilot var ikke aktiv før etter lading på Tanum SC. Fantastisk opplevelse, mye bedre enn AP1, fungerte så og si over alt. Som med AP1 likte den ikke trafikkøyer, avkjøringer, rundkjøringer osv. men den klarte både småveier, drittvær, skogbranner osv. osv. Eneste gangen den var deaktivert,  var når jeg fant ut at den ikke liker at man tråkker gassen så den går over 150km/t på Autopilot. Da måtte den furte seg ferdig i timesvis. Superlading, vasking osv. hjalp ikke.

Så kom jeg hjem til Norge. Totalt annerledes. AP2 virket ikke over alt, knoter med fartsgrenser, småveier er ubrukelig osv. Med gulstripe som er malt av en sykt drita sjåfør så følgte AP2 stripa slavisk... Slalom så det holder osv. Krysset linjene rett som det var. Kjente ikke igjen AP'en fra Europa i det hele tatt.

AP2 funker bedre og bedre nå i høst på Motorvei "klasse A" som jeg fortsatt kaller dem. Men tok meg en liten testtur i går for å teste forbedringer med AP2 på 2017.42 og det fungerte strøkent helt til Nebbenes, men derfra skulle jeg en tur til Hokksund og det var bare sorgen.

Veiene ble satt til 60km/t hele veien til hokksund, så det var ubrukelig å aktivere Autopilot. 60 i 80 sone er ikke helt min greie. Så tilnermet null Autopilot hele det strekket... Så jeg er rimelig skuffet med 2017.42.

Alt i alt, digger jeg AP2. Der jeg vanligvis kjører til daglig og i jobb, fungerer det ca. 99% av veiene. Jeg bor vel heldig til sånn at jeg kjører så og si kun klasse A motorvei uansett hvor jeg skal til vanlig.

Ut fra trådene på TMC om siste FW, så aner jeg håp om at det kommer mer funksjonalitet som var lovet i EAP om ikke så lenge (2 tesla uker  ::) ). Tipper forbedringene kommer fortere nå. Teorien jeg tror på er at de startet om igjen i slutten av juni med nytt team, og det har tatt tid for dem å komme seg opp på samme nivå. Nå er det 3 NN (Neural Network) i AP2 firmware og tidligere har det kun vært 1. Ut fra infoen så er 1NN den vi merker i dag, med 2 kamera forover, og 1NN er regnsensor (ikke aktiv, men kansje snart), og den siste NN er for blinklys kameraene. Siden EAP skal bruke 4 kamera totalt, er det sannsynlig av EAP funksjonalitet snart aktiveres og de 2 siste NN'ene bare er i shadow mode akkurat nå.
Kjører Model S Signature P85+ eller X100D 7s. X90D 5s solgt.

© 2024, Norsk elbilforening   |   Personvern, vilkår og informasjonskapsler (cookies)   |   Organisasjonsnummer: 982 352 428 MVA