Tesla Motors Inc. « Terug naar discussie overzicht

Tesla blow-off

7.741 Posts, Pagina: « 1 2 3 4 5 6 ... 196 197 198 199 200 201 202 203 204 205 206 ... 384 385 386 387 388 » | Laatste
[verwijderd]
0
Toon dan eens een real world voorbeeld van Autopilot dat beter werd zonder dat er een nieuwe update aan te pas kwam? En dat er geen coding aan te pas kwam?

Ik zing het evangelie niet 100% in zuiver mee met de cult, ben ik daarom cynisch? Volgens mij ben ik behoorlijk op de hoogte van de activiteiten en prestaties van Tesla, meer dan de meeste permalongs zelfs. Die pubquiz durf ik wel aan.

Vanaf vroege versie van Autopilot is overduidelijk hoezeer de officiële bedrijfspositie mbt FSD los staat van de realiteit. De grote beloofde milestone worden door andere ontwikkelaars beter benaderd dan door Tesla. Meer dan eens was een hardware suite verklaard tot FSD klaar, en dan moest het toch weer een heel stuk zwaarder. Elke stap van het proces wordt de volgende stap onderschap.
Smart summon had nooit live mogen gaan natuurlijk, het is zelf met een oplettende bestuurder gewoon niet veilig genoeg. Beelden door fanboys geven dat maar al te duidelijk aan.
Voorbeeld tegen de Tesla zaak worden veel te makkelijk aan de kant geschoven met "lees dit maar eens, kijk eens hoe goed er over nagedacht is! De rest loopt nog te prutsen met LIDAR!". Terwijl er mensen dood gaan in Tesla die in een koekblik hadden blijven leven. En Tesla er niets aan doet, de software niet aanpast om herhaling te voorkomen. Zelflerend? Een Tesla rijdt zich kort op een wegsplitsing en de volgende dag probeert een andere Tesla hetzelfde. En jaren jaren, in Tiel, gelukkig zonder een dode, alleen blikschade. De auto's leren NIET. Leren betekent, de volgende keer alerter zijn. Niet alleen als er slecht zicht is, maar heel specifiek op DIE locatie, in DIE richting, waar recent een Tesla onverwachte parameters registreerde (door een veld rollen ipv over asfalt suizen). Er gaan heel fundamentaal dingen falikant verkeerd bij de aanpak van Tesla. Maar opdat ze een paar nerds op het podium kregen die Tesla's aanpak wilden verdedigen, is alles ineens weer perfect en kunnen we door naar de volgende deadline die verloopt en de volgende update die gewoon faalt.
10x veiliger overall willen ze zijn, maar ghostbraking is er nog steeds. Er zijn gevallen die goed uitpakken, overall is de balans misschien wel groen, maar de aanpak van de downside is er blijkbaar niet of nauwelijks.

Ik vertrouw veel meer op de chemische caciteiten die Tesla inkocht dan de FSD tech die ze inhouse proberen te maken. Als ze die cellen weten te maken, 2x zo dicht als nu, en geen kansen laten liggen in de verkoop ervan, is het meteen de huidige koers waard. Maar ervaring leert dat niet meteen van ze te verwachten. Model S en X steken nog in 2016.

löngterm
0
quote:

Skater schreef op 14 januari 2020 19:12:

Toon dan eens een real world voorbeeld van Autopilot dat beter werd zonder dat er een nieuwe update aan te pas kwam? En dat er geen coding aan te pas kwam?
Zoals ik al eerder heb uitgelegd is dat ook totaal niet het punt van de self-driving.....

De data wordt gewonnen uit de Tesla's die dat wordt centraal opgeslagen. Een supercomputer laat keer op keer een NIEUW neural net leren. Wanneer er dan genoeg verbeterd is en uitvoerig getest wordt de update over de fleet uit gerold.

DE AUTO ZELF LEERT DUS NOOIT EN DAT IS OOK NOOIT DE INSTEEK GEWEEST EN ZAL HET OOK NOOIT WORDEN!

Een neural net heeft een input layer (alle sensoren zoals radar, de camera's en de near field detectoren) een hiden layer (deze bestaad uit waarschijnlijk honderden lagen en duizenden of misschien wel miljoenen nodes) en een output layer. (wat de auto daadwerkelijk uitvoerd, zoals gas, rem stuur ect)

Ik raad je nogmaals aan eerst over artificial inteligence te leren dan neural nets en dan nogmaals de FSD webcast te kijken. Want de claims de je maakt geven inzicht in het feit dat je 0 idee hebt waar je over praat.

Sorry dat het zo dof is en persoonlijk maar dit is niet de eerste keer dat ik het geprobeerd heb uit te leggen. En dat terwijl ook ik een leek ben op dit gebied.
[verwijderd]
0
De trailing stop op mijn long lijkt te zijn geraakt, toch een flink deel van de verliezen van vandaag goedgemaakt, misschien iets meer zelfs.
FlatEx is zo traag dat je njiet echt kunt zien of een order uitgevoerd is, en tegen welke prijs zie je ook lang niet. En de opbrengst komt lang niet terug in je portefeuille dus zweeft ergens in het midden.
[verwijderd]
0
Bij iets vitaals als zelfrijdende projectielen van ruim 2 ton moet de verkeersveiligheid niet afhankelijk worden gemaakt van de updatefrequentie van 1 automaker. Zeker als die niet in staat blijkt versies gedegen te testen en bijstellen voor ze live gaan. Veel updates zijn een stap achteruit geweest.
Als een Tesla de inzittended dood rijdt...gaat het mooie neural net daar over nadenken en MISSCHIEN een update formuleren die het een volgende keer MISSCHIEN minder erg maakt. Rigoreus geofencen, hard coden, allemaal geen optie. Dan maar leunen op statistieken.
Het zal je fmailie maar zijn die doodgereden wordt door een Tesla, op dezelfde manier en plek als een andere Tesla een dag, week of maand eerder ook al deed. Tesla weet dat je een levensgevaarlijke situatie in gaat op die plek, maar doet er niets aan, omdat ze het beter weten. Nou ja, een goedkopere manier bedacht heebbne die ooit misschien ook wel zo goed wordt als meteen actie ondernemen.
Wat ik niet begrijp is dat zulke software updates goedgekeurd kan worden. Er is amper een testrijder aan te pas gekomen en klanten weten niet wat ze te wachten staat. De rijder wordt niet gemonitort om te zien of die de disclaimer wel snapte. Zakje muntjes aan het stuur hangen, zandzak op de stoel, en een wipje plegen op de achterbank, op de openbare weg in een 2 tond projectiel.
Een filmpje kijken achter het stuur op de snelweg. De auto vindt het prima als je maar een beetje op het stuur leunt. De statistieken staan aan hun kant, het is lastiger dood te gaan in een Tesla! Maar die vrachtwagen een brandweerwagen inzittenden en omstanders zijn wel getraumatiseerd.
Er hangt een air van onaantastbaarheid, goddelijkheid, rond het FSD project. Zij weten beter, en het is alsof ze de moral high ground hebben want er komen meer zelfrijdende taxis op straat die mensen uit het OV gaan lokken. Zodat er minder auto's nodig zijn om iedereen overal te krijgen, is het plan. Maar ze willen er wel gruwelijk veel van blijven verkopen. En de taxichauffeur vervangen door software die niemand kan leveren dan zij, met hun morele kompas.

Pracht bedrijf, maar na AP1 of 2.0 die ongelukken voorkomt hadden ze van mij mogen stoppen. Prima product. Niet meer beloven dan echt kan en nu kan.

De hype rond ge ongelooflijke dingen die ze gaan doen met software dragen ontzettend toe aan de blinde hype van fans, en dat is nergens goed voor. Een dergelijke vooruitstrevend bedrijf heeft een klantenbase nodig, geen fanbase, die kritisch is en het bedrijf naar een hoger niveau dwingt. Tesla heeft nauwelijk een connectie met de klant. Camper mode duurde hoe lang? Ze doen alles precies zoals ze willen maar bij rijhulpen is dat volgens mij niet zomaar acceptabel. Wij moeten allemaal de weg op terwijl die projectielen net met een verse update rondscheuren...
Rai444,44
1
quote:

Skater schreef op 14 januari 2020 19:55:

De trailing stop op mijn long lijkt te zijn geraakt, toch een flink deel van de verliezen van vandaag goedgemaakt, misschien iets meer zelfs.
FlatEx is zo traag dat je njiet echt kunt zien of een order uitgevoerd is, en tegen welke prijs zie je ook lang niet. En de opbrengst komt lang niet terug in je portefeuille dus zweeft ergens in het midden.
Snel wegwezen bij zo’n broker, hoe kan je daar nu mee handelen. Tot grote tevredenheid bij Binck, nooit problemen.
[verwijderd]
0
Ik voelde me redelijk in het kruis getast dat Binck nu geld vraagt voor deelname op het platform.
Overigens blijkt nu dat de trailing stop veel eerder al winst gepakt gehad Toch dik verlies nog vandaag. Maar ik wordt steeds iets minder dom.
Stap toch maar niet opnieuw in voor sluitingstijd. Morgen neem ik niet deel waarschijnlijk, TSLA moet je je ogen nu op houden of gewoon accepteren dat je verlies pakt.
Rai444,44
0
quote:

Skater schreef op 14 januari 2020 21:55:

Ik voelde me redelijk in het kruis getast dat Binck nu geld vraagt voor deelname op het platform.
Overigens blijkt nu dat de trailing stop veel eerder al winst gepakt gehad Toch dik verlies nog vandaag. Maar ik wordt steeds iets minder dom.
Stap toch maar niet opnieuw in voor sluitingstijd. Morgen neem ik niet deel waarschijnlijk, TSLA moet je je ogen nu op houden of gewoon accepteren dat je verlies pakt.
Kwaliteit kost wat, is zo terug verdiend als je daarmee snel en betrouwbaar kunt handelen.
löngterm
2
quote:

Skater schreef op 14 januari 2020 20:08:

Bij iets vitaals als zelfrijdende projectielen van ruim 2 ton moet de verkeersveiligheid niet afhankelijk worden gemaakt van de updatefrequentie van 1 automaker. Zeker als die niet in staat blijkt versies gedegen te testen en bijstellen voor ze live gaan. Veel updates zijn een stap achteruit geweest.
Als een Tesla de inzittended dood rijdt...gaat het mooie neural net daar over nadenken en MISSCHIEN een update formuleren die het een volgende keer MISSCHIEN minder erg maakt. Rigoreus geofencen, hard coden, allemaal geen optie. Dan maar leunen op statistieken.
Het zal je fmailie maar zijn die doodgereden wordt door een Tesla, op dezelfde manier en plek als een andere Tesla een dag, week of maand eerder ook al deed. Tesla weet dat je een levensgevaarlijke situatie in gaat op die plek, maar doet er niets aan, omdat ze het beter weten. Nou ja, een goedkopere manier bedacht heebbne die ooit misschien ook wel zo goed wordt als meteen actie ondernemen.
Wat ik niet begrijp is dat zulke software updates goedgekeurd kan worden. Er is amper een testrijder aan te pas gekomen en klanten weten niet wat ze te wachten staat. De rijder wordt niet gemonitort om te zien of die de disclaimer wel snapte. Zakje muntjes aan het stuur hangen, zandzak op de stoel, en een wipje plegen op de achterbank, op de openbare weg in een 2 tond projectiel.
Een filmpje kijken achter het stuur op de snelweg. De auto vindt het prima als je maar een beetje op het stuur leunt. De statistieken staan aan hun kant, het is lastiger dood te gaan in een Tesla! Maar die vrachtwagen een brandweerwagen inzittenden en omstanders zijn wel getraumatiseerd.
Er hangt een air van onaantastbaarheid, goddelijkheid, rond het FSD project. Zij weten beter, en het is alsof ze de moral high ground hebben want er komen meer zelfrijdende taxis op straat die mensen uit het OV gaan lokken. Zodat er minder auto's nodig zijn om iedereen overal te krijgen, is het plan. Maar ze willen er wel gruwelijk veel van blijven verkopen. En de taxichauffeur vervangen door software die niemand kan leveren dan zij, met hun morele kompas.

Pracht bedrijf, maar na AP1 of 2.0 die ongelukken voorkomt hadden ze van mij mogen stoppen. Prima product. Niet meer beloven dan echt kan en nu kan.

De hype rond ge ongelooflijke dingen die ze gaan doen met software dragen ontzettend toe aan de blinde hype van fans, en dat is nergens goed voor. Een dergelijke vooruitstrevend bedrijf heeft een klantenbase nodig, geen fanbase, die kritisch is en het bedrijf naar een hoger niveau dwingt. Tesla heeft nauwelijk een connectie met de klant. Camper mode duurde hoe lang? Ze doen alles precies zoals ze willen maar bij rijhulpen is dat volgens mij niet zomaar acceptabel. Wij moeten allemaal de weg op terwijl die projectielen net met een verse update rondscheuren...
Maar wanneer je familie wordt dood gereden door een onkundige bestuurder is het prima? Rusten op statistiek is de enige optie die rationeel is en levens kan besparen. Het feit dat jij meer gewicht legt op een persoon die doodgereden wordt door een AI die blijft verbeteren is irrationeel en hypocriet.

Hoe dan ook het feit dat je niet in gaat op mijn vorige post zegt wederom genoeg. Ik ga weer eens proberen je te negeren ben benieuwd hoe lang ik het nu vol hou. Een ding is zeker dit zou mijn tijd niet waard moeten zijn...
[verwijderd]
0
Ik leg niet meer gewicht aan de ene kant (zei ik dat?), ik kaart aan dat Tesla wegkijkt van incidenten en NIETS er op wijst dat ze er iets mee doen. 2x een vrachtwagen van opzij ingereden. 2x een brandweerwagen achterop, 2x de bocht uit in Tiel, 2e keer de fout in gaan 24 uur na dodelijk ongeval in de VS.
Dit is geen toeval maar een patroon van nalatigheid en verantwoordelijkheid afschuiven naar afspecten van de software die het netto veiliger maken.
Er is NUL reden voor herhaling van die ongelukken. Kleine moeite om direct actie te ondernemen, dergelijke ongevallen moet van geleerd worden. En niet alleen door een hypothetisch neural net dat het MISSCHIEN ooit implementeert met een nieuwe update. De weg wordt nooit veilig als auto's niet van elkaar leren en de fabrikant zich alleen richt op grote lijnen. Direct te voorkomen ongelukken KUN je niet negeren. Tesla komt met alles weg. Want "oh, ze zijn zo groen bezig!"
Ik leg hulde waar hulde toekomt, en ik zal tot mijn eigen dood nalatigheid van mensen die beter zouden moeten weten aankaarten.
boem!
0
Ik heb trachten te achterhalen hoeveel keer er daar in Tiel een auto uit de bocht is gevlogen de afgelopen paar maanden.
Tevens was ik benieuwd of de SDU wel of niet was ingeschakeld.

Beide zoekpogingen zonder resultaat.

Indien de SDU was ingeschakeld heb je een half punt want hoewel het systeem slechts ondersteunend en niet leidend is behoort het systeem wel te leren van dergelijke situaties.
Bijvoorbeeld door het systeem op een veilige manier te deactiveren indien er zich situaties voordoen waarbij het voor de wagen onmogelijk is om goed te reageren doordat wegmarkeringen volledig ontbreken.

Direct te voorkomen ongelukken kan en mag je niet negeren.
Indien het SDU systeem was ingeschakeld behoort Tesla een oplossing te bedenken hoe men op een veilige manier dat systeem de-activeert indien de werking daarvan ernstig wordt belemmerd doordat essentiele gegevens daarvoor ontbreken.

Het is daarnaast voor mij ook duidelijk dat de gemeente Tiel de situatie als verantwoordelijke wegbeheerder onder de loep behoort te nemen en daar zelf gepaste maatregelen voor neemt.

löngterm
0
quote:

boem! schreef op 15 januari 2020 00:57:

Ik heb trachten te achterhalen hoeveel keer er daar in Tiel een auto uit de bocht is gevlogen de afgelopen paar maanden.
Tevens was ik benieuwd of de SDU wel of niet was ingeschakeld.

Beide zoekpogingen zonder resultaat.

Indien de SDU was ingeschakeld heb je een half punt want hoewel het systeem slechts ondersteunend en niet leidend is behoort het systeem wel te leren van dergelijke situaties.
Bijvoorbeeld door het systeem op een veilige manier te deactiveren indien er zich situaties voordoen waarbij het voor de wagen onmogelijk is om goed te reageren doordat wegmarkeringen volledig ontbreken.

Direct te voorkomen ongelukken kan en mag je niet negeren.
Indien het SDU systeem was ingeschakeld behoort Tesla een oplossing te bedenken hoe men op een veilige manier dat systeem de-activeert indien de werking daarvan ernstig wordt belemmerd doordat essentiele gegevens daarvoor ontbreken.

Het is daarnaast voor mij ook duidelijk dat de gemeente Tiel de situatie als verantwoordelijke wegbeheerder onder de loep behoort te nemen en daar zelf gepaste maatregelen voor neemt.

Nogmaals, het is vrijwel onmogelijk een nearal net te trainen voor 1 situatie. Het is niet mogelijk voor een werknemer de code in te duiken ff de bocht in Tiel op te zoeken en dit aan te passen via een update. Het hele punt van het nearal net is dat het een optimale uitkomst geeft via de huidige training data zonder dat hier voor gecodeerd wordt. Dit betekend dat NIEMAND weet wat er zich in de hidden layers af speeld en dus hoe het systeem tot de output conclusie komt.

Wat het een oplossing kan proximeren is data aan de fleet vragen over de bocht in Tiel en vergelijkbare situaties, deze data te labelen en vervolgens te voeren aan de AI en testen of dat het probleem verhelpt.

Bij nature is het dus ook mogelijk dat de FSD op gebieden slechter wordt na een update of wat dan ook. De manier om het "nieuwe" dingen te leren zoals bijvoorbeeld rijden in sneeuw. Is het een berg data voeren waar het sneeuwt, vervolgens detecteert het neural net automatisch deze nieuwe situatie en zal een deel van de nodes in de hidden layer zich hier automatisch voor optimaliseren.

Hier een simpele representatie van hoe een nearal net werkt en tot een besluit komt.

www.youtube.com/watch?v=SO7FFteErWs

Dit betekend dus ook dat de ethische bezwaren die vaak besproken worden niet direct geprogrammeerd zullen worden. (een auto moet een van twee fieters raken kiest hij die met of zonder helm op ect)

Daarnaast probeer ik hiermee niet te zeggen dat er wat gedaan moet worden wanneer er bepaalde situaties zijn waar het mis blijft gaan. Het voorbeeld van de Tesla's die dwars op vrachtwagens in rijden is volgens mij al expliciet voor getraind. De bocht in Tiel weet ik verder niets van maar of de weg situatie is daadwerkelijk onduidelijk of het probleem zal zich in komende updates van zelf oplossen.
löngterm
0
Zoals al eerder besproken de marges in China lijken een stuk beter te worden dan die in Fremont. Ben benieuwd of hier bij de earnings call al iets over gezegd wordt of dat ze wachten totdat alles daadwerkelijk draait en in Q1 de officiële nummers binnen zijn.

www.teslarati.com/tesla-made-in-china...
boem!
0
Voor zover ik het kan volgen een duidelijk verhaal over de werking van het neural net.

Het punt dat ik trachtte te maken is, dat INDIEN de FSD was ingeschakeld het systeem niet optimaal fuctioneerde en tot een verkeerde beslissing leidde.

Wat ik uit de functionaliteit heb mogen opmaken is dat Tesla voor haar FSD geen gebruik maakt van Lidar en/of een bestaande HD-map.
Men gaat ervan uit, dat de camera's en sensoren aangevuld met overige gegevens de auto een goed beeld geven van zijn positie en dat wat er zich in de omgeving afspeelt zodat hij gebruik makend van het neural netwerk de juiste beslissing kan nemen.
De HD-map wordt in feite ingeruild voor een tijdelijk zelf gefabriceerde HD-map en ook de extra kosten verbonden aan Lidar worden op deze manier vermeden.
Indien ik de berichten over de werkwijze goed heb geinterpreteerd resteert er volgens mij nog maar 1 ding en dat is de bepaling van de minimale data-toevoer aan het systeem waarop het system naar behoren kan functioneren met als konsekwentie dat het systeem niet meer beschikbaar is op het moment waarop aan die minimale eis niet wordt voldaan.
löngterm
0
quote:

boem! schreef op 15 januari 2020 11:40:

Voor zover ik het kan volgen een duidelijk verhaal over de werking van het neural net.

Het punt dat ik trachtte te maken is, dat INDIEN de FSD was ingeschakeld het systeem niet optimaal fuctioneerde en tot een verkeerde beslissing leidde.

Wat ik uit de functionaliteit heb mogen opmaken is dat Tesla voor haar FSD geen gebruik maakt van Lidar en/of een bestaande HD-map.
Men gaat ervan uit, dat de camera's en sensoren aangevuld met overige gegevens de auto een goed beeld geven van zijn positie en dat wat er zich in de omgeving afspeelt zodat hij gebruik makend van het neural netwerk de juiste beslissing kan nemen.
De HD-map wordt in feite ingeruild voor een tijdelijk zelf gefabriceerde HD-map en ook de extra kosten verbonden aan Lidar worden op deze manier vermeden.
Indien ik de berichten over de werkwijze goed heb geinterpreteerd resteert er volgens mij nog maar 1 ding en dat is de bepaling van de minimale data-toevoer aan het systeem waarop het system naar behoren kan functioneren met als konsekwentie dat het systeem niet meer beschikbaar is op het moment waarop aan die minimale eis niet wordt voldaan.
Correct op de laatste allinea na,

"Indien ik de berichten over de werkwijze goed heb geinterpreteerd resteert er volgens mij nog maar 1 ding en dat is de bepaling van de minimale data-toevoer aan het systeem waarop het system naar behoren kan functioneren met als konsekwentie dat het systeem niet meer beschikbaar is op het moment waarop aan die minimale eis niet wordt voldaan."

De huidige toevoer van data is al meer dan genoeg voor FSD en het systeem van Tesla zit zelfs zo in elkaar dat er eigenlijk non stop 2 systemen draaien. De layout van zowel de sensors als de processing chip is redundant. Dit betekend dat de auto ten alle tijden twee output signalen heeft en zolang deze matchen en de AI een hoge overtuiging heeft van de outputs blijft FSD ingeschakeld. Wanneer er een verschil zit tussen de uitkomsten of de zekerheid onder een bepaalde treshhold valt krijgt de bestuurder een waarschuwing en wordt FSD uitgeschakeld.

Kortom de huidige input is al meer dan 2x voldoende om FSD te realiseren. het punt waar nog aan gewerkt moet worden is het nearal net zelf. Deze wordt nog steeds getraind met nieuwe data en uitgebreid ect. Dit zal ook blijven gebeuren nadat FSD al volledig is uitgerold. Het is een dynamisch systeem dat Tesla zal blijven hernieuwen.

Het is dus niet het gebrek aan input dat tot disengagement van autopilot lijdt maar het nearal net dat de inputs onvoldoende interpreteert.
[verwijderd]
0
Als een bouwer van een toekomstig FSD systeem geen death traps kan aanmerken op de GPS- of wegenkaart, waar zijn ze dan mee bezig burgers er mee te laten rijden, op de openbare weg, tot het door professionals en overheden als 100% veilig aangemerkt wordt?
Geofencing is een ding hoor, wordt met oneindig veel dergelijke systemen totgepast. Als ik voor mij voordeur staat, zet mijn telefoon wifi weer aan. Een Tesla kan, als er 1 persoon in Tesla het wil, ook gewoon waarschuwen voor het naderen van een gevaarlijk punt, Autopilot uitschakelen. Gebeurt heel de tijd als de lijnen even slecht zichtbaar zijn.

Market Date Short Volume Total Volume Short Volume Ratio
2020-01-14 7,727,579 29,061,300 26.59
2020-01-13 6,859,454 26,634,500 25.75
2020-01-10 3,349,687 12,976,800 25.81
2020-01-09 7,563,381 28,463,100 26.57
2020-01-08 8,923,474 31,199,300 28.60
2020-01-07 5,275,909 18,197,900 28.99
2020-01-06 3,027,047 10,157,400 29.80
2020-01-03 4,887,261 17,794,600 27.46
2020-01-02 2,496,963 9,558,300 26.12
2019-12-31 2,423,617 10,292,400 23.55

Op een dag met nieuwe ATH toch weer wat shorts erbij. Op zich niet raar dat iemand wel short wil bij 3x de koers van de dip vorig jaar, zonder dat er echt veel veranderd is. Gezond verstand zou verwachten dat er eerder 20% moet kunnen dan bij. Maar bij Tesla gaat het niet om gezond verstand of fundamentals nu. Short covering en paradigma shift. Mensen die de boot misten.
löngterm
0
quote:

Skater schreef op 15 januari 2020 12:15:

Als een bouwer van een toekomstig FSD systeem geen death traps kan aanmerken op de GPS- of wegenkaart, waar zijn ze dan mee bezig burgers er mee te laten rijden, op de openbare weg, tot het door professionals en overheden als 100% veilig aangemerkt wordt?
Geofencing is een ding hoor, wordt met oneindig veel dergelijke systemen totgepast. Als ik voor mij voordeur staat, zet mijn telefoon wifi weer aan. Een Tesla kan, als er 1 persoon in Tesla het wil, ook gewoon waarschuwen voor het naderen van een gevaarlijk punt, Autopilot uitschakelen. Gebeurt heel de tijd als de lijnen even slecht zichtbaar zijn.

Market Date Short Volume Total Volume Short Volume Ratio
2020-01-14 7,727,579 29,061,300 26.59
2020-01-13 6,859,454 26,634,500 25.75
2020-01-10 3,349,687 12,976,800 25.81
2020-01-09 7,563,381 28,463,100 26.57
2020-01-08 8,923,474 31,199,300 28.60
2020-01-07 5,275,909 18,197,900 28.99
2020-01-06 3,027,047 10,157,400 29.80
2020-01-03 4,887,261 17,794,600 27.46
2020-01-02 2,496,963 9,558,300 26.12
2019-12-31 2,423,617 10,292,400 23.55

Op een dag met nieuwe ATH toch weer wat shorts erbij. Op zich niet raar dat iemand wel short wil bij 3x de koers van de dip vorig jaar, zonder dat er echt veel veranderd is. Gezond verstand zou verwachten dat er eerder 20% moet kunnen dan bij. Maar bij Tesla gaat het niet om gezond verstand of fundamentals nu. Short covering en paradigma shift. Mensen die de boot misten.
fintel.io/ss/us/tsla

Heb nog eens even gekeken naar deze website en begrijp nu waarom ik deze niet als bron gebruikte. De vermeldingen hier gaan niet over het aantal aandelen dat short uit staat maar over de handel short en het % van het totale dagelijkse volume.

Kortom je ziet hoe actief de handel in short posities is maar niet of dit opbouw of afbouw is.

Voor de daadwerkelijke short positie in Tesla raad ik dus wederom aan deze website te gebruiken.

www.nasdaq.com/market-activity/stocks...

Wanneer iemand een beter alternatief heeft hoor ik het graag.
boem!
0
@longterm

Bedankt voor je inhoudelijke en verhelderende reactie met name de redundentie doet mij deugd.

Weer wat geleerd!
boem!
0
Nasdaq.com is inderdaad de site waar je de gegevens mbt de shortpositie kunt vinden.

Ben zelf zeer benieuwd naar de nieuwe stand.

31-12-2019 shortpositie 26,260 mio koers $384.50
Potentieel verlies $150 per aandeel.
löngterm
0
quote:

boem! schreef op 15 januari 2020 13:50:

@longterm

Bedankt voor je inhoudelijke en verhelderende reactie met name de redundentie doet mij deugd.

Weer wat geleerd!
Redundency was de basis van het systeem, alle onderdelen (bedrading processor en sensors zijn redundant). Daarnaast verwacht ik dat zelfs het neural net zelf redundant is aangezien er verschillende sensoren gebruikt worden en er dus naar mijn idee twee verschillende effectief tegelijk moeten draaien.(ik heb hier geen bron van dus kan onzin zijn) Dit lijkt heel omslachtig maar het produceren van het neural net gebeurd vrijwel op dagelijkse basis en keer op keer van af het 0 punt.
7.741 Posts, Pagina: « 1 2 3 4 5 6 ... 196 197 198 199 200 201 202 203 204 205 206 ... 384 385 386 387 388 » | Laatste
Aantal posts per pagina:  20 50 100 | Omhoog ↑

Meedoen aan de discussie?

Word nu gratis lid of log in met uw e-mailadres en wachtwoord.

Direct naar Forum

Detail

Vertraagd 25 apr 2024 22:00
Koers 170,180
Verschil +8,050 (+4,97%)
Hoog 170,880
Laag 158,360
Volume 126.427.521
Volume gemiddeld 100.497.014
Volume gisteren 75.580.637

EU stocks, real time, by Cboe Europe Ltd.; Other, Euronext & US stocks by NYSE & Cboe BZX Exchange, 15 min. delayed
#/^ Index indications calculated real time, zie disclaimer, streaming powered by: Infront