Forum-Breadcrumbs - Du bist hier:ForumETFs und Wertpapier-DepotsDie ETF-Lüge
Bitte oder Registrieren, um Beiträge und Themen zu erstellen.

Die ETF-Lüge

12
Zitat von Semifrugalist am 19. November 2020, 23:13 Uhr
Zitat von Muslime_Frugi am 19. November 2020, 22:32 Uhr

@Semifrugalist: Nur zu deiner Info. Amazon und viele andere lassen sich mittlerweile per Sparplan zu Bruchstücken bei verschiedenen Anbietern kaufen. Z.B. bei Trade Republic ab 10€ pro Monat.

Danke, das wusste ich nicht. 🙂 Wobei es bei @pelagius eher nicht danach klang, dass er wirklich per Sparplan kaufen möchte. Aber bei einer Mindestanlage von 10 EUR pro Monat wäre das ja evtl. schon die Lösung für einige der von mir beschriebenen Probleme. Und wie ich sehe, fällt bei Trade Republic bei Sparplänen nicht mal die Fremdkostenpauschale an. Bei den meisten anderen Brokern wäre man ja selbst bei niedrigen Kosten von z.B. 1 EUR pro Sparplanausführung schnell beim Vielfachen der ETF-Kosten.

Das ist doch meine vorgestellte Alternative 2 😉

@mfz73

Du hast mich überzeugt, dass das ein Problem sein könnte, für das man das Risiko reduzieren sollte. Eine Maßnahme könnte doch zB sein nur Titel mit kleiner Gewichtung (0,03%) durch Titel mit hoher Gewichtung zu ersetzen, wenn die Korrelation passt. Dadurch reduziert man zumindest das Risiko aus der Liste eine Aktie zu wählen die beim Index mehrere hochgewichtete Aktien ersetzt.

Die angenehmste Methode ist natürlich einen Broker auszusuchen, der Sparpläne auf viele Aktien anbietet und dort die 200-300 Titel direkt zu besparen. Da hat man von Anfang an die Vorteile die sich bei Einzelaktien erst Jahre später bemerkbar machen würden.

Eigentlich war meine Hoffnung nicht, dass ich ein Skript schreiben muss, das die Korrelationen trackt.

 

Zu deiner Ergänzung:

Das Zielportfolio hat etwa 200 Werte - wieso soll ich das mit 10 Titeln überprüfen? Meinst du, ich müsse mit 10 Werten von 200 Werten die ich mit den Daten aus 1990 aus dem MSCI World reduziert habe, diese Simulationen durchführen?

Zitat von pelagius am 19. November 2020, 23:47 Uhr

Daten beinhalten immer mehr Informationen als wir wissen und wissen können.

Ganz ganz dünnes Eis. Wissenschaftlich bist Du mit der Herangehensweise schon tot, bevor es losgeht.

Wenn Du sauber vertesten willst, hast Du zwei Thesen:

A: es ist möglich, den Index mit weniger als allen Aktien innerhalb einer Toleranz nachzubilden und damit aus den Daten eine zusätzliche Information abzuleiten.

B: es ist nicht möglich.

Wenn Du B von vornherein ausschließt, spar' Dir die Mühe lieber, dann ist es Esoterik und geht hart in Richtung Verschwörungstheorie. B muss immer als Option, als legitimes und korrektes Ergebnis offen bleiben. Ohne Ausnahme.

Daher ist es in erster Linie nicht mal notwendig zu wissen, ob man diese Korrelation kausal begründen kann. Es reicht zu wissen, dass es eine Korrelation gibt. Natürlich wäre es wünschenswert, weil man dann sagen könnte, wann genau das Modell nicht mehr gilt etc. Die Folge wird nicht sein, dass die Diversifikation zerstört wird, da man einfach Werte bündelt die sowieso (Voraussetzung) korrelieren.

Die Diversifikation wird zumindest reduziert. Im Prinzip stellst Du die Frage, wieviele Karten man aus dem Kartenhaus entfernen kann, ohne dass es einstürzt.

Die erste Frage ist aber, wie Deine mathematisch-stochastischen Kenntnisse aussehen. Wobei man auch erkennen muss, dass Daten-Analysten bei großen Banken mit vollem Equipment ausgestattet sind und sich natürlich auch über solche Dinge Gedanken machen. Die sind ja nicht doof - wenn's da 'n Gap gäbe, wäre das ein Milliardengeschäft.

Daher bleibt mein Tipp: B.

 

Zitat von pelagius am 20. November 2020, 0:11 Uhr

@mfz73

Du hast mich überzeugt, dass das ein Problem sein könnte, für das man das Risiko reduzieren sollte. Eine Maßnahme könnte doch zB sein nur Titel mit kleiner Gewichtung (0,03%) durch Titel mit hoher Gewichtung zu ersetzen, wenn die Korrelation passt. Dadurch reduziert man zumindest das Risiko aus der Liste eine Aktie zu wählen die beim Index mehrere hochgewichtete Aktien ersetzt.

Ja, aber auch das müsstest Du erst mal im post-processing testen.

Die angenehmste Methode ist natürlich einen Broker auszusuchen, der Sparpläne auf viele Aktien anbietet und dort die 200-300 Titel direkt zu besparen. Da hat man von Anfang an die Vorteile die sich bei Einzelaktien erst Jahre später bemerkbar machen würden.

Eigentlich war meine Hoffnung nicht, dass ich ein Skript schreiben muss, das die Korrelationen trackt.

Das dürfte der Minimaleinsteig sein.

 

Zu deiner Ergänzung:

Das Zielportfolio hat etwa 200 Werte - wieso soll ich das mit 10 Titeln überprüfen? Meinst du, ich müsse mit 10 Werten von 200 Werten die ich mit den Daten aus 1990 aus dem MSCI World reduziert habe, diese Simulationen durchführen?

Naja, Du willst ja die Anzahl der Titel reduzieren. Mit wieviel Titeln willst Du denn starten? 10? 16? 50?

Zitat von MFZ73 am 20. November 2020, 0:33 Uhr

Ganz ganz dünnes Eis. Wissenschaftlich bist Du mit der Herangehensweise schon tot, bevor es losgeht.

Zugegeben. Aber eigentlich wollte ich nur sagen, dass ich schon Interdependenzen vermute.

 

Die Diversifikation wird zumindest reduziert. Im Prinzip stellst Du die Frage, wieviele Karten man aus dem Kartenhaus entfernen kann, ohne dass es einstürzt.

Das ist ein treffender Vergleich.

 

Die erste Frage ist aber, wie Deine mathematisch-stochastischen Kenntnisse aussehen. Wobei man auch erkennen muss, dass Daten-Analysten bei großen Banken mit vollem Equipment ausgestattet sind und sich natürlich auch über solche Dinge Gedanken machen. Die sind ja nicht doof - wenn's da 'n Gap gäbe, wäre das ein Milliardengeschäft.

Daher bleibt mein Tipp: B.

2 Semester Mathematik Bachelor und jetzt auf Volkswirtschaft gewechselt. Also noch nicht auf dem Level, dass ich das könnte.

 

Naja, Du willst ja die Anzahl der Titel reduzieren. Mit wieviel Titeln willst Du denn starten? 10? 16? 50?

So sehr soll es auch nicht reduziert werden. Der MSCI World soll von seinen 1600 Titeln auf etwa 1000 reduziert werden und davon sollen 200-300 der meistgewichteten ins Depot.

Zitat von pelagius am 20. November 2020, 0:59 Uhr

Die erste Frage ist aber, wie Deine mathematisch-stochastischen Kenntnisse aussehen. Wobei man auch erkennen muss, dass Daten-Analysten bei großen Banken mit vollem Equipment ausgestattet sind und sich natürlich auch über solche Dinge Gedanken machen. Die sind ja nicht doof - wenn's da 'n Gap gäbe, wäre das ein Milliardengeschäft.

Daher bleibt mein Tipp: B.

2 Semester Mathematik Bachelor und jetzt auf Volkswirtschaft gewechselt. Also noch nicht auf dem Level, dass ich das könnte.

Ok. Ein Lösungsansatz könnte eine Regression sein: https://de.wikipedia.org/wiki/Regressionsanalyse#Nichtparametrische_Regression

Basiert auf Methode der kleinsten Quadrate/Ausgleichungsrechnung.

Naja, Du willst ja die Anzahl der Titel reduzieren. Mit wieviel Titeln willst Du denn starten? 10? 16? 50?

So sehr soll es auch nicht reduziert werden. Der MSCI World soll von seinen 1600 Titeln auf etwa 1000 reduziert werden und davon sollen 200-300 der meistgewichteten ins Depot.

Na, dann rechne mal (n über k) aus, mit n=1000 und k=300. 😉 Das wäre die Anzahl der Start-Modelle zur linearen, vereinfachten Simulation.

Startsumme gesamt? Wäre die Gewichtung der ersten 200 Titel absolut gleich? Wie hoch wären die ersten Transaktionskosten für 200 Titel?

Na, dann rechne mal (n über k) aus, mit n=1000 und k=300. 😉 Das wäre die Anzahl der Start-Modelle zur linearen, vereinfachten Simulation

Mehr Fälle als Atome im Universum 😀

Ich persönlich bin aber auch ohne Beweis überzeugt, dass ein solches reduziertes Portfolio aus 200 Titeln den MSCI World sehr gut imitiert. Den Beweis kann ich nicht liefern.

Aber um wieder zum simplen Kern dieses Themas zurückzukommen: Theoretisch kann man ja auch nach beliebigen Kriterien ein Depot aus 300 Einzelaktien zusammenbauen. Man muss ja nicht den Kursverlauf eines bestimmten Indexes anstreben. Welche Komposition am Ende besser ist, entscheidet am Ende die Diversifikation und der Zufall. Dabei muss man bspw. €6000 an Ordergebühren (Kauf/Verkauf) aufbringen. Dass dieser Betrag oft (je nach persönlichen Umständen) bei einem langfristigen ETF-Sparplan durch die TER überschritten ist, habe ich ja schon gezeigt.

Aus Sicht der Stochastik nimmt mit jedem Titel mehr im Depot die Wahrscheinlichkeit zu, dass man am Ende die durchschnittliche Marktrendite trifft.

Ich habe mal gelesen, dass theoretisch bereits mit 26 Einzeltitel die Marktrendite erzielt werden kann, bzw. dass ein ETF selbst mit 10.000 Titeln kaum noch das Risiko verringert gegenüber 26 Einzeltiteln.

In der Praxis dürfte dies aber schwer sein, da man bei so wenigen Titel perfekt nach Ländern, Branchen etc. diversifizieren müsste. Die Gefahr bleibt zudem groß, dass man nur in Large Caps investiert und mangels Wissen gerade in fremden Märkten "irgendwas" kauft.

Ich sehe das so: Ich bezahlte den ETFs Anbieter dafür, dass er für mich hunderte Titel kauft und rebalanced. Im zweifel ist das mehr Diversifikation als nötig, ist aber nicht schädlich.

Ein ETF Kauf ist dabei wesentlich günstiger als der manuelle Kauf (selbst wenn es nur 26 Einzeltitel wären). Gleiches beim Verkauf.

Klar bleibt der Punkt, dass ich eine jährliche Gebühr entrichten muss, aber natürlich will der ETF Anbieter verdienen.

Allerdings würde ich ein Einzelaktiendepot vermutlich auch irgendwann rebalancen wollen. Ein Rebalancing wäre je nachdem wie oft man es macht teurer als die 0,x% Gebühr für den ETF.

Es kommt aber gewiss auch auf die Depotgröße an. Eine 0,5% ETF Management Gebühr für 10 Mio würde ich eher in Frage ziehen als eine gleiche prozentuale Gebühr für 10.000 €, zumal der Aufwand für den ETF der gleiche ist, nur spielt er mit größeren Summen.

Die interessanteste Frage dürfte sein, ob ein ETF durch regelmäßiges Rebalancing eine Mehr-Rendite gegenüber einem langfristig nicht rebalancten Einzelaktiendepot erzielt.

 

Interessante Diskussion!

Ich habe dazu drei Anmerkungen:

  1. Genau das hier angestrebte Verfahren, mit einer Teilauswahl der in einem großen Index enthaltenen Aktien, den Index möglichst genau abzubilden, wenden die ETF-Anbieter selbst auch an (das ist das sogenannte "optimierte Sampling"). In einem MSCI World oder ACWI ist es praktisch kaum möglich, alle Aktien in der vorgesehenen Gewichtung zu kaufen (insbesondere bei kleinen Fondsvermögen). Darum kaufen auch die Fonds in der Regel nur Teile des Index.
    Ich tippe mal, die ETF-Anbieter wenden dabei ähnliche Verfahren an, als institutionelle Anleger können sie aber natürlich zu ganz anderen Transaktionskosten umschichten bzw. die Titelauswahl anpassen.
  2. Einfach die Korrelationen der Vergangenheit zu ermitteln ist klassisches Data Mining – man findet dabei jede Menge Werte, die einfach nur zufällig korreliert sind, wie von einigen anderen ja auch schon angemerkt. Daraus Schlussfolgerungen für die Korrelationen in der Zukunft zu ziehen, ist IMO ein Fehler.
    Ein korrekt durchgeführter Backtest (Korrelationen für z.B. 1990 ermitteln und dann für die nachfolgenden 30 Jahre backtesten, wie von MFZ73 vorgeschlagen), wäre hier die bessere Vorgehensweise.

 

Hi!

Vorweg: Meine mathematische Komfortzone endet relativ bald nach den Grundrechnungsarten. ABER

Ich finde, dass die grundsätzliche Idee etwas "zerdacht" wird. Die Frage ist doch:

Kann ich mit einem Portfolio aus Hausnummer 200 Einzelaktien, welches sich an einem Index mit 1600 Titeln orienteiert (ich sage bewusst nur orientiert!) eine ÄHNLICH gute Risikostreuung erreichen und durch die eingesparten Kosten meine Rendite pushen? Rebalancing würde ich in diesem Fall nicht mit großem Aufwand betreiben, wenn ich mich mit der Zeit immer weiter vom Index entferne ist das ja nicht unbedingt dramatisch, denn diversiviziert bin ich ja trotzdem. Die Vergleichbarkeit ist aber mit immer größerer Abweichung vom Index natürlich immer weniger gegeben.

Ich kann mir gut vorstellen, dass das grundsätzlich klappt. Fraglich ist, ob sich der Aufwand lohnt und das würde ich für den Kleinanleger rein aus dem Bauchgefühl verneinen. Wenn ich ein paar Millionen investiere, macht 0,1% TER aber einen Unterschied. Fraglich ist jedoch, ob der Millionär die absolute Summe von von mir aus 10k ebenfalls als "Unterschied" betrachtet. Das ist vermutlich eine sehr subjektive Frage.

So viel zur Theorie (ohne mathematische Betrachtung).

 

Zur Praxis möchte ich ein Argument von @mfz73 aufgreifen:

In Banken und anderen Finanzinstituten gibt es Unmengen an Rechenleistung und ausgebildetes Personal. Sollte diese Möglichkeit eine relevante Rolle spielen, würde ich davon ausgehen, dass die Vorgehensweise bereits kommerziell genutzt werden würde. Mir ist soetwas nicht bekannt, ich bin aber auch kein Indsider.

Das würde für mich wiederum darauf hindeuten, dass sich der Ansatz praktisch einfach nicht bewährt hat, bzw die Kosten für Personal und Rechenleistung zuzüglich Marge im Endeffekt auch für größere Institute in den Bereich von 0,1% steigen und man somit auf das Bewährte (ETF) zurückgreift.

Kurze Frage am Rande, die sich im Zuge der Überlegungen aufgetan hat: Wie bildet ein ETF-Anbieter einen Index nach? Kann man daraus vielleicht für den Kleinanleger Ableitungen treffen?

Die Überlegung sind jedenfalls sehr spannend, danke dafür!

Grüße,

Nyxpriest

Zitat von Nyxpriest am 20. November 2020, 10:19 Uhr

Hi!

Vorweg: Meine mathematische Komfortzone endet relativ bald nach den Grundrechnungsarten. ABER

Ich finde, dass die grundsätzliche Idee etwas "zerdacht" wird. Die Frage ist doch:

Kann ich mit einem Portfolio aus Hausnummer 200 Einzelaktien, welches sich an einem Index mit 1600 Titeln orienteiert (ich sage bewusst nur orientiert!) eine ÄHNLICH gute Risikostreuung erreichen und durch die eingesparten Kosten meine Rendite pushen?

Ja gut, dann stell' doch mal eine Auswahl von 200 aus 1600 zusammen und begründe, warum Du 1400 Titel rausschmeißt. Dann 16 Trades pro Jahr und in 25 Jahren gucken wir, wo Du stehst. Das wäre ein empirischer Test. Wenn das 100 Leute machen würden mit jeweils signifikant unterschiedlicher Startauswahl könnte man in 5-10 Jahren auf die ersten verlässlichen Aussagen kommen, wo die Reise hingeht. Dann spart man sich viel Rechnerei, dauert aber und die Aussage ist nach wie vor nicht zukunftstauglich. Kann aber auch sein, dass das einige Anleger bitter bereuen werden. Dann ist nichts mit Rendite pushen, sondern dann steht realer Verlust an. Trägst Du das Risiko? Ohne vorher zu rechnen?

Es gibt aber vor allem auch bei den 16 Trades eine Sache, die man beachten muss: wenn der Index sich verändert und man ausgleichen muss - kauft man dann Aktie X nach, verkauft man Y oder kauft man Z dazu? Ohne Leerverkäufe hat man also bei jedem Trade 3 Optionen, die dazu noch zeitlich innerhalb des Jahres und im Volumen der Order variabel sind.

Dafür ein Zeitaufwand von 10 Minuten pro Monat? Also wenn einer eh schon im Index wohnt und nachts in monitorgrün von Nullen und Einsen träumt - mag sein. Sonst eher nicht.

Das würde für mich wiederum darauf hindeuten, dass sich der Ansatz praktisch einfach nicht bewährt hat, bzw die Kosten für Personal und Rechenleistung zuzüglich Marge im Endeffekt auch für größere Institute in den Bereich von 0,1% steigen und man somit auf das Bewährte (ETF) zurückgreift.

So kannst Du das nicht rechnen. Die Bank braucht eh 'n Rechenzentrum und Datenanalysten, das sind für die Bank bis zu einem gewissen Grad Fixkosten. Was man mit diesen Ressourcen im Jahr anfängt, ist aber teilweise variabel. Es ist zu vermuten, dass die ähnliche Ansätze verfolgen, aber eine Bank ist ja nicht auf 16 Trades im Jahr limitiert, das wickeln die in einer Millisekunde ab.

 

Man schaue sich aber bspw. Investoren wie Jim Simons an, die mit Vernunft und Mathematik, heute wohl mit KI, enorme Renditen erwirtschafteten.

Habt ihr Buchempfehlungen fürs Investieren, die über das passive "Ich kaufe etfs" hinaus gehen und eine mathematisch wissenschaftliche Sichtweise haben? Wenn ich google und ein ansprechenden Klappentext lese, bin ich vom Inhalt meist doch enttäuscht. Die Statistiken von Kommer legen nahe, dass eine Outperformance des Marktes reines Glücksspiel ist und er deshalb den Markt so gut es geht nachbildet. Die Crux wird doch nicht eine Korrelatioxsmatrix im diversifizierten Portfolio sein. Der Aktienmarkt ist gemeinhin ein random walk mit positivem Drift, da kann ich irgendwie schwer glauben, dass man mit ein paar stochastischen Mitteln nicht renditefördernd investieren kann.

Geht doch bei ETFs auch um die zeitliche Diversifizierung. Wenn z.B. irgendwelche Unternehmen früher sehr stark sind und dort stark gewichtet sind, irgendwann nachlassen und/oder pleite gehen, fallen sie aus dem ETF raus und neue bessere Unternehmen rücken nach. Willst du das dann alles manuell machen oder wie? Meiner Meinung nach viel zu hohes Risiko und Zeitaufwand.

Zitat von stephank am 20. November 2020, 17:55 Uhr

Man schaue sich aber bspw. Investoren wie Jim Simons an, die mit Vernunft und Mathematik, heute wohl mit KI, enorme Renditen erwirtschafteten.

Das ist nicht die Frage, denn der macht das 24/7/365 und verkauft sein Fachwissen noch gewinnbringend.

Die A-Hypothese in diesem Thread ist immer noch diese:

A: MSC-World von 1600 auf 300 zusammenschrumpfen, dann 16 Trades pro Jahr, 25 Jahre Laufzeit, kein Performance-Verlust, geringer Zeitaufwand/Kostenvorteil ggü ETF/TER möglich.

B: A ist nicht möglich.

Allein diese Aufstellung von A hat schon 28 Fragezeichen drin. Das sollte man jetzt nicht noch um die Zusatzhypothese erweitern, dass man mal eben als Laie die Overperformance von wem auch immer nachbildet und das auch noch mit weniger Zeitaufwand und Kosten realisiert.

 Die Statistiken von Kommer legen nahe, dass eine Outperformance des Marktes reines Glücksspiel ist und er deshalb den Markt so gut es geht nachbildet.

Schlauer Mann. Nur mal so zum Einstieg: such' doch mal eine Textstelle oder Videosequenz von Gerd Kommer, in der er nachweislich dummes Zeug redet.

Ich biete im Tausch dummes Zeug von Dirk "Mr. Dax" Müller. (Die Wette kannst Du in 100 Jahren nicht gewinnen.)

Die Crux wird doch nicht eine Korrelatioxsmatrix im diversifizierten Portfolio sein. Der Aktienmarkt ist gemeinhin ein random walk mit positivem Drift, da kann ich irgendwie schwer glauben, dass man mit ein paar stochastischen Mitteln nicht renditefördernd investieren kann.

Es steht Dir frei, das (Gegenteil) zu beweisen. Wer oder was hält Dich auf? Die technischen Möglichkeiten stehen heute praktisch jedem Laien zur Verfügung, das war vor 20 oder 30 Jahren definitiv noch anders.

Ich bleibe bei Tor B.

Versteh, mich da nicht falsch @MFZ73

Ich bin großer Kommerfan und bin nur in ETFs investiert und halte sehr sehr wenig von Mr. Pseudodax.

 

Aber der mathematische Punkt, dies nicht weiter optimieren zu können, als den Markt nachzubilden, der zwar alle Gewinner aber eben auch alle Verlierer dabei hat, stillt mein Forscherherz nicht.

Zitat von stephank am 20. November 2020, 22:59 Uhr

Aber der mathematische Punkt, dies nicht weiter optimieren zu können, als den Markt nachzubilden, der zwar alle Gewinner aber eben auch alle Verlierer dabei hat, stillt mein Forscherherz nicht.

Alles ok, aber dann forsch'. Wenn Du es schaffst, bist Du Milliardär und ich habe Unrecht. Wenn Du es nicht schaffst, hast Du 5 Jahre gelernt und ich behalte Recht.

Mein Kühlschrank ist dann immer noch voll, egal, wie es ausgeht, also: fair deal.

Man kommt an den Punkt aber auch anders ran, wenn man sich mal die Entwicklung von KI im Vergleich zum menschlichen Potential ansieht und auch rein logische Argumente bedenkt. Denn die Idee ist nicht neu, das haben schon ganz andere vor Dir und dem TE versucht und nicht erst seit gestern. Ich behaupte sogar, dass es vor 100 Jahren noch eher möglich war, weil die Informationsverfügbarkeit und -geschwindigkeit noch eine ganz andere war. Heute lässt der POTUS einen Twitterfurz und die halbe Welt weiß 10s später Bescheid. Wie willst Du da noch einen Informationsvorsprung ausnutzen? Und letztlich geht es darum. Schach ist längst geknackt, GO auch (beides Spiele ohne verdeckte Information), Poker befindet sich im freien Fall, was die Aufschlüsselung durch KI angeht, d.h., die KI ist mittlerweile soweit, in real-time Systeme zu durchblicken, bei denen die Information _nicht_ vollständig verfügbar ist (zB typischer Bluff im Poker bzw. keine vollständige Info über die wahre Hand des Gegners).

Für Schach und Go gab's mal ne Million Prämie - heute verliert Carlsson gegen 'ne Handy-App (was seine Brillianz nicht schmälern soll).

Und in diese Welt hältst Du Deinen Kopf raus und behauptest, den Markt schlagen zu können.

Best of luck, my friend.

Erstens behaupte ich nichts, sondern hinterfrage nur. Es geht mir um den Dialog darüber. Ist das Thema durch und ist der Markt nicht zu schlagen oder ist er es theoretisch mittels maschineller Unterstützung durch Mathematik regelmäßig zu übertreffen? Ein Smart-Beta-Faktor ist m.E. nicht weiteres als solch eine Möglichkeit.

 

Zweitens interessiert mich die Entwicklung von KI. Wer hat denn die Evidenz, dass man diese nicht optimieren kann und eine KI ins "Leben" ruft, die effizienter tradet, als beispielsweise eine KI von Blackrock, die meines Wissens "nur" nach Marktkapitalisierung und berechneten empirischen Korrelationen geht. In der zukünftigen finanziellen Unabhängigkeit, ist das ein Projekt, dass ich zumindest zeitintensiver untersuchen möchte. Nochmal, ich behaupte weder, dass es möglich ist, noch, dass falls diese Möglich bestünde, ich derjenige bin, der es schaffen sollte. Letzteres halte ich für sehr unwahrscheinlich.

Die "schwachen" KIs', die heute existieren (AlphaGo, Watson etc.) beruhen zu einem Großteil auf multivariater Regression in neutralen Netzwerken. Also eine probabilistische Mustererkennung in mehrdimensionalen linearen Zusammenhängen. Es erscheinen nahezu monatlich Paper mit theoretischen Ideen zu Verbesserungen. Sei es die Nutzung von SDEs, Zufallsfeldern oder auch einfach einer nicht nur linearen Betrachtung. Mathematisch wird das sehr schnell ziemlich eklig, weshalb man an den einfachen linearen Zusammenhängen festhält. Ich behaupte auch nicht, dass die "Verbesserungen" im stock market wirklich besser also erfolgreicher sind. Vielleicht haben wir mit linearer Regression bereits das Optimum. Aber allein ein Gedankenaustausch sollte an dieser Stelle interessant sein und nicht mit "get rich or die trying" abgestumpft werden.

Zitat von MFZ73 am 21. November 2020, 0:01 Uhr

heute verliert Carlsson gegen 'ne Handy-App (was seine Brillianz nicht schmälern soll).

 

 

Ist zwar jetzt Off Topic, aber hast du dafür eine Quelle? Meines Wissens nach ist es eher so, dass es nicht möglich ist, Schach zu knacken.

https://www.youtube.com/watch?v=WxFL8DUTsIw

Ansonsten stimme ich deinem Post aber zu.

Zitat von stephank am 21. November 2020, 11:54 Uhr

Erstens behaupte ich nichts, sondern hinterfrage nur.

Nenn' es wie Du willst. Es geht hier von Anfang an um eine mathematische These. These aufstellen und beweisen. Oder These aufstellen und das Gegenteil beweisen.

Es geht mir um den Dialog darüber.

Schon klar. Aber das "darüber" ist immer eine These, die es entweder empirisch oder theoretisch zu beweisen oder zu widerlegen gilt. Es sei denn, Du willst darüber nur diskutieren wie über das Wetter. Dann bin ich raus.

Ist das Thema durch und ist der Markt nicht zu schlagen oder ist er es theoretisch mittels maschineller Unterstützung durch Mathematik regelmäßig zu übertreffen? Ein Smart-Beta-Faktor ist m.E. nicht weiteres als solch eine Möglichkeit.

Das ist eine weitere Behauptung. Beweise sie oder widerlege sie. Alles andere ist Zeitverschwendung.

Zweitens interessiert mich die Entwicklung von KI. Wer hat denn die Evidenz, dass man diese nicht optimieren kann und eine KI ins "Leben" ruft, die effizienter tradet, als beispielsweise eine KI von Blackrock, die meines Wissens "nur" nach Marktkapitalisierung und berechneten empirischen Korrelationen geht. In der zukünftigen finanziellen Unabhängigkeit, ist das ein Projekt, dass ich zumindest zeitintensiver untersuchen möchte. Nochmal, ich behaupte weder, dass es möglich ist, noch, dass falls diese Möglich bestünde, ich derjenige bin, der es schaffen sollte. Letzteres halte ich für sehr unwahrscheinlich.

Damit wäre widerlegt, dass Du zeitextensiver/kostensparender traden kannst, als Du im ET unterstellst, ergo ein Widerspruch zu Deiner Eingangsthese.

Die "schwachen" KIs', die heute existieren (AlphaGo, Watson etc.) beruhen zu einem Großteil auf multivariater Regression in neutralen Netzwerken. Also eine probabilistische Mustererkennung in mehrdimensionalen linearen Zusammenhängen. Es erscheinen nahezu monatlich Paper mit theoretischen Ideen zu Verbesserungen. Sei es die Nutzung von SDEs, Zufallsfeldern oder auch einfach einer nicht nur linearen Betrachtung. Mathematisch wird das sehr schnell ziemlich eklig, weshalb man an den einfachen linearen Zusammenhängen festhält. Ich behaupte auch nicht, dass die "Verbesserungen" im stock market wirklich besser also erfolgreicher sind. Vielleicht haben wir mit linearer Regression bereits das Optimum. Aber allein ein Gedankenaustausch sollte an dieser Stelle interessant sein und nicht mit "get rich or die trying" abgestumpft werden.

Das hat nichts mit abstumpfen zu tun, sondern das ist ein hammerhartes Argument, das Deine These überstehen muss.

Gleiches Spiel, nur anderes Thema: warum gibt es im gesamten Weltall keine einzige Spezies, die es geschafft hat, ihr ursprüngliches Sonnensystem zu verlassen? Antwort: dann wären sie hier (und wir wüssten, wie es geht).

Zitat von PanameraFlow am 21. November 2020, 13:37 Uhr
Zitat von MFZ73 am 21. November 2020, 0:01 Uhr

heute verliert Carlsson gegen 'ne Handy-App (was seine Brillianz nicht schmälern soll).

 

 

Ist zwar jetzt Off Topic, aber hast du dafür eine Quelle? Meines Wissens nach ist es eher so, dass es nicht möglich ist, Schach zu knacken.

Der letzte Schachweltmeister, der gegen den Rechner gewinnen konnte, war Kasparov 1996. Heute wird jede offizielle Partie von Großmeistern auf ungewöhnlich starke Züge kontrolliert, d.h., wenn ein Spieler eine ELO von 2700 hat und permanent Züge mit einer Spielstärke von 2800 zieht, dann kannst Du sicher sein, dass da ganz genau hingeguckt wird, wie oft der Spieler aufs Klo geht. https://de.wikipedia.org/wiki/Betrugsf%C3%A4lle_im_Schach

Geht auch bei online-Partien: https://www.youtube.com/watch?v=IY-8VE1GoqE

https://www.youtube.com/watch?v=WxFL8DUTsIw

Hast Du Dir das Video mal bis 2:35 angesehen ...!?

https://youtu.be/WxFL8DUTsIw?t=159

Die ETF-Lüge?

Vielen Dank für die interessante Fragestellung!

Ein Punkt der noch bislang gar nicht berücksichtigt worden ist, ist der Punkt Steuern:

  • Bei Einzelaktien unterliegen die ausgezahlten Dividenden zumindest der Abgeltungssteuer. Diese Abgeltungssteuer steht Jahr für Jahr nicht mehr für die Wiederanlage zur Verfügung.
  • Bei Umschichtungen zur Indexanpassung sind die (Netto-)Gewinne wiederum zumindest mit Abgeltungssteuer belegt. Auch diese Abgeltungssteuer steht mit den Zeitpunkten der Abschichtungen nicht mehr für die Wiederanlage zur Verfügung.
  • Beim ETF hingegen, der richtig strukturiert ist und im richtigen Land ansässig ist, fallen die Steuern erst mit Verkauf des ETF's an. Gerade bei langen Anlagedauern ergeben sich riesige Steuerstundungseffekte, die real alle denkbaren Kostenvorteile deutlich übersteigen.

Beste Grüße

André

Hallo @andre, die Vorabpauschale greift aber schon, oder kann man die mit Wohnsitz in D irgendwie legal vermeiden?

12