#Sensei
Verstehe es trotzdem immer noch nicht so ganz. Ist doch heute nahezu überall so, daß der Transport wesentlich billiger ist als die transportierten Waren.
Wobei natürlich nix dagegen zu sagen ist, daß es schön wäre auch die Waren(herstellung) zu verbilligen.
Okay. Dann versuch ich es noch einmal:
Was die wissenschaftlichen Nutzlasten teuer macht ist primär:
- extremer Aufwand für Miniaturisierung
- extremer Aufwand für Gewichtsreduktion
- extremer Aufwand dafür, dass das alles auch ganz ganz sicher funktioniert (risikoavers)
deswegen auch:
- Verwendung von Spezialkomponenten, welche EXTREM teuer sind
- Entwickeln durch Speziallabors wie JPL, die einem extremen overhead haben
- Man kommt zu keiner Standardisierung, zu keiner Rehenfertigung sondern sitzt im extrem aufwändigen Einzelbau fest
und da dies alles so teuer ist stellt man auch nicht mehrere her. Ein exemplar muss reichen - das muss aber auch wirklich PERFEKT sein
Das Pareto-Prinzip (80-20 Regel) sagt dir was? Die letzten paar Prozent zur 'Perfektheit' sind die mit Abstand teuersten.
Die Satellitentechnik macht es ja vor:
Noch vor wenigen Jahren haben Kommunikationssatelliten 100 Millionen + gekostet. Jetzt gibt es tausende von Satelliten, die weniger als 0,5 Mio $ gekostet haben. Das ist eine Kostenreduktion von > 1:100! (bei gleichzeitig ~1:20el des Gewichts und ~1:5el der Leistung).
Lass die Kosten von Nutzlasten nur um den Faktor 10 und dafür die Zuverlässigkeit von 95% auf 85% sinken - dann kommt (bei nicht-kritischen Missionen) immer noch eine deutlich positiver Effekt bei raus. Denn man könnte dann 10 Mal so viele Missionen starten.
Daaaaas war mir schon klar, aber was wäre dabei so schlimm, wenn man z.B. das neue "sauteure" James Webb Teleskop billig mit einem Starship transportieren würde? (Vorausgesetzt es stände schon zur verfügung)
1. Es geht nicht darum, ob man beim Transport eines 10 Mrd. Teleskops 0.1 Mrd. sparen kann.
Sondern darum, dass langfristig die Teleskope nicht mehr 10 Mrd. kosten müssten.
Wenn ein funktionierendes Starship nur dazu führt, dass ein Vorzeige-Weltraumteleskop bei gleicher Leistung statt 10 Mrd. $ nur noch 9.9 Mrd. $ kostet, hat man DEFINITIV was falsch gemacht.
2. Es ging mir auch nicht Primär um die 'Edge-Case', nicht um die Missionen welche unbedingt bis ans Limit gehen müssen. Nicht um das eine Vorzeigeteleskop und die Kostenreduktion bei der Bemannten Raumfahrt. Dort will man natürlich nicht die Zuverlässigkeit reduzieren. Hier muss man andere Wege gehen..
^ Aber das steht ja im Grunde auch so im Artikel. Um den geht es hier doch noch oder?
Darum, was Hr. Handmer mit der Zeitenwende meint, wenn John Deer stat dem JPL Arbeitsmaschienen für den Mond bauen sollte?
Ich zitiere jetzt mal dich, aber du bist jetzt nur stellvertretend für die oft vorgebrachte Denkweise, dass diese Missionen so teuer sind, weil man so strikte Anforderungen (max. Größe, max. Masse, etc.) durch den Träger hat.
Diese Annahme stimmt einfach nicht. Leuchtturmprojekte in der Forschung sind immer "on-offs" und sollen es auch sein. Schau dir ITER, LHC, European XFEL, FAIR, ELT und viele andere an (ich habe mich mal auf europäische Großanlagen fokussiert, gilt aber natürlich weltweit). All diese Projekte können günstig transportiert werden, kosten aber trotzdem mehrere Mrd und werden sehr ähnlich gemanaged. Diese Projekte werden über Jahrzehnte geplant und ein wichtiger Grund, warum wir Wissenschaftler dafür überhaupt Geld bekommen, ist weil all diese Projekte Technologien benötigen, die zu Planungsbeginn noch nicht existieren, deren aktuelles Anwendungsfeld nur für die Forschung interessant ist, aber deren Entwicklung als Katalysator für neue Konzepte in der Wirtschaft dienen können. Neustes Beispiel dazu dürften die Spiegel fürs JWST sein. Die Spiegel müssen bis auf wenige Atomlagen genau glatt sein, das konnte vorher keiner, also wurde mit viel Geld ein Prozess dafür entwickelt. 10 Jahre später ermöglicht genau diese Technik Fortschritte in der Halbleiterindustrie, aber nur, weil er eben schon existiert!
Und wenn man jetzt 20+ Jahre von Konzept zur Inbetriebnahme für solche Leuchtturmprojekte planen muss, dann geht damit einher, dass man all diesen Aufwand in Spezialkomponenten und Risikominimierung investiert. Dazu kommt, dass die laufenden Missionskosten für wissenschaftliche Raumfahrt sehr viel teurer sind, als für irgendeinen GEO-Comsat, weil die Messkampagnen geplant werden müssen und der Sat dauerhaft Aufmerksamkeit benötigt.
Dazu kommt noch, dass die Geschichte gezeigt hat, dass solche nicht-spezialisierten "Stangenware"-Geräte wie du sie vorschlägst nicht so sehr hilfreich für die Forschung sind. Sie können mal helfen, um sehr viele mittelmäßige Datensätze zu generieren, aber meistens helfen wenige gute Datensätze eben viel mehr weiter. Und die bekommt man zum einen eben von den sehr teuren Flagschiffprojekten, die so teuer sind, weil sie viele Dinge sehr gut können oder von den kleineren Projekten, die sich auf genau eine Sache spezialisiert haben (aber eben trotzdem Einzelstücke sind).
Ich sage damit nicht, dass es keinen Platz für "Stangenware"-Sats in der Wissenschaft gibt, aber deren Bedeutung wird in der Allgemeinheit extrem überschätzt!