Offenbar kommt man auf diese Weise nicht weit, wenn es auf Genauigkeit ankommt.
Vereinfacht erklärt, müßte man H(t) bestimmen und veröffentlichen, nicht nur irgendwelche Umrechnungen auf H0 . Denn wenn H(t) (ungefähr ~ 1/t) nicht genau so verläuft wie angenommen, kommt schon in die Umrechnung H(t) zu H0 ein Fehler durch das fehlerhafte ad-hoc Modell für H(t) hinein. Andererseits mißt man bei den meisten Verfahren nicht direkt H(t) für verschiedene zurückliegende Epochen t noch die Zeit seit dem Ukknall, sondern zBsp. H(Entfernung) und rechnet dann aus der Entfernung die zurückliegende Zeit t', die dem entsprechende Zeit seit dem Urknall t aber wiederum nur über eine bestimmte Annahme von H(t) und dem daraus resultierenden Weltalter, aus.
Man kommt nicht umhin, umgekehrt unter verschiedenen Annahmen für H(t) Modelle zu berechnen, was man je nach Art der Beobachtung (etwa, Rotverschiebung zur Distanz zBsp aus Helligkeiten ) als Verlauf zu erwarten hätte, und dies mit den Beobachtungen vergleicht.
Welches physikalische Modell dann hinter einzelnen Annahmen für H(t) stecken könnte, ist dabei zweitrangig; darüber entscheiden kann man erst, wenn H(t) experimentiell sauber (statt einer Mischung von H(t) und ungenauen Annahmen über es) bestimmt wurde.
Der Grund der bisherigen , vorgenannten Vorgehensweise, ist, daß lange angenommen wurde, daß die Beschleunigung gravitativ abbremst. Die daraus resultierenden falschen Annahmen für H(t) (d.h., dessen Abweichung von H ~ 1/t) gehen bei der eingangs genannten, praktizierten Reduktion des Beobachtungsmaterials ein. Diese Abweichungen sind erheblich, da die Expansion nach derzeitigem Stand nicht abbremst - wobei es für die o.g. nötige saubere Reduktion der 'Beobachtungen' von H(t) oder stattdessen wie oben vorgeschlagen konsistente Berechnung der faktisch beobachteten Größe (etwa RV ./. photometrische Distanz) zunächst irrelevant ist warum.