"Hätte, wäre, wenn"-Totschlagargumente mit Apollo bringen hier doch nichts.
Nicht nur Computer können Fehler machen, auch Menschen (passiert gerade gerne beim manuellen Fliegen im Cockpit), z.B. wenn sie das Situationsbewusstsein verlieren. Menschen können sich gerne mal überschätzen ("Ich kann das! Das schaffe ich jetzt!"). Deterministischen Computern passiert das nicht. Beide können aber seine Situation falsch einschätzen oder unvorbereitet sein.
Man kann beide Architekturen/Philosophien zuverlässig umsetzen: den Menschen komplett in die Mitte stellen (vollständig hands-on) oder den Computer zum Steuermann machen, den Menschen zum Entscheider. In beiden Fällen muss man Reaktionsfähigkeit auf "Überraschungen" einbauen/antrainieren. Bei Überraschungen aber immer mit offenem Ausgang ... da ist auch nicht per se der Mensch besser.
Wenn wir den Anflug von Apollo 11 nehmen: Es hätte ebenso einen Abbruch zurück in den Orbit geben können (sollen). Das wäre halt "loss of mission"gewesen, aber eben nicht "loss of crew". Dass Neil Armstrong das übersteuert hat, ist natürlich im Nachhinein toll gelaufen. Mit Mut und Können geschafft ... aber das spricht nicht gegen Automation mit stressfreiem, emotionslosem, striktem Kriterium für den Abbruchfall, um mit Puffer/Margins das sichere Rettungsmanöver einzuleiten.
Ich zitiere da gerne einen Piloten: Trust your superior decision making capability, not your superior flying capability.