connect Webhosting-Test 2025: Interview mit Redakteur Hannes Rügheimer

|
Überragend – so lautet das Ergebnis im Dezember 2025 für mittwald im Webhosting Test von connect professional. Doch was wurde eigentlich getestet und wie entstehen solche Bewertungen? 
 
Darüber habe ich mit Hannes Rügheimer gesprochen. Er arbeitet seit vielen Jahren für connect und connect professional und hat den B2B-Webhosting-Test begleitet. Im Interview gibt er Einblicke in die Methodik und die Zusammenarbeit mit dem Testunternehmen Zafaco. 
Hannes, stell dich doch kurz vor. Wer bist du und was machst du bei connect professional?

Gerne! Mein Name ist Hannes Rügheimer. Ich arbeite seit vielen Jahren für connect und connect professional. Meine Aufgabe ist es, Tests zu betreuen und daraus verständliche, gut lesbare Artikel zu machen. Dazu gehört auch der Webhoster-Test, den ich als Autor begleitet habe.

Der Webhoster-Test im B2B-Bereich war für connect professional eine Premiere. Was unterscheidet für dich B2B- von B2C-Tests?

Die Anforderungen sind deutlich kritischer. Eine Website ist für Unternehmen oft das zentrale Kommunikations- oder Business-Tool. Manchmal sogar Verkaufsplattform. Entsprechend hoch sind die Erwartungen an Stabilität, Performance und Zuverlässigkeit. Genau deshalb war es uns wichtig, diesen Test sauber und reproduzierbar aufzusetzen. Das wird kein einmaliges Experiment bleiben, sondern ab jetzt ein fester Bestandteil unseres Testprogramms.

Es gibt ja unzählige Vergleichsportale. Worin unterscheidet sich euer Ansatz?

Ganz klar in der Methodik. Unsere Tests finden in einer kontrollierten, reproduzierbaren Umgebung statt. Reines User-Feedback oder Crowdsourcing ist anfällig für viele Einflüsse – WLAN, instabile Internetanschlüsse, individuelle Setups. 
Das Unternehmen Zafaco, mit dem wir zusammenarbeiten, misst dagegen von definierten Messpunkten in Rechenzentren aus. Die Anbindung ist dort nicht der Flaschenhals. So können wir wirklich Aussagen über die Qualität der getesteten Plattformen treffen – und nicht über Zufälle im Alltag einzelner Nutzer.

Wie stellt ihr denn sicher, dass alle Anbieter unter exakt gleichen Bedingungen getestet werden?

Über die Menge der Messungen. Der Test lief über 3 Wochen, mit rund 500.000 Einzelmessungen. Die Systeme laufen rund um die Uhr und testen zyklisch alle Anbieter in verschiedenen Szenarien: Latenzen, Uploads, Downloads, Verfügbarkeit. Einzelne Ausreißer gleichen sich statistisch aus – das macht die Ergebnisse belastbar.

Gibt es trotzdem Stolperfallen dabei?

Natürlich. Wir messen bewusst aus Rechenzentren heraus. Das heißt: Die Ergebnisse lassen sich nicht 1:1 auf jeden einzelnen Kundenanschluss übertragen. Ein Kunde sitzt schließlich nicht im Rechenzentrum. 
 
Aber: Wir bewerten die Qualität der Plattformen unter vergleichbaren Bedingungen. Für einen Marktvergleich ist das entscheidend. Crowdsourcing-Ansätze haben ebenfalls ihre Berechtigung – sie verfolgen aber ein anderes Ziel.

Was sind für euch die wichtigsten technischen Kriterien?

Ganz oben stehen Verfügbarkeit und Fehlerfreiheit. Danach Latenzen, also Reaktionszeiten, und Upload- sowie Download-Geschwindigkeiten. Das wirkt sich direkt auf das Nutzererlebnis aus. Lange Ladezeiten führen nachweislich dazu, dass Nutzer abspringen – gerade bei Shops. Aber auch bei klassischen Websites gilt: Niemand wartet gern.

Wie schwer ist es für Anbieter, in allen Bereichen konstant gut zu sein?

Das ist eine echte Herausforderung. Ressourcen sind begrenzt. Man kann immer mehr Hardware einsetzen – aber das muss wirtschaftlich bleiben. Die Kunst liegt darin, den Sweet Spot zwischen Performance und Invest zu finden. Also genau das Verhältnis, bei dem Kund*innen profitieren und das Angebot trotzdem wirtschaftlich ist.

Gab es Ergebnisse, die euch überrascht haben?

Überraschend war vor allem die Spannweite der Ergebnisse. Trotz namhafter Anbieter gab es deutliche Unterschiede – von „überragend“ bis „gut“. 
Die Note überragend vergeben wir bewusst sehr selten. Sie bedeutet nicht nur „besser als der Durchschnitt“, sondern auch: besser als unsere eigenen Erwartungswerte.

Was wird bei Webhosting-Tests häufig falsch verstanden?

Viele schauen nur auf Serverdaten wie RAM, Kerne oder Speicherplatz. Aber entscheidend ist, wie diese Ressourcen tatsächlich zur Verfügung stehen. Außerdem gilt: Ein sehr gutes Testergebnis bedeutet nicht automatisch, dass jedes Einsteigerpaket dieselbe Leistung bringt. Auch das sollte man im Hinterkopf behalten.

Hosting muss sich immer an den Anwendungen orientieren, die genutzt werden. WordPress war lange der Treiber. Aktuell ist KI ein großes Thema. Für uns als Redaktion heißt das: Wir müssen unsere Tests weiterentwickeln und prüfen, welche neuen Szenarien relevant werden. Aber nicht jeder Trend ist automatisch nachhaltig – da schauen wir sehr genau hin.

Danke für das Gespräch, Hannes!

Ähnliche Artikel:

agenturConnect 2025 – Aufbruch, Austausch und Zukunftsenergie

Was für ein Tag! 45 Agenturen. 16 innovative Sessions. Und ein gemeinsamer Blick nach vorn. Unser zweites agenturConnect fand am vergangenen Samstag im Schloss Benkhausen...

Recap: Head in the Cloud Summit 2025

Der Head in the Cloud Summit 2025 war ein voller Erfolg! Ein Fest für Techies und Nerds gespickt mit Fachvorträgen und Panels.

Support-Mitarbeiter Jan über Alltag und Arbeit mit Rot-Grün-Schwäche

Warum mittwald Support-Mitarbeiter Jan Matthaeus seine Einschränkung auch manchmal als Superpower sieht, erfährst du im Blog.

So unterstützen wir Agenturen bei Ausschreibungen

Welche Informationen brauchen Agenturen für Ausschreibungen? Wo liegen die Infos? Wir haben die Antworten und helfen für einen erfolgreichen Pitch.

Foto von Martin Helmich mit dem Zitat "Head in the Cloud bringt Menschen zusammen
Foto von Martin Helmich mit dem Zitat "Head in the Cloud bringt Menschen zusammen

„Head in the Cloud bringt Menschen zusammen“ – Interview mit Organisator Martin Helmich

Deshalb solltest du den Head in the Cloud Summit nicht verpassen! Martin verrät erste Speaker und worauf du dich freuen kannst.