AI Hosting: Diese Modelle stehen dir zur Verfügung

|
Porträt von Reidar Janssen mit dem Schriftzug "AI-Hosting: Welche Modelle du in unserer Beta testen kannst
Mit dem AI Hosting bekommst du bei uns die Möglichkeit, Modelle direkt in deinen Projekten einzusetzen. Unser Ansatz ist praxisnah – abgestimmt auf die Bedürfnisse, die im Agenturalltag und bei Web-Projekten wirklich zählen. 

Der Fokus liegt darauf, dass sich die Modelle sinnvoll einsetzen lassen: für Features in Webprojekten, zur Prozessoptimierung oder für clevere Automatisierungen. Der Vorteil: Alles läuft in unserer eigenen Infrastruktur in unserem Rechenzentrum in Deutschland, ganz ohne externe Dienstleister oder US-Firmen. Stichwort: Digitale Souveränität. So bleiben deine Daten geschützt – und deine Nerven auch. Damit deine Buchhaltung nicht ins Schwitzen kommt, planen wir zudem ein transparentes, einfaches Abrechnungsmodell

Welche Modelle du zur Zeit bei uns verwenden kannst und was sie dir für Vorteile bringen, habe ich dir hier einmal aufgelistet.

AI Hosting: Aktuell verfügbare Modelle

Ministral-3-14B-Instruct-2512 

Europäisches Open-Source-Modell mit 14 Milliarden Parametern, optimiert für hochwertige Text‑, Chat‑ und Vision-Anwendungen in Webprojekten.

Qwen3-Coder-30B-Instruct 

Mit dem Coder-Modell von Qwen (Alibaba, China) unterstützen wir dich beim Entwickeln – ohne US-Abhängigkeiten. Einfach in deine IDE einbinden und direkt Zeit beim Coden sparen (Stichwort: AI-Coding oder Vibe-Coding). 

Darüber hinaus ist das Modell ein Ass im Bereich Agenten-Systeme. Komplexe Workflows mit vielen Tools? Kein Problem. In Automatisierungs-Pipelines – etwa mit N8N – ist es dein starker Partner. 

Qwen3-Embedding-8B 

Dieses Modell plaudert zwar nicht mit dir, ist aber das Rückgrat deines RAG-Systems. Es verwandelt Texte in Zahlen, die du in einer Vektor-Datenbank speicherst. Die kannst du übrigens mit unserem Container Hosting ganz einfach betreiben. Damit wird eine semantische Suche möglich, deren Ergebnisse du nahtlos in deine KI-Anwendungen zurückspielen kannst. 

gpt‑oss‑120b

Dieses Open‑Source‑Modell von OpenAI wurde unter der Apache 2.0‑Lizenz veröffentlicht. Es bietet starkes reasoning und agentische Fähigkeiten bei effizientem Ressourcenverbrauch.

Whisper-Large-V3-Turbo

Leistungsstarkes Speech-to-Text-Modell für schnelle und präzise Transkription in zahlreichen Sprachen. Ideal, um Meetings, Podcasts, Webinare oder Support-Anrufe in Text umzuwandeln und diese weiterzuverarbeiten.

Jetzt aber mal reinfolgen!

Abonniere Tipps für CMS und Dev-Tools, Hosting Hacks und den ein oder anderen Gag. Unsere schnellen Takes für dich per E-Mail.

Wie dürfen wir dich ansprechen?

Jetzt unser AI Hosting testen 

Hat eins der Modelle dein Interesse geweckt? Dann probier es doch mal aus!

Hast du einen vServer? Dann richten wir dir auf Wunsch direkt einen vorkonfigurierten OpenWebUI-Container ein – und du kannst sofort mit dem Modell chatten. 

Unsere Modelle sprechen über eine OpenAI-API-kompatible Schnittstelle. Heißt für dich: Hast du schon eine KI-Anwendung, musst du nur Host und API-Key tauschen. Fertig ist dein Drop-In-Replacement – und die Datenschutzsorgen schrumpfen. 

Schau mal in unsere Doku im Developer Portal.

Zusammen mit unserem Container Hosting hast du damit eine starke Plattform, um digital souverän durchzustarten. 

Wichtig: Dein Feedback

Hast du Ideen oder Wünsche? Immer her damit! Im mStudio besteht in der unteren, rechten Ecke des Bildschirms die Möglichkeit, uns Feedback zu unserem AI Hosting zu geben. Natürlich kannst du dich aber auch jederzeit gerne bei unserem Kundenservice melden. Wir freuen uns auf deine Nachricht!

Ähnliche Artikel:

Foto von Tobias Wiesing + Text: DocMost digital souverän betreiben mit Tobias Wiesing von hueske.digital
Foto von Tobias Wiesing + Text: DocMost digital souverän betreiben mit Tobias Wiesing von hueske.digital

DocMost im Container Hosting – digital souveränes Wiki für Agenturen

DocMost selbst gehostet = digital souveränes & DSGVO-konformes Wiki. Hier lernst du, wie du DocMost einfach im Docker Container betreibst.

Titelbild zum Blog-Beitrag "AI Hosting verstehen 2" von Levent Koch, Data Science & AI Specialist

AI Hosting verstehen (2): Die wichtigsten Parameter für bessere KI-Ergebnisse

Temperature, Top-P & max_tokens: Die wichtigsten LLM-Parameter im AI Hosting verstehen und gezielt für bessere KI-Ergebnisse einsetzen.

Vom „zähen“ Shop zur skalierbaren Performance – wie nuonic Digital neu durchstartet

Ein Shop läuft stabil. Keine Ausfälle, keine Fehlermeldungen, alles sieht gut aus. Und trotzdem fühlt sich alles langsam an. Genau vor dieser Situation stand Alex Jank...

Vom vServer zum Dedicated Server – Tarifwechsel jetzt direkt im mStudio

Ihr kennt die Situation vielleicht aus eurem Agenturalltag: Für ein Kundenprojekt nutzt ihr zunächst einen kleinen vServer als Dev-Umgebung. Alles läuft stabil, die Entwicklung...

AI Hosting verstehen (1): Wie arbeitet ein LLM?

Verstehe, wie LLMs Texte erzeugen. Wir erklären Dir Grundlagen, Attention und Kontext – klar, technisch und praxisnah.