KI-Funktionen im Ultra-Plan: Zusammenfassung, Protokoll & Social-Posts mit lokalem Open-Source-LLM
Ein Transkript ist selten das Ende der Arbeit. Nach dem Meeting kommt das Protokoll. Nach dem Interview der Artikel. Nach dem Workshop die Aufgabenliste. Und nach dem Podcast der Social-Media-Post, der darauf hinweist. All das sind Schritte, die sich hervorragend mit einem Sprachmodell automatisieren lassen – wenn man bereit ist, das fertige Transkript dafür an einen externen Dienst zu übergeben.
Genau das ist der Punkt, an dem die meisten datenschutzorientierten Nutzer aussteigen. Denn ein Transkript, das zuvor clientseitig verschlüsselt verarbeitet wurde, soll nicht im nächsten Schritt an OpenAI, Anthropic oder Google geschickt werden. scryp bietet die KI-Analyse deshalb anders an: Sie läuft auf denselben GPU-Workern wie die Transkription, in derselben abgeschotteten Umgebung, mit einem lokalen Open-Source-Modell. Verfügbar ist diese Funktion im Ultra-Plan.
Der Unterschied: Lokales LLM statt Cloud-API
Die KI-Analyse in scryp läuft auf einem lokalen Open-Source- Sprachmodell, das auf unseren eigenen GPU-Workern in der EU ausgeführt wird. Es gibt keinen Aufruf an OpenAI, Anthropic, Google oder einen anderen externen KI-Dienst. Das Modell hat keinen Internetzugang und kann Daten nicht nach außen weitergeben – technisch nicht.
Die meisten KI-Features in Transkriptionstools funktionieren nach einem einfachen Muster: Das fertige Transkript wird an eine API weitergereicht – meist zu einem US-Anbieter wie OpenAI oder Anthropic – und die Antwort zurück an den Nutzer geschickt. Das ist schnell zu implementieren, aber datenschutzrechtlich ein Bruch: Die Daten, die Sie eben noch sorgfältig verschlüsselt haben, landen im Klartext bei einem Drittunternehmen außerhalb der EU.
scryp verfolgt einen anderen Ansatz. Für die KI-Analyse nutzen wir ein Open-Source-Sprachmodell, das wir selbst hosten. Es läuft auf denselben GPU-Workern, die auch die Transkription durchführen, in denselben EU-Rechenzentren bei Hetzner. Konkret bedeutet das:
- Kein externer API-Aufruf. Weder OpenAI noch Anthropic noch Google sehen Ihr Transkript. Es gibt keinen Vertrag mit einem US-LLM-Anbieter, weil es technisch keinen geben muss.
- Kein Internetzugang für das Modell. Der Container, in dem das Sprachmodell läuft, hat nur eine eingehende Verbindung zu unserer internen Job-Warteschlange – nicht das umgekehrte. Das Modell kann keine Anfragen nach außen stellen.
- Kein Modelltraining mit Ihren Daten. Das Open-Source-Modell ist statisch. Wir passen es nicht an Nutzerdaten an, wir sammeln keine Prompts, und es gibt keinen Feedback-Loop, der Ihre Inhalte zurück ins Modell führt.
- Gleiches Rechtssystem wie die Transkription. Die Verarbeitung findet in der EU statt, auf Infrastruktur eines europäischen Hosters. Keine Drittlandtransfers, kein CLOUD Act.
Dieselbe Architektur wie bei der Transkription
Die KI-Analyse nutzt nicht nur dieselbe Hardware wie die eigentliche Transkription, sondern auch dasselbe Sicherheitsmodell. Ergebnisse werden direkt wieder mit Ihrem Schlüssel verschlüsselt, bevor sie die Worker-Umgebung verlassen. Auf der Festplatte oder in der Datenbank liegen sie zu keinem Zeitpunkt im Klartext – genauso wie Transkripte und Audio-Dateien.
Die KI-Analyse ist damit keine neue Vertrauensfrage: Sie läuft innerhalb derselben isolierten Umgebung, die wir bereits für die Transkription selbst einsetzen.
Fünf Analysetypen im Ultra-Plan
Im Ultra-Plan stehen derzeit fünf Analysetypen zur Verfügung. Jeder ist für einen konkreten Anwendungsfall optimiert, statt eine allgemeine „Chat“-Funktion anzubieten. Das Ergebnis ist ein spezifisches, sofort nutzbares Dokument – kein generischer KI-Output, den Sie noch weiterverarbeiten müssen.
1. Zusammenfassung
Die Zusammenfassung kondensiert ein Transkript auf die wesentlichen Aussagen. Sie eignet sich besonders für lange Aufnahmen – einstündige Interviews, zweistündige Workshops, Podcast-Episoden – bei denen Sie einen schnellen Überblick brauchen, ohne das komplette Transkript zu lesen.
Sie können die Länge der Zusammenfassung über einen Regler zwischen 100 und 2 000 Zeichen festlegen. Kurz für eine Übersicht in einer E-Mail, länger für ein ausführliches Management-Summary. Das Modell passt die Dichte des Textes automatisch an die gewünschte Länge an.
2. Protokoll
Das Protokoll strukturiert ein Meeting-Transkript in klassische Abschnitte: Teilnehmer, Themen, Diskussionspunkte, Entscheidungen und offene Punkte. Im Gegensatz zur Zusammenfassung, die den Inhalt erzählerisch kondensiert, folgt das Protokoll einer festen Gliederung – so, wie Sie es aus regulären Sitzungsprotokollen kennen.
Diese Funktion eignet sich für Meeting-Protokolle, Jour-fixe-Dokumentation, Projektbesprechungen und überall dort, wo eine nachvollziehbare, strukturierte Dokumentation gebraucht wird. Das Ergebnis ist ein Dokument, das Sie mit kleinen Anpassungen direkt weiterverwenden können.
3. Aufgabenliste
Die Aufgabenliste extrahiert aus einem Meeting alle To-Dos – zusammen mit der zuständigen Person und, wo genannt, dem geplanten Termin. Das Modell sucht gezielt nach Sätzen wie „Das übernimmt dann Lisa“, „Bis Freitag müssen wir…“ oder „Daniel, kannst du dich darum kümmern?“ und wandelt sie in klare Aufgabenpunkte um.
Das spart einen Schritt, den in vielen Teams niemand gern übernimmt: das Nachhalten offener Punkte. Statt das Transkript manuell nach Verpflichtungen zu durchsuchen, bekommen Sie eine fertige Liste, die Sie in Ihr Projektmanagement-Tool übertragen können.
4. Social-Media-Post
Aus einem Transkript lässt sich ein Social-Media-Post für LinkedIn, Facebook oder X (Twitter) erzeugen. Das Modell wählt die für die Plattform passende Länge, Tonalität und Struktur. LinkedIn-Posts sind typischerweise länger, substantieller und professioneller formuliert. X-Posts sind kurz, zugespitzt und arbeiten mit einem klaren Aufhänger. Facebook liegt dazwischen, mit einer persönlicheren Ansprache.
Sinnvoll ist das vor allem dann, wenn Sie eine Aufnahme ohnehin später veröffentlichen – einen Vortrag, ein Podcast-Interview, eine Keynote. Statt den Post manuell aus dem Gedächtnis zu formulieren, liefert das Modell einen fertigen Entwurf, der auf tatsächlich gesagten Sätzen basiert.
5. Artikel
Der längste und rechenintensivste Analysetyp: ein strukturierter Artikel mit Einleitung, Zwischenüberschriften, Kernaussagen und Schluss – erzeugt aus dem Transkript einer Aufnahme. Die Zielzeichenzahl kann zwischen 1 000 und 10 000 Zeichen liegen.
Der Artikel-Modus arbeitet intern in mehreren Schritten: Das Modell plant zunächst die Gliederung, schreibt dann die einzelnen Abschnitte und fügt sie am Ende zu einem kohärenten Text zusammen. Das Ergebnis ist kein „aufgeblähtes Transkript“, sondern ein eigenständiger Artikel, der die Aussagen der Aufnahme in journalistischer oder redaktioneller Form aufbereitet.
Typische Anwendungen: Blog-Posts aus Interviews oder Podcasts, Fachartikel aus Fachvorträgen, Berichte aus Konferenz-Mitschnitten. Die manuelle Überarbeitung bleibt notwendig – aber der Ausgangspunkt ist deutlich weiter als ein rohes Transkript.
Was das Open-Source-Modell kann – und wo seine Grenzen liegen
Wir nennen das eingesetzte Modell bewusst nicht beim Namen. Der Grund: Die KI-Landschaft entwickelt sich so schnell, dass die konkrete Wahl in sechs Monaten schon wieder eine andere sein kann. Wichtig ist das Prinzip: Open-Source, lokal betrieben, kein externer Dienst, EU-Verarbeitung. An diesen Eigenschaften halten wir fest, auch wenn wir das Modell perspektivisch gegen ein moderneres austauschen.
Was Sie trotzdem wissen sollten: Lokale Open-Source-Modelle in der Größe, die auf einer einzigen GPU läuft, sind nicht auf demselben absoluten Qualitätsniveau wie die größten Cloud-Modelle (GPT-4-Klasse, Claude Opus). Für die typischen Analyseaufgaben – Zusammenfassen, Strukturieren, Umformulieren – sind sie jedoch sehr gut geeignet. Der Qualitätsabstand ist in den vergangenen 18 Monaten zudem deutlich kleiner geworden, während der Datenschutzvorsprung eines lokalen Modells konstant bleibt.
Praktisch heißt das: Wenn Sie einen frei formulierten, kreativen Text wollen, der so klingt, als wäre er von einem erfahrenen Autor geschrieben, sollten Sie den KI-Output als Ausgangspunkt verstehen, nicht als fertigen Text. Für strukturierte Aufgaben wie Protokolle, Aufgabenlisten oder Zusammenfassungen ist das Ergebnis regelmäßig direkt einsatzfähig.
Was das Ergebnis speichert – und was nicht
Das Ergebnis einer KI-Analyse wird wie das zugrunde liegende Transkript verschlüsselt gespeichert. Niemand außerhalb Ihres Accounts kann es lesen – weder unsere Mitarbeiter noch jemand, der sich physischen Zugriff auf die Datenbank verschaffen würde. Auch die Prompts, die wir intern zur Steuerung des Modells verwenden, werden nicht zusammen mit Ihren Inhalten protokolliert.
Was wir speichern: Dass ein Job eines bestimmten Typs (Zusammenfassung, Protokoll, …) gelaufen ist, wann er gelaufen ist und wie lange die Verarbeitung gedauert hat. Diese Metadaten brauchen wir für Abrechnung, Fehlerdiagnose und Kapazitätsplanung. Der Inhalt Ihrer Transkripte oder der KI-Ergebnisse ist in diesen Logs nicht enthalten.
Warum die KI-Analyse nur im Ultra-Plan verfügbar ist
Die KI-Analyse läuft auf denselben GPUs wie die Transkription. Ein einzelner Artikel-Job kann eine GPU mehrere Minuten belegen, ein Protokoll oder eine Zusammenfassung deutlich kürzer. Das ist teurer als ein API-Aufruf bei einem Cloud-Anbieter, aber wir geben die Hardware dafür nicht an Dritte weiter.
Deshalb ist die Funktion im Ultra-Plan enthalten. Wer sie aktiv nutzen will, bekommt die Hardware-Kapazität, die dafür nötig ist – zu einem planbaren monatlichen Preis, statt nach Tokens abgerechnet zu werden. Alle Details zu den Plänen finden Sie auf der Preis-Seite.
Zusammenfassung
- Lokales Open-Source-Modell: Läuft auf scryp-eigenen GPU-Workern in der EU. Kein externer API-Aufruf, kein US-LLM-Anbieter.
- Isolierte Umgebung: Das Modell hat keinen Internetzugang. Es kann Daten nicht nach außen senden, weil es technisch keine Verbindung dafür hat.
- Gleiches Sicherheitsmodell wie die Transkription: Ergebnisse werden verschlüsselt gespeichert, die Verarbeitung läuft in derselben isolierten Umgebung.
- Kein Training mit Nutzerdaten: Das Modell ist statisch. Ihre Inhalte fließen nicht zurück ins Modell.
- Fünf Analysetypen: Zusammenfassung, Protokoll, Aufgabenliste, Social-Media-Post (LinkedIn/Facebook/X) und Artikel – jeweils für einen konkreten Anwendungsfall optimiert.
- Ultra-Plan: Die KI-Analyse ist Bestandteil des Ultra-Plans, weil die dafür nötige GPU-Zeit echte Hardware- Kapazität bindet.
Fazit
Eine KI-Funktion, die Ihr sorgfältig verschlüsseltes Transkript anschließend an einen externen Cloud-Dienst schickt, ergibt datenschutzrechtlich wenig Sinn. scryp macht das deshalb nicht. Die Zusammenfassung, das Protokoll, die Aufgabenliste, der Social-Media-Post und der Artikel entstehen auf demselben Worker-System, das auch die Transkription durchführt – in der EU, auf unserer eigenen GPU-Infrastruktur, mit einem lokalen Open-Source-Modell, das kein Fenster nach außen hat. Das ist langsamer und teurer als ein API-Aufruf bei OpenAI – aber es ist die einzige Variante, die zum Rest der Architektur passt.