Alle KI-Funktionen im myContent CMS werden von einem zentralen Modul, den sog. AI Services bereit gestellt.
Jeder Kunde, der ein Abo für die AI Services abgeschlossen hat, erhält Zugangsdaten zum Admin-Tool (https://ai-services.mycontent.online).
Im Admin-Tool können je KI-Funktion kundenspezifische Anpassungen vorgenommen und die aktuellen Verbrauchsdaten eingesehen werden.
Unterscheidung der KI Funktionen
KI-Anfragen können, abhängig vom Typ, auf verschiedenen Sprach- / KI-Modellen ausgeführt werden. Die AI-Services kapseln dabei die Anbindung an das jeweilige Modell. Generell unterscheiden wir in Prompt-Basierte Modelle (zB. ChatGPT von OpenAI oder Bard von Google), also Modelle die Anfragen in Textform (Prompts) verarbeiten können und spezialisierten Modellen, die nicht über einen Prompt sondern eine Programmierschnittstelle angesprochen werden.
Unterstützte Modelle
OpenAI ChatGPT
Derzeit unterstützten wir ChatGPT von OpenAI in den Versionen 3.5 und 4.0 sowie 4.0 PREVIEW.
Parameter | Default | Wertebereich | Bedeutung |
---|---|---|---|
Temperatur | 0 | 0-2 | Je "wärmer" diese Temperatur eingestellt wird, umso "kreativer" fallen die Antworten des Modells aus. Ein Wert von 0 erzeugt idR. deterministische Antworten, höhere Werte erzeugen zufälligere Antworten. Wird dieser Wert angepasst, sollte Top P auf 0 stehen. |
Top P | 0 | 0-1 | Steuert analog zur Temperatur die Abweichung innerhalb der Antworten. Dieser alternative Bewertungsweg (nucleus sampling) legt eine Prozentzahl fest, innerhalb derer eine Gewichtung ähnlicher Tokens stattfinden soll. Ein Wert von 0 erzeugt idR. deterministische Antworten, höhere Werte erzeugen zufälligere Antworten. 0.1 = 10% Wird dieser Wert angepasst, sollte die Temperatur auf 0 stehen. |
Presence Penalty | 0 | -2 - 2 | Steuert, wie häufig ein Begriff in einer Antwort vorkommen darf. Ein höherer Wert sorgt für stärkere (idR. thematische) Abweichungen innerhalb der Antwort. Siehe https://platform.openai.com/docs/guides/text-generation/parameter-details |
Frequency Penalty | 0 | -2 - 2 | Legt fest, wie häufig Begriffe innerhalb der Antwort wiederholt werden dürfen. Ein höherer Wert sorgt für weniger Wiederholungen innerhalb der Antwort. Siehe https://platform.openai.com/docs/guides/text-generation/parameter-details |
Weitere Modelle folgen.
Prompt Management
Alle prompt-basierten KI Funktionen werden durch die HUP auf ein geeignetes KI-Modell fest gelegt mit standard Prompts ausgestattet. Wir pflegen diese standard Prompts und passen diese an neue Modelle bzw. Gegebenheiten an.
Standard-Prompts können je Kunde angepasst oder vollständig überschrieben werden (auch das zu verwendende Modell).
Je Prompt werden verschiedene Parameter, abhängig vom gewählten Sprach-/KI-Modell unterstützt.
Text Kürzen
Die Aktion "Text Kürzen" kann im myContent Editor aufgerufen werden, und erlaubt es, einen Text auf eine Ziellänge zu kürzen. Folgeprompts werden unterstützt.
Instruktionen & Aktionen
Instruktion / Aktion | Bemerkung |
---|---|
ohne Absätze | Der Standard sieht vor, das das Modell die Absatzstruktur im Text auflösen oder verändern darf. Das sorgt dafür, dass die Kürzung näher an der Zielvorgabe liegt. |
Erhaltung der Absätze | Der Anwender kann die Kürzung auch unter Erhaltung der bisherigen Absatzstruktur vornehmen. Das Modell darf also nur innerhalb der Absätze kürzen. Das führt idR. dazu, dass die Zielvorgabe nicht genau erreicht werden kann. |
Aktionen | Hier können beliebige Folgeaktionen definiert werden, die in der Oberfläche angeboten werden. |
Swagger UI / WebServices
Die AI-Services können auch extern verwendet werden. Die Schnittstelle ist mit einer Swagger-UI dokumentiert. Zur Anmeldung wird das API Token des jeweiligen Mandanten verwendet.
→ https://ai-services.mycontent.online/swagger-ui/index.html#