Skip to main content

FAQ

Wie ausführlich sollte der Systemprompt für einen Bot sein?

Grundsätzlich gilt: Weniger ist oft mehr. Je komplexer der Systemprompt, desto länger werden auch die Generierungs- und Ladezeiten. Vor allem bei Audio- oder Voice-Bots ist ein kompakter Prompt entscheidend, um schnelle Reaktionszeiten zu gewährleisten.

Ein guter Ausgangspunkt ist eine einfache Rollenbeschreibung, z. B.:

„Du bist ein Bot, der folgende Aufgabe erfüllt …“

Darauf kann dann schrittweise aufgebaut werden, anstatt alles in einen umfangreichen Prompt zu schreiben.


Gibt es Zugriff auf die Kommunikation zwischen Nutzer*innen und dem Bot?

Das hängt sowohl von der Bot-Konfiguration als auch von geltenden Datenschutzbestimmungen ab. Technisch ist alles möglich – von:

  • keinem Zugriff (Dialoge sind flüchtig und nicht gespeichert) über
  • anonymisierte Auswertung (Aggregatdaten über viele Dialoge hinweg) bis hin zu
  • Einblick in Echtzeit (z. B. für Support- oder Trainingszwecke)

Welche Variante aktiv ist, wird durch die jeweilige Konfiguration und die Datenschutzrichtlinien festgelegt.


Wie sollten Funktionsname und Skill-ID bei Wenn-Dann-Regeln gewählt werden?

Skills sind Werkzeuge, die der KI bestimmte Fähigkeiten verleihen. Funktionsnamen (bzw. Auslöser) helfen der KI, das passende Werkzeug im Dialogkontext dynamisch zu wählen.

Skill-IDs sind eindeutige interne Bezeichnungen, über die:

  • ein Skill gezielt aktiviert oder deaktiviert werden kann,
  • die Nutzungshäufigkeit gemessen wird, oder
  • der Bot gezwungen werden kann, ein bestimmtes Werkzeug beim nächsten Durchlauf zu verwenden.

Klare, beschreibende Benennungen erhöhen die Nachvollziehbarkeit und Wartbarkeit.


Gibt es Beispiele für Wenn-Dann-Regeln?

Wenn-Dann-Regeln können sehr unterschiedlich sein – sie hängen stark vom gewünschten Verhalten ab. Wichtig: Eine Wenn-Dann-Regel wird nicht wie eine menschliche Sprachregel interpretiert, sondern mathematisch – als vektorbasiertes Signal, dessen Gewichtung je nach verwendetem LLM variieren kann.

Beispiel:

„Wenn der Nutzer über das Wetter spricht“ kann unterschiedliche Auslöser aktivieren, etwa bei Begriffen wie Wetter, Regen, Temperatur, oder Sonne.

Doch je nach Formulierung („Schneit es morgen?“ vs. „Wird es sonnig?“) kann das LLM unterschiedlich reagieren. Ein gutes Grundverständnis der LLM-Funktionsweise hilft, Wenn-Dann-Regeln präziser zu gestalten.


Können bestimmte Themen über Stoppwörter vorkonfiguriert werden?

Ja, Stoppwörter können individuell gepflegt werden, um zu verhindern, dass bestimmte Begriffe oder Inhalte in eine LLM-Anfrage gelangen.

Beispiele:

  • interne Projektnamen
  • vertrauliche Kundendaten
  • sensible Stichwörter

Da Stoppwörter sehr kontextabhängig sind, ist eine globale Vorbefüllung meist nicht sinnvoll. Die Pflege erfolgt projekt- oder organisationsspezifisch.


Sollte man lieber eine große Datenbank oder mehrere kleinere anlegen?

Das hängt vom Anwendungsfall ab:

  • Kleine, thematisch fokussierte Datenbanken ermöglichen schnellere Abfragen und können gezielt über Skills angesprochen werden.
  • Eine große Datenbank kann sinnvoll sein, wenn Inhalte stark zusammenhängen – sie kann aber längere Ausführungszeiten verursachen.

Empfehlung:

  • Maximal etwa 10 Skills pro Bot anlegen
  • Davon bis zu 3 aktive Skills gleichzeitig (gesteuert über Stages)

So bleibt die Balance zwischen Flexibilität, Geschwindigkeit und Übersicht erhalten.


Kann einem Dokument mehr als ein Auslöser zugeordnet werden?

Nicht direkt – nur durch Duplikation des Dokuments. Wenn ein Bot mit vielen komplexen Dokumenten arbeitet, empfiehlt sich die Nutzung der Engine-Erweiterung „DocSearch“.

Damit lassen sich:

  • Dokumente zentral verwalten,
  • gezielt über Wenn-Dann-Regeln ansprechen,
  • und Ergebnisse effizient vorfiltern.

So bleibt die Dokumentenbasis flexibel und skalierbar.


Was bedeutet es, wenn ein Dokument einen hohen Prozentsatz der Speicherkapazität nutzt?

Jeder Nutzer bzw. jede Instanz verfügt über ein festes Kontingent von 1.000 Speicherpunkten. Ein Dokument mit hohem Verbrauch weist auf große oder komplexe Inhalte hin.

Verwaltet wird die Speicherkapazität administrativ, z. B. durch Zuteilung zusätzlicher Punkte oder Bereinigung nicht benötigter Inhalte.


Was sind Platzhaltergeheimnisse?

Platzhaltergeheimnisse (Secrets) ermöglichen es, sensible Informationen sicher in Projekten zu verwenden. Diese Secrets können als Variablen (z. B. {API_KEY} oder {TOKEN}) in Backend-Anfragen eingebunden werden.

Das ist vor allem relevant, wenn ein Bot:

  • mit externen Systemen kommunizieren muss,
  • APIs Dritter nutzt, oder
  • sicherheitsrelevante Zugangsdaten verwalten soll.

Secrets werden verschlüsselt gespeichert und sind für den Bot-Laufzeitprozess abrufbar, aber nicht im Klartext sichtbar.


Wieso habe ich keinen Begrüßungsmodus?

Der Begrüßungsmodus wurde von der allgemeinen Startseite entfernt und ist nun im Logik-Editor unter dem Block Chat-Nachricht → Willkommensnachricht zu finden.


Wie gelangt man nach dem Schließen eines Overlays wieder zurück?

Overlays werden individuell vom Bot-Autoren gesteuert. Das Öffnen kann während eines Chats automatisch oder gezielt (z. B. durch einen Button) ausgelöst werden.

Nach dem Schließen über das „X“ kann das Overlay über denselben Trigger oder eine definierte Aktion wieder geöffnet werden. Diese Architektur bietet maximale Flexibilität beim Design von Bot-Interaktionen.


Wie melde ich mich in der reflact Engine an?

Der Einstieg erfolgt immer über das Reflectportal.com. Hier nutzt man die eigene E-Mail-Adresse zum Login und erhält im Regelfall einen Bestätigungscode per E-Mail. Alternativ kann die Anmeldung auch über einen QR-Code auf dem Smartphone erfolgen.

Nach erfolgreicher Authentifizierung sieht man die verfügbaren Mandanten und wählt dort reflact oder einen anderen aktiven Mandanten aus. Da die Engine mandantenübergreifend arbeitet, spielt diese Auswahl meist keine große Rolle.


Was ist der Unterschied zwischen Live- und Staging-System?

Nach dem Login erscheinen zwei Kacheln:

  • Live-System (Lila): für produktive oder freigegebene Projekte.
  • Staging-System (Grün): für neue oder experimentelle Funktionen.

Wichtige Hinweise:

  • Das Staging-System wird regelmäßig von Live überschrieben.
  • Inhalte dort sind nicht dauerhaft gespeichert.
  • Entwicklung sollte daher in der Regel auf Live erfolgen.

Das Staging-System dient zum Testen neuer Features, während Live die stabile Umgebung für Kundeneinsätze ist.


Was ist der Bereich „Meine Bots“?

Im Menüpunkt Meine Bots sind alle selbst angelegten Projekte und Bots des Nutzers zu finden. Hier kann man unabhängig experimentieren und neue Ideen ausprobieren.

In anderen Projekten kann der Projektzugriff geteilt werden, etwa mit Kolleginnen oder Kunden. Sichtbarkeit und Bearbeitbarkeit lassen sich individuell festlegen – etwa nur für den Ersteller oder für alle Mitglieder eines Projektes.


Wie lege ich einen neuen Bot an?

Im Bereich Meine Bots lässt sich ein neuer Bot schnell erstellen, indem man lediglich einen Namen vergibt. Beispiel: „Besserwissabot“.

Nach dem Anlegen öffnet sich die Konfigurationsseite, auf der:

  • die Bot-Aufgabe (Rollenbeschreibung und Verhalten) definiert wird,
  • und im Feld Bot-Instruktionen zentrale Informationen hinterlegt werden.

Diese Instruktionen entsprechen funktional einem Systemprompt und legen fest, wie der Bot interagiert.


Wie teste ich den Bot nach der Erstellung?

Über die Schaltfläche Bot öffnen kann der Chat gestartet werden. Beim ersten Start erscheint ein kurzer Hinweistext (Disclaimer), danach beginnt die Unterhaltung.

Sobald man im Chatfenster Änderungen an den Instruktionen oder der Begrüßung testet, werden diese automatisch beim Klick gespeichert.


Wo wird die Begrüßungsnachricht konfiguriert?

Die Willkommensnachricht war früher Teil der Bot-Aufgabe und wurde nun in Blockly ausgelagert. Du findet den Baustein im Logik Editor - Chat-Inhalte - Willkommensnachricht. Im Blockly kannst du per Dropdown definieren, ob die Willkommensnachricht KI definiert ist oder statisch.

Beispiel: Statt eines neutralen „Hallo“ kann der Bot mit einer Frage starten:

„Welchen Film findest du aktuell künstlerisch wertvoll?“

So kann der Dialog aktiv gestaltet werden.


Was bewirkt die Einstellung „Bot startet immer neu“?

Wenn diese Option aktiviert ist, beginnt der Bot bei Inaktivität von mehr als 5 Sekunden einen neuen Gesprächsverlauf. Das Verhalten ist insbesondere bei eingeloggten Nutzern sinnvoll, um Datenkonsistenz zu gewährleisten.

Empfehlung: Zu Beginn die Standardeinstellung beibehalten, bis das gewünschte Dialogdesign fest steht.


Welche Modelloptionen stehen zur Verfügung?

In der Konfiguration kann zwischen verschiedenen Modellen gewählt werden – abhängig vom System:

  • Live-System: Auswahl fester Modelle mit stabilen Parametern.
  • Staging-System: Zugriff auf aktuelle und experimentelle Modelle, darunter
    • OpenAI (bis einschließlich ChatGPT‑5)
    • DeepSeek
    • Llama
    • Mistral
    • GPT‑OSS 20B (lokales OpenAI-Modell für On‑Premise‑Umgebungen)

Die Option Temperatur beeinflusst, ob der Bot eher präzise oder kreativer antwortet.


Warum können sich Live- und Staging-Umgebungen unterscheiden?

Das Staging-System enthält regelmäßig Funktionen in Entwicklung, etwa neue Modelle oder verbesserte Interfaces. Live wird erst nach Stabilitätsprüfung aktualisiert.

Daher kann es zu unterschiedlichen Masken oder Optionen kommen. In Projekten mit Freigabecharakter sollte stets auf Live gearbeitet werden.


Wo finde ich die grundlegenden Bot-Einstellungen zusammengefasst?

Kurzüberblick:

  • Projekt erstellen oder bestehenden Bot in „Meine Bots“ öffnen
  • Bot-Aufgabe formulieren (Rolle und Verhalten)
  • Konfiguration anpassen (z. B. Modell und Temperatur)
  • Bot öffnen, um das Verhalten zu testen

Damit lässt sich ein vollständiger Bot innerhalb weniger Minuten aufsetzen und prüfen.


Wie erweitert man einen Bot mit Skills?

Nachdem ein Bot mit einer Persönlichkeit angelegt wurde, kann er durch Skills gezielt Wissen und Funktionen erhalten. Skills sind die zentrale Methode, um dem Bot Zugriff auf zusätzliche Informationen oder Werkzeuge zu geben.

Es gibt verschiedene Ansätze für die Wissensanbindung:

  • Retrieval Augmented Generation (RAG): Zusätzliche Informationen wie Dokumente werden dynamisch eingebunden.
  • Low Rank Adaption (LoRA): Modelle werden mit spezifischen Daten weiter trainiert, damit sie das Wissen dauerhaft behalten.

Reflact setzt primär auf RAG, da Informationen so einfacher und flexibler auszutauschen sind.


Wie werden Dokumente als Skill eingebunden?

Unter „Dokumente“ kann man Dateien wie PDF, DOCX, JPEG hochladen. Nach dem Upload sind sie Teil des Wissenspools und einsehbar als automatisch generiertes Markdown.

Wichtig:

  • Jedem Dokument sollte eine Skill-ID zugeordnet werden (z. B. „lexikon_fiktiv“), um es intern zu erkennen.
  • Damit ein Dokument als Skill aktiv ist, muss es explizit eingeschaltet werden.
  • Für die Nutzung muss ein Auslöser festgelegt werden – z. B. wenn ein Teilnehmer nach einem bestimmten Begriff fragt.
  • Dokumente, die eine Glossarfunktion erfüllen (z.B. Erklärung von Abkürzungen) sollten besser als Datenbank angelegt werden, da dies eine bessere Findbarkeit garantiert.

Was ist beim Umgang mit Datenbanken in Skills zu beachten?

Datenbanken sind ideal für Schlüsselbegriffe, z. B. Glossare oder Nachschlagewerke. Sie lassen sich als eigene Skills mit spezifischer Skill-ID anlegen.

Für jeden Eintrag kann ein Suchschlüssel (Fachbegriff) festgelegt werden. Das Auslösekriterium ist oft der Zweck der Datenbank, beispielsweise „Nachschlagewerk für Fachbegriffe“.

Dokumente eignen sich besonders für Fließtexte; Datenbanken sind besser für gezielte Einträge und Suchabfragen.


Wie funktionieren Online-Quellen als Skill?

Online-Quellen werden als Skills angebunden, indem man eine URL hinterlegt und einen Auslöser definiert (z. B. „Frage zur Reflect AI Engine“). Der Inhalt wird bei Bedarf live abgerufen und dem Bot bereitgestellt.

Wichtig:

  • Skill-ID und Funktionsname müssen vergeben werden.
  • Mit aktiviertem Debug-Modus (z. B. über ?debug=true) können Details zu Auslösung und zu geladenen Informationen geprüft werden.
  • Online-Quellen sind flexibler, können aber langsamer als Offline-Quellen sein.

Was sind Offline-Websites als Skill und wie werden sie eingebunden?

Offline-Websites werden über ihre HTTP-URL eingebunden und lokal als Markdown gespeichert. Man kann die Webseite zwei Ebenen tief crawlen, Unterseiten einsehen und gezielt Informationen filtern.

Auch hier gilt:

  • Skill-ID festlegen,
  • Auslösekriterium angeben (z. B. „Infos über Reflect AG“),
  • Funktionsname und Aktivierung steuern.

Die Inhalte sind lokal abrufbar und können direkt im Dialog genutzt werden.


Wie unterscheiden sich die vier Wissensquellen für Skills?

Es gibt vier Hauptquellen, um Skills zu definieren:

  • Dokumente: Gut für längeren Fließtext oder Beschreibungen.
  • Datenbanken: Geeignet für präzise Begriffsdefinitionen oder Schlüsselwörter.
  • Online-Quellen: Dynamische Infos von Webseiten (bei Fragen zur Seite oder aktuellen Daten).
  • Offline-Websites: Schneller Zugriff auf vorab gespeicherte Webinhalte (Markdown).

Alle Quellen besitzen:

  • eine Skill-ID,
  • (De-)Aktivierungsmöglichkeiten,
  • und eine klare Definition des Auslösekriteriums.

Was sind Wenn-Dann-Skills und wie werden sie genutzt?

Mit einem Wenn-Dann-Skill können gezielt Events und Aktionen im Bot-Dialog ausgelöst werden. Beispiel: „Wenn Teilnehmer zugibt, dass Star Wars toll ist, dann antworte mit Lob und nutze das Wort Botzblitz.“

Hierzu wird:

  • ein Auslöser für das erkannte Ereignis definiert,
  • die gewünschte Aktion (Text, Code, Stagewechsel) festgelegt,
  • eine passende Skill-ID vergeben.

Wenn-Dann-Regeln sind universell und helfen, zentrale Situationen oder Nutzerwünsche dynamisch zu erkennen und darauf zu reagieren.


Was ist der Logik-Editor und wie funktioniert Blockly?

Der Logik-Editor nutzt sogenannte Blocklies (Blockly-Elemente), die als Bausteine für die Bot-Logik dienen. Man zieht gewünschte Bausteine auf eine Arbeitsfläche und kann rechts eine Vorschau laden.

Typisch ist der Einsatz von Aktionen wie „Wait for Initial Idle“, womit gewartet wird, bis der Bot bereit ist, bevor die nächsten Schritte ausgelöst werden.


Welche Typen von Chat-Inhalten gibt es im Logikeditor?

Im Logik-Editor stehen verschiedene Inhaltselemente unter **Chat-Inhalte ** zur Verfügung:

  • Bot-Nachricht: Eine direkte Ausgabe im Chat, z. B. Frage nach favorisierten Filmen.
  • Prompt senden: Ein vom System gesendeter Input, der wie eine Nutzereingabe verarbeitet wird (z. B. Vorschläge für Klassiker).
  • Versteckte Nachricht: Eine unsichtbare Info, die das Verhalten des Bots bei der nächsten Nutzereingabe steuert (z. B. Anrede als „Meister Jedi“).
  • Willkommensnachricht: Eine statische oder dynamische Ansprache, die nur beim ersten Start des Bots zum Einsatz kommt.

Diese Elemente lassen sich frei kombinieren und beeinflussen die Interaktion zwischen Bot und Nutzer.


Wie werden Bilder im Logikeditor eingebunden?

Mit dem Bild-Baustein können visuelle Inhalte wie Poster hochgeladen und direkt im Chat angezeigt werden. Nach dem Upload (z. B. eines Star Wars-Plakats) wird das Bild einer internen Skill-ID zugewiesen und steht zur Auswahl.

Bilder lassen sich als Einstieg oder zur Illustration nutzen und können mit anderen Chat-Inhalten kombiniert werden.


Wie nutze ich den HTML-Baustein?

Der HTML-Baustein ermöglicht die Ausgabe von formatiertem Text (z. B. Überschriften, Fettung) direkt im Chat. Tags wie <b> oder beliebige andere HTML-Elemente können verwendet werden, um dem Nutzer strukturierte Inhalte anzuzeigen.

Die so generierte HTML-Ausgabe erscheint zusammen mit weiteren Nachrichten im Bot-Verlauf.


Wie werden Buttons integriert und verwendet?

Über den Button-Baustein lassen sich interaktive Schaltflächen an beliebiger Stelle im Dialog platzieren. Buttons können kopiert und mehrfach verwendet werden, etwa als Auswahl „Star Wars“ oder „anderer Film“.

Jeder Button kann eine eigene Aktion auslösen, sei es ein Prompt, ein Bild, eine spezielle Nachricht oder weitere Bot-Logik.


Was tun bei Reihenfolgeproblemen im Logikablauf?

Bots führen Aktionen meist linear aus, aber parallele Abläufe können die Reihenfolge beeinflussen. Wichtige Bausteine sind „Wait for Initial Idle“ und „Wait for Next Idle“, damit Schritte exakt nacheinander ausgeführt werden.

So wird sichergestellt, dass versteckte Nachrichten, Prompts und Bot-Ausgaben wie gewünscht im Dialog erscheinen.


Wie werden Logik-Editor-Elemente ein- und ausgeblendet?

Bausteine im Editor lassen sich mit Rechtsklick deaktivieren oder ausblenden. Nach dem Speichern sind ausgeblendete Nachrichten oder Inhalte im Bot-Dialog nicht mehr sichtbar oder aktiv.

Damit bleibt die Dialogstruktur flexibel und schnell anpassbar.


Wie werden Bild und Effekte im Wenn-Dann-Editor genutzt?

Auch im Bereich Wenn-Dann kann der Logikeditor verwendet werden, um Aktionen und Effekte zu hinterlegen. Beispiel: Nach dem Upload eines „Thumb Up“-Bildes erscheint bei spezifischem Auslöser (z. B. „Star Wars ist toll“) das Bild, eine Confetti-Animation und die Bot-Nachricht „Du bist ein wahrer Kenner“.

Skills wie Bilder oder Effekte werden mit einer eigenen Skill-ID versehen und lassen sich jederzeit bearbeiten, verschieben oder löschen.


Was ist beim Arbeiten mit dem Logikeditor zu beachten?

Zwischen Global-Logik und Wenn-Dann-Logik kann frei gewechselt werden. Wichtig ist, Änderungen nach jedem Schritt zu speichern, da sonst Anpassungen verloren gehen.

Der Logikeditor bildet das Herz der Bot-Programmierung und steuert sowohl die initiale Begrüßung als auch spezifische Events.


Was sind Overlays und wie werden sie im Logikeditor eingesetzt?

Overlays sind spezielle Dialogelemente, die als Popup angezeigt werden und Interaktionen wie Fragen, Buttons oder Eingaben enthalten können. Sie lassen sich einfach zwischen bestehende Logikbausteine einfügen, etwa um eine Frage prominent zu stellen („Welchen Film halten Sie für künstlerisch wertvoll?“).

Overlays bleiben bis zur gewünschten Aktion aktiv und können gezielt durch einen extra Baustein („Overlay schließen“) beendet werden.


Können Overlays mit Buttons kombiniert werden?

Ja, Overlays können mehrere Buttons enthalten (z. B. Auswahl zwischen Episoden). Jeder Button kann eine eigene Aktion auslösen, etwa das Schließen des Overlays und das Senden eines Prompts („Star Wars ist toll“). Der Button kann auch ein neues Overlay öffnen, welches das bestehende dann überschreibt. Es gibt immer nur ein aktives Overlay (Aktivierung eines neuen Overlays "schließt" das vorhandene Overlay).

Die Overlays können individuell benannt und die Button-Aktionen angepasst werden – es gibt aber immer nur ein aktives Overlay.


Wie werden Nutzereingaben im Overlay verarbeitet?

Overlays können ein Eingabefeld für den Nutzer enthalten, etwa zum Vorschlagen eines Filmtitels. Nach dem Eingeben sendet ein Button („Absenden“) die Eingabe ab und schließt das Overlay.

Um die Eingabe weiterzuverarbeiten, wird ein Zusatzbaustein eingebunden, der die Nutzereingabe als Prompt an den Bot sendet.


Was ermöglicht der Textverbinder im Logikeditor?

Der Textverbinder ist ein flexibler Baustein, um verschiedene Inhalte zu einem zusammenhängenden Prompt zu verbinden. Beispiel: Der Text „Mein gewählter Film ist: “ wird mit der Nutzereingabe kombiniert und zusammen an den Bot übergeben.

Es lassen sich beliebig viele Textbausteine miteinander verknüpfen und auch wieder lösen, um komplexe Eingaben oder Informationen an den Bot zu senden.


Wie kann der Kontext eines Begriffs über Skills gesteuert werden?

Skills ermöglichen es, dem Bot zusätzliches Wissen für verschiedene Kontexte bereitzustellen (z. B. Sport, Wirtschaft, Alltag). Jeder Skill verfügt über einen Auslöser, eine interne ID sowie eine Aktivierungsmöglichkeit und kann einzeln ein- oder ausgeschaltet werden.

So kann der Bot flexibel unterschiedliche Definitionen eines Begriffs liefern – je nachdem, welcher Kontext-Skill gerade aktiv ist.


Wie kann der Nutzer den Kontext jederzeit wechseln?

Durch Einbindung eines Wenn-Dann-Skills lässt sich ein Overlay an beliebiger Stelle im Dialog erscheinen:

  • Der Nutzer erhält erneut die Kontext-Auswahl (Sport, Wirtschaft, Alltag).
  • Die Auswahl schaltet den relevanten Skill an und alle anderen aus.
  • Die Änderung wird sofort wirksam und bleibt für nachfolgende Fragen erhalten.

So bleibt der Dialog immer im gewünschten Kontext, bis der Nutzer einen Wechsel wünscht.


Warum ist das gezielte (De-)Aktivieren von Skills hilfreich?

Das aktive Management von Skills:

  • reduziert das Risiko unerwünschter Halluzinationen,
  • verhindert, dass das Large Language Model auf unpassende oder zu breite Wissensquellen zugreift,
  • und sorgt dafür, dass Begriffe im exakten Anwendungsrahmen erklärt werden.

Setze Skills nur dann aktiv, wenn sie im aktuellen Gesprächskontext gebraucht werden – und deaktiviere sie, wenn der Kontext wechselt.


#####6


Was sind Variablen in der Reflact AI Engine?

Variablen sind Datenfelder, mit denen der Bot gezielt Nutzerinformationen erfassen und weiterverarbeiten kann – z. B. Name, E-Mail oder persönliche Vorlieben. Sie werden im Logik-Editor („Wenn dann“-Bereich) angelegt und jeweils mit einem Typ (z. B. Text) und ggf. „optional“ gekennzeichnet.

So lassen sich relevante Informationen aus dem Gespräch abgreifen und für Folgeschritte verwenden.


Wie werden Variablen mit Nutzereingaben befüllt?

Im Dialog fragt der Bot gezielt nach bestimmten Daten (z. B. „Wie lautet dein Name?“). Sobald die Informationen im Gespräch erkannt werden, werden die Variablen automatisch gefüllt und stehen anderen Bausteinen oder Nachrichten zur Verfügung.

Die Ausgabe kann etwa über einen Textverbinder zusammen mit festen Texten als Bot-Nachricht visualisiert werden.


Wo sieht man, dass das Auslesen von Variablen funktioniert?

Eine typische Logik ist:

  • Bot fragt nach Name und E-Mail-Adresse.
  • Nach erfolgreicher Eingabe werden die Variablen befüllt.
  • Das Wenn-dann-Element löst eine sichtbare Aktion aus (z. B. Confetti-Animation, Dankesnachricht mit Namen und E-Mail).

Variablen können in Bot-Nachrichten zusammen mit festen Inhalten angezeigt und überprüft werden.


Müssen Variablen immer direkt durch den Nutzer gefüllt werden?

Nein, Variablen können auch automatisch aus der Antwort des Large Language Models befüllt werden. Beispiel: Wird nach einem Cocktail gefragt, kann das Modell Name, alkoholische und nicht-alkoholische Anteile selbstständig erkennen und hinterlegen, auch wenn dazu keine strukturierte Nutzereingabe erfolgt.

Dadurch lassen sich flexible Dialoge und intelligente Datenverarbeitung kombinieren – Informationen kommen entweder aus Nutzereingaben, dem LLM oder aus externen Skills.


Was sind typische Anwendungsfälle für Variablen?

  • Nutzeridentifizierung (Name/E-Mail abfragen)
  • Präferenzen speichern (z. B. Lieblingscocktail)
  • Rückgabe strukturierter Auskünfte aus Skills oder LLM
  • Dynamisches Ansprechen oder Zwischenspeichern von Nutzerinformationen im Dialogverlauf

Variablen sorgen für individuell angepasste Dialoge und ermöglichen eine gezielte Weiterverarbeitung von Nutzerdaten innerhalb des Bots.


Was sind Stages in der Reflact AI Engine?

Stages sind Abschnitte oder Phasen eines Bots, die unabhängig voneinander existieren und jeweils eigene aktive Skills enthalten können. Sie helfen dabei, den Bot modular zu strukturieren und komplexe Dialoge übersichtlich zu gestalten.

Stages werden im Stage Manager angelegt, nummeriert und sortiert, um die Reihenfolge zu bestimmen.


Wie werden Skills in Stages verwaltet?

Innerhalb einer Stage kann genau definiert werden, welche Skills aktiviert sind. Beim Betreten einer Stage werden automatisch alle anderen Skills deaktiviert, sodass nur die relevanten Werkzeuge zur Verfügung stehen.

Dieses automatische Management erspart manuelles Aktivieren und Deaktivieren von Skills im Dialogverlauf.


Wie wird in einer Stage die Kontext-Auswahl umgesetzt?

Über den Logik-Editor wird für die Stage „Auswahl“ ein Overlay mit Buttons (z. B. Sport, Wirtschaft, Alltag) gebaut. Diese Buttons schließen das Overlay, wechseln per Blockly-Element die Stage und aktivieren die jeweiligen kontextspezifischen Skills.

So bleibt die Auswahl für den Nutzer einfach und der Bot führt automatisch den passenden Skill aus.


Wie funktioniert der Stage-Wechsel bei Nutzeranfragen?

Durch ein Wenn-Dann-Event erkennt der Bot, wenn der Nutzer den Kontext wechseln möchte. Dann wird per Code-Aktion (Blockly) die Stage gewechselt (z. B. zurück zu „Auswahl“), Skills werden angepasst und der Bot kann die Frage erneut im neuen Kontext beantworten.

Dadurch wird ein nahtloser Kontextwechsel im Dialog gewährleistet.


Gibt es alternative Wege, Stages auszuwählen?

Ja, statt eigener Overlays kann die Blockly-Funktion „Stage Auswahl im Overlay“ genutzt werden. Diese zeigt automatisch alle sichtbaren Stages als Buttons an, aus denen der Nutzer wählen kann.

Um bestimmte Stages auszublenden, bietet der Stage Manager die Funktion „Stage verbergen“, sodass nur relevante Stages erscheinen.


Was sind die Vorteile der Verwendung des Stage-Managers?

  • Klare Strukturierung des Bots in logisch getrennte Abschnitte
  • Einfaches Aktivieren und Deaktivieren von Skills pro Stage
  • Wiederverwendbarkeit von Skillsets
  • Vereinfachte Pflege komplexer Dialoge
  • Flexibler und dynamischer Kontextwechsel für den Nutzer

Das System macht Bot-Management effizienter und reduziert Fehler durch manuelle Skillsteuerung.


Wie importiere ich einen Bot?

Wenn Sie bereits in einem Bot unter 'Einbetten' diesen als ZIP exportiert haben, können Sie auf die Hauptseite zurückkehren und in das Projekt wechseln, in dem der Bot importiert werden soll. Sie finden die Import-Funktion neben dem Namen des Projektes und dem Button zum Erstellen eines neuen Bots.


Wie kann ich Variablen in der reflact AI-Engine verwenden und wofür sind sie geeignet?

Variablen in der reflact AI-Engine dienen dazu, während der Ausführung eines Bots temporär Informationen zu speichern und weiterzuverarbeiten.

Im Logik-Editor kannst du Variablen anlegen, um Nutzereingaben oder Zwischenergebnisse zu erfassen. Typische Anwendungsfälle sind:

  • Sammeln von Antworten aus Overlays (z. B. Thema, Zielgruppe, Format)
  • Zwischenspeichern von Werten, um sie später in Prompts oder Abfragen zu verwenden

Beachte:

  • Variablen stehen nur während der aktuellen Bot-Session zur Verfügung.
  • Nach Beenden oder Neustart des Bots werden die Werte der Variablen gelöscht.
  • Variablen sind für Administratoren nicht sichtbar, da sie ausschließlich zur Laufzeit existieren.

Beispiel:

In einem Bot werden nacheinander die Werte für Thema, Zielgruppe und Format als Variablen gespeichert und anschließend gemeinsam in einen Prompt eingefügt.


Was ist der Key-Value Store in der reflact AI-Engine und wie funktioniert er?

Der Key-Value Store ermöglicht es, Werte dauerhaft oder sessionübergreifend für einen Nutzer im Bot zu speichern.

Im Bereich Nutzerwerte kannst du festlegen, welche Informationen gespeichert werden. Die wichtigsten Eigenschaften:

  • Werte werden unter einem frei wählbaren Schlüssel (z. B. „prompt“) abgelegt.
  • Durch ein führendes Ausrufezeichen (z. B. !prompt) wird der Wert über die aktuelle Session hinaus gespeichert.
  • Die Werte sind für eingeloggte Nutzer dauerhaft verfügbar und können auch in späteren Sessions oder von Administratoren eingesehen werden.

Vorteile:

  • Persistente Speicherung von Daten wie Themen, Zusammenfassungen oder Nutzerpräferenzen.
  • Ermöglicht das Teilen von Informationen zwischen Sessions und perspektivisch auch zwischen verschiedenen Bots eines Projekts.

Beispiel:

Wird ein Prompt unter !prompt gespeichert, kann er beim nächsten Bot-Start erneut verwendet werden. Im Bereich Nutzerwerte lässt sich der gespeicherte Wert für einen bestimmten Nutzer einsehen.


Wie unterscheiden sich Variablen und Key-Values in der reflact AI-Engine?

Variablen und Key-Values unterscheiden sich im Wesentlichen hinsichtlich ihrer Lebensdauer und Sichtbarkeit:

  • Variablen

    • Existieren nur während der aktuellen Bot-Session.
    • Sind nicht für Administratoren sichtbar.
    • Eignen sich für temporäre Zwischenspeicherung im laufenden Dialog.
  • Key-Values

    • Können durch ein führendes Ausrufezeichen (!) sessionübergreifend gespeichert werden.
    • Sind im Bereich Nutzerwerte einsehbar.
    • Ermöglichen die dauerhafte Speicherung und spätere Wiederverwendung von Nutzerinformationen.

Zusammengefasst: Nutze Variablen für kurzfristige Aufgaben innerhalb einer Session und Key-Values für alles, was nachhaltig gespeichert oder später ausgewertet werden soll.


Wie kann ich gespeicherte Key-Values wiederverwenden oder einsehen?

Gespeicherte Key-Values findest du im Navigationspunkt Nutzerwerte. Dort kannst du für jeden eingeloggten Nutzer die gespeicherten Schlüssel-Werte-Paare einsehen und bei Bedarf weiterverwenden.

  • Werte mit führendem Ausrufezeichen (!) sind für nachfolgende Sessions verfügbar.
  • Du kannst diese Werte im Bot-Flow erneut abrufen und für individuelle Nutzer personalisierte Abläufe gestalten.

Hinweis: Für anonyme Nutzer wird eine Nutzerkennung verwendet, eingeloggte Nutzer werden namentlich geführt.


Wie setze ich in der reflact AI-Engine einen Prompt aus mehreren Variablen zusammen?

Im Logik-Editor kannst du mit dem Baustein „Text verbinden“ mehrere Variablen und feste Textteile zu einem vollständigen Prompt kombinieren.

Vorgehen:

  1. Sammle die benötigten Informationen als Variablen (z. B. Thema, Zielgruppe, Format).
  2. Ziehe den Baustein „Text verbinden“ in deinen Flow.
  3. Füge die Variablen und festen Textteile in der gewünschten Reihenfolge zusammen.
  4. Übergebe den zusammengesetzten Text an den gewünschten Prompt-Baustein.

Beispiel:

„Nutze die folgenden Angaben, um einen Text zu erstellen: Thema und Ziel: [Thema] Zielgruppe: [Zielgruppe] Format und Ton: [Format] Anforderungen: Halte dich strikt an Format und Länge, verwende klare Sprache …“

So kannst du flexibel und dynamisch Prompts generieren, die auf Nutzereingaben basieren.


Was ist der Fusion-View in der reflact AI-Engine und wie funktioniert er?

Fusion-View ist eine kombinierte Ansicht in der reflact AI-Engine, die interaktiven Content (z. B. Videos oder Web-Based Trainings) auf der linken Seite und den Bot auf der rechten Seite integriert.

Im Navigationspunkt Fusion-View kannst du verschiedene Content-Typen wie YouTube, Vimeo, HTML, Captivate, Rise, Storyline oder Miro einbinden. Beide Seiten – Content und Bot – können sich gegenseitig beeinflussen: Der Content kann vom Bot gesteuert werden (z. B. Video abspielen, pausieren, springen) und umgekehrt kann der Content Ereignisse an den Bot senden.

Typische Anwendungsfälle:

  • Steuerung eines Videos durch Bot-Aktionen (Start, Pause, Springen zu Zeitpunkten)
  • Anzeigen von Overlays oder Zusatzinfos synchron zum Content
  • Reaktion des Bots auf bestimmte Ereignisse im Content (z. B. erreichte Zeitmarken)

Beispiel:

Im Fusion-View kannst du bei Erreichen einer bestimmten Sekunde im Video automatisch eine Bot-Nachricht oder ein Overlay anzeigen lassen.


Wie richte ich einen Fusion-View für YouTube-Videos ein?

Im Navigationspunkt Fusion-View kannst du einen neuen Fusion-View anlegen und einen YouTube-Link einbinden.

Vorgehensweise:

  1. Erstelle im Projekt einen neuen Bot oder wähle einen bestehenden Bot aus.
  2. Wechsle zum Reiter Fusion-View.
  3. Gib einen Titel für den Fusion-View ein.
  4. Wähle als Typ „YouTube“ und füge den Link zum gewünschten Video ein.
  5. Klicke auf „Verwenden“, um das Video einzubinden.
  6. Passe die Grundeinstellungen wie Autostart, Loop oder Anzeigeoptionen nach Bedarf an.

Hinweis: Jeder Fusion-View besitzt einen eigenen Logik-Editor, in dem du spezifische Aktionen und Reaktionen für diesen View festlegen kannst.


Wie steuere ich YouTube-Videos im Fusion-View per Bot-Logik?

Im Logik-Editor des Fusion-Views findest du unter „Bot-Ansichten“ spezielle Blocklys für die Steuerung von YouTube-Videos.

Mögliche Steuerungsaktionen:

  • Play: Startet das Video.
  • Pause: Hält das Video an.
  • Stop: Stoppt das Video.
  • Springe zu [Zeit]: Springt zu einer bestimmten Zeitmarke im Video.

So setzt du eine Steuerung um:

  1. Füge einen Button im Overlay ein, z. B. „Start“.
  2. Ziehe den gewünschten Blockly-Befehl (z. B. „YouTube Play“) in die Logik des Buttons.
  3. Bei Klick auf den Button wird das Video entsprechend gesteuert.

Beispiel:

Ein Button „Start“ löst per Blockly den Befehl „YouTube Play“ aus und startet das Video im Fusion-View.


Wie kann ich zeitbasierte Ereignisse im Fusion-View nutzen?

Ereignisse ermöglichen es, auf bestimmte Zeitpunkte oder Zustände im eingebetteten Content zu reagieren.

Typische Nutzung:

  • Definiere im Logik-Editor ein Ereignis (z. B. „Bei 12 Sekunden“).
  • Verknüpfe mit dem Ereignis eine Bot-Aktion, wie das Einblenden einer Nachricht oder eines Overlays.

Wichtige Hinweise:

  • Ereignisse wie „genau bei [Sekunde]“ werden nur einmal zum angegebenen Zeitpunkt ausgelöst.
  • Die Optionen „vor“ oder „nach“ können dazu führen, dass Aktionen mehrfach oder fortlaufend ausgelöst werden – dies sollte gezielt eingesetzt werden.

Beispiel:

Bei Erreichen von 7 Sekunden im Video wird das Video pausiert und ein Overlay mit einer Frage eingeblendet.


Wie kann ich Overlays im Fusion-View anzeigen und steuern?

Overlays sind interaktive Elemente, die im Fusion-View eingeblendet werden können – entweder über den Bot-Bereich oder den kompletten Fusion-View.

Vorgehensweise:

  • Im Logik-Editor kannst du Overlays erstellen und definieren, ob sie nur den Chat-Bereich oder den gesamten Fusion-View überdecken sollen.
  • Overlays können Fragen, Buttons oder andere Interaktionen enthalten.
  • Nach Abschluss der Interaktion sollte das Overlay mit „Overlay Close“ geschlossen werden.
  • Aktionen wie das Fortsetzen des Videos können an die Button-Interaktionen im Overlay geknüpft werden.

Beispiel:

Bei 7 Sekunden pausiert das Video, ein Overlay fragt „Konnten Sie sich einloggen?“, und nach der Antwort wird das Overlay geschlossen und das Video fortgesetzt.


Wie kann ich die aktuelle Position des YouTube-Videos im Fusion-View ausgeben?

Im Bereich „Bot-Ansichten“ findest du den Blockly-Befehl „Position“, mit dem du die aktuelle Zeitposition des YouTube-Videos abfragen und im Bot ausgeben kannst.

So funktioniert es:

  1. Ziehe den Blockly-Befehl „Position“ in einen Textverbinder oder eine Bot-Nachricht.
  2. Die aktuelle Sekunde des Videos wird dynamisch angezeigt.

Beispiel:

Nach einer Interaktion gibt der Bot aus: „Das Video ist gerade bei folgender Position: 8“.


Worauf sollte ich beim Einsatz mehrerer Logik-Editoren im Fusion-View achten?

Jeder Fusion-View hat einen eigenen Logik-Editor (Fusion-View-Logik), zusätzlich zum globalen JS Global (JavaScript Global).

Empfehlung: Vermeide konkurrierende Logiken in beiden Editoren, da Aktionen sonst mehrfach oder unerwartet ausgeführt werden können. Es ist ratsam, möglichst nur einen Logik-Editor pro Interaktion zu nutzen – bevorzugt den Fusion-View-Logik-Editor für alle spezifischen Steuerungen dieses Views.


Wo finde ich die speziellen Blocklys für Fusion-Views und wie sind sie organisiert?

Alle spezifischen Blocklys für Fusion-Views findest du im Logik-Editor unter dem Bereich „Bot-Ansichten“. Die Blocklys sind nach Art des Fusion-Views (z. B. YouTube, Vimeo, HTML) strukturiert und bieten jeweils passende Steuerungs- und Ereignisblöcke.

Vorgehen:

  • Öffne im Logik-Editor die Kategorie „Bot-Ansichten“.
  • Wähle die Unterkategorie passend zum jeweiligen Fusion-View-Typ.
  • Ziehe die benötigten Blocklys für Steuerung, Ereignisse oder Positionsabfragen in deine Logik.

Wie kann ich den Bot dazu bringen, mir eine E-Mail zu senden oder mich aktiv zu informieren?

Die reflact AI-Engine verfügt über keine integrierte Funktion zum selbstständigen E-Mail-Versand.
Um Benachrichtigungen per E-Mail oder andere aktive Informationen zu erhalten, muss ein externer Dienst eingebunden werden.

Dies erfolgt über einen Webhook, den du im Bereich Skills > Webhooks anlegen kannst. Dabei gehst du wie folgt vor:

  1. Navigiere zu Skills und wähle dort Webhooks aus.
  2. Lege einen neuen Webhook an, indem du einen Namen, die Ziel-URL (z. B. für Google Mail, einen internen Mail-Dienst oder einen individuellen Service) sowie – falls erforderlich – ein Secret hinterlegst.
  3. Speichere den Webhook.

Anschließend kannst du im Logik-Editor gezielt auf diesen Webhook zugreifen.
Hierzu definierst du die gewünschten Werte (Value 1, 2, 3 etc.), die beim Aufruf des Webhooks übertragen werden sollen, beispielsweise Empfängeradresse, Betreff oder Nachrichtentext.

Beispiel:
Im Logik-Editor kann eine Wenn-Dann-Regel erstellt werden, die beim Eintreten eines bestimmten Ereignisses den eingerichteten Webhook aufruft und so eine E-Mail an den gewünschten Empfänger versendet.

Wichtiger Hinweis:
Der E-Mail-Versand ist keine Standardfunktion der reflact AI-Engine und muss immer über einen externen Webhook realisiert werden.

Sollten beim Konfigurieren eines Webhooks Probleme auftreten, kontaktiere bitte das Special Force Team.


Wo finde ich den internen reflact-Mail-Webhook und wie nutze ich ihn?

Für interne Zwecke steht ein vereinfachter reflact-Mail-Webhook zur Verfügung.

Die Zugangsdaten für den Webhook bitte bei SPF erfragen und dann das interne Blockly nutzten. Dieses findest du unter Skills > Helfer Mail.
Mit diesem internen Webhook kannst du auf einfache Weise E-Mail-Benachrichtigungen (Text only) auslösen, ohne einen externen Dienst konfigurieren zu müssen.

Tipp:
Nutze den internen reflact-Mail-Webhook, wenn du ausschließlich innerhalb der reflact-Infrastruktur Benachrichtigungen per E-Mail verschicken möchtest.


#########