FAQ – Häufig gestellte Fragen
Rund ums Spielen
Ich will mein Spiel spielen: Muss ich meinen API-Key kaufen und mitbringen?
Wenn du keinen Sponsor-Link hast oder deine Workshopleitung einen Key bereitstellt, ja. Ansonsten kannst du den Key deiner Organisation/des Workshops nutzen.
Ich will das Spiel von jemand anderem bearbeiten. Geht das?
Möchte man das Spiel eines anderen bearbeiten oder teilen, kann das Spiel kopiert werden. Kopierte Spiele sind dann die eigenen und der API-Key des Originals wird nicht mitkopiert. Man benötigt also einen eigenen Key (ggf. Über die Einrichtung), um das kopierte Spiel zu spielen.
Was bedeutet Spiel sponsoren?
Es gibt die Möglichkeit, selbst erstellte Spiele zu sponsoren. Dabei wird ein (eigener) API-Key ausgewählt, den andere Accounts dann nutzen, um das Spiel zu spielen. Das bedeutet, dass der Sponsor bzw die Besitzerin des API-Keys für die Nutzung des Keys zahlt, egal wie viele Accounts das Spiel spielen – so lange, bis der Ersteller/Sponsor die Funktion wieder deaktiviert.
Das funktioniert über einen “Sponsoren”-Button im Spiel-Erstellen-Menü.
Kann ich Spiele mit API-Key teilen?
Selbst erstellte Spiele können auch geteilt werden. Dabei wird ein Link erstellt, der dann an andere Nutzer*innen oder auch Menschen ohne Account geschickt werden kann. Wenn dabei ein API-Key festgelegt wird, kann das Spiel über den Link gespielt werden, ohne dass Spieler*innen einen eigenen API-Schlüssel brauchen. Es lässt sich einstellen, ob das Spiel beliebig oft neu gestartet, aufgerufen und gespielt werden kann oder nur eine bestimmte Anzahl Aufrufe zur Verfügung steht.
Auch hierbei gilt: die Besitzer*in des API-Schlüssels zahlt, wenn das Spiel über den Schlüssel gespielt wird.
Kann ich Spiele teilen ohne für den Key zu zahlen?
Wenn man nur das Spiel teilen möchte, ohne einen Schlüssel/API-Zugang mitzugeben, ist es auch möglich, keinen API-Schlüssel auszuwählen. Das bedeutet aber, dass jede*r Nutzer*in einen eigenen API-Key braucht, um das Spiel zu spielen – aber du zahlst auch nicht für die Spiele anderer.
Schnupperkey (perspektivisch)
(Perspektivisch: Schnupperkey: Mit Schnupperkey meine ich, dass wir (ChatGameLab) evt. etwas Finanzierung haben, dass jeder erst mal 1 Spiel kostenlos Bauen/spielen kann, bevor er nach Key gefragt wird. Dafür wäre es praktisch zu wissen, ob Play.ChatGameLab.eu wissen kann, wie viel Credits noch auf einem Key drauf sind.)
Keys Verifizieren
Keys für openAI verifizieren
- Um einen OpenAI API Key für das ChatGameLab nutzen zu können muss der Account verifiziert sein. Dafür braucht man als Individuum einen Ausweis und muss per Kamera Biometrische Daten angeben.
- Verifizierung unter: https://platform.openai.com/settings/organization/general
Keys für Mistral verifizieren
- Um einen Mistral AI API Key für das ChatGameLab nutzen zu können, muss ebenfalls ein Account vorhanden sein, der per Email verifiziert wurde. Ebenfalls benötigt Mistral (auch im Free Tier, also kostenlosen Angebot) Bezahldaten wie Kreditkarte o.Ä.
- Weitere Informationen: https://iamistral.com/api/#Step-by-Step_Getting_Your_Mistral_AI_API_Key_Authenticating
Welche technischen Voraussetzungen braucht das ChatGameLab?
- Eigentlich braucht ihr nur Geräte mit stabilem Internet, beispielsweise Laptops oder PCs mit WLAN. Ihr könnt das ChatGameLab aber auch auf dem Smartphone nutzen.
- Für die Sprachein- und ausgabe (Audio in, Audio out, in openAI-Qualitätsstufe Max) sind Kopfhörer/Headsets empfehlenswert, damit ihr euch nicht ggf. gegenseitig stört.
Welche KI-Modelle nutzt ChatGameLab?
OpenAI (api.openai.com):
Spiellogik: gpt-5.2 (Premium/Max), gpt-5.1 (Balanced), gpt-5-mini (Economy)
Übersetzung: gpt-5.1-codex
Text-to-Speech: gpt-4o-mini-tts
Bildgenerierung: gpt-image-1
Mehr Infos: https://developers.openai.com/api/docs/models
Mistral (api.mistral.ai):
Spiellogik: mistral-large-latest, mistral-medium-latest, mistral-small-latest
Übersetzung: mistral-small-latest
Kein TTS, Mistral
Mehr Infos: https://mistral.ai/models
KI-Phänomene
Wenn über Künstliche Intelligenz gesprochen wird, fallen häufig Begriffe wie Halluzinationen oder Prompt Injection – oder die Umschreibung davon, nämlich dass die KI Sachen verrät, die sie eigentlich nicht sagen/preisgeben dürfte oder sich Dinge ausdenkt. Doch was heißt das genau?
- Halluzinieren: “Halluzinationen im Zusammenhang mit KI beziehen sich auf von einem KI-Modell generierte Inhalte, die zwar realistisch erscheinen, aber von den vorgegebenen Quelleninputs abweichen. Man spricht von fehlender Übereinstimmung (faithfulness) oder mangelnder faktischer Richtigkeit (factualness).” (Siebert 2024)
- Prompt Injection: Manipulation der KI durch den Nutzer. Hierbei wird ein gezielt formulierter Prompt (also eine Anweisung) gegeben, der die KI dazu bringen kann, die eigenen Regeln und vorherigen Anweisungen zu ignorieren und stattdessen etwas anderes zu tun. Häufig geht es darum, vertrauliche Informationen herauszugeben. Prompt Injection kann zu Cyberangriffen genutzt werden. Wenn hingegen das Ziel ist, eigentlich verbotene Inhalte in die Interaktion einzubinden, z.B. Gewaltszenen, die diese KI lt. Jugendschutz-Richtlinien diese KI nicht ausgeben dürfte, spricht man von Jailbreaking. (vgl. Masbaum 2025)
- Sycophancy (oder: Sycophancy Bias): Tendenz einer KI, Nutzer*innen eher zuzustimmen, ihre Annahmen zu bestätigen und wenig zu widersprechen — selbst dann, wenn Zweifel angebracht wären. Die KI wirkt dadurch übermäßig gefällig oder zustimmungsorientiert, statt neutrale korrekte(-re) Angaben zu machen. Diese Tendenz kann zu Verzerrungen (bias) und Halluzinationen führen. (vgl. Zhao et al. 2025:2)
Jugendschutz
OpenAI gibt auf ihrer Webseite an, dass ihr Produkt ChatGPT ab 13 Jahren ist. Dafür haben sie bei ChatGPT ein Tool entwickelt, das anhand des Nutzerverhaltens das Alter schätzen soll. Im Zweifelsfall sollen jedoch die strengeren (ab 13 Jahren) Regeln gelten.
Mistral beruft sich auf die Einhaltung geltender Gesetze wie dem Digital Service Act, DGSVO und (deutschen) Jugendschutzbestimmungen sowie auf die enge Zusammenarbeit mit Jugendschutzbehörden. Der Mistral-Chatbot Le Chat antwortet auf die Frage, ab welchem Alter die Nutzung von Mistral-Produkten erlaubt sei, dass sich die Produkte an Menschen ab 16 Jahren richten.
Die API-Schnittstellen, die das ChatGameLab nutzt, können andere Richtlinien haben.
Im ChatGameLab gibt es für Organisationsleitungen organisationsweit und für Workshopleitungen in ihren Workshops die Möglichkeit, durch Prompteinschränkungen, also eigene Metaprompts, genauere, strengere Vorgaben zu machen. Beispielsweise Waffen komplett aus den Szenarien zu verbannen. Das bedeutet nicht, dass Spielende so etwas nicht mehr schreiben können oder keine Gewaltprompts schreiben können, doch die KI wird das im Spiel (höchstwahrscheinlich) nicht umsetzen.
Die KIs erlauben von sich aus nicht alles bzw. Machen nicht jede Handlung/Prompt möglich, aber mehr als z.B. lt. Deutschem Jugendschutz für ein Kind angemessen wäre. Daher wurde im ChatGameLab-Organisationen und –Workshops die Funktion Prompteinschränkung eingebaut. Diese Prompteinschränkung bzw. Der Metaprompt ist ein kurzer Prompt, der jede Runde erneut mitgeschickt wird und den normalen Prompt beeinflusst.
Um die voreingestellten Jugendschutzeinstellungen zu testen, haben wir im ChatGameLab mit einem OpenAI-Key ein paar Szenarien ausprobiert, in denen mal mehr mal weniger subtil Themen wie sexuelle Handlungen, Gewalt oder auch Depressionen thematisiert wurden. Teilweise haben wir in Workshops gesonderte Prompteinschränkungen verwendet, in anderen Tests nicht. Die genauen Jugendschutz-Tests samt Screenshots finden sich in unserer Handreichung.
Warnung: Wir können nicht zu 100% sicherstellen, dass die gewünschten Ergebnisse kommen und die Metaprompts immer eingehalten werden. Testet daher euren Workshopprompt zur Sicherheit ohne Teilnehmende!
Kann die KI im Internet Recherchieren?
- Technisch wäre sie dazu in der Lage, wir unterbinden aber die Funktion um ein kontrolliertes Umfeld zu ermöglichen.
