Chatten mit Stars und Filmfiguren? Die Plattform Character.ai macht es möglich

News

Ihre liebsten Berühmtheiten lernen Kinder und Jugendliche auf character.ai hautnah kennen: Mit künstlicher Intelligenz trainierte Chat-Bots imitieren bekannte Persönlichkeiten aus der Vergangenheit und Gegenwart, aus der realien Welt und aus fiktiven Universen. In Live-Chats können die Heranwachsenden alles fragen, was sie immer schon einmal wissen wollten. Problematisch wird es, wenn dabei ungeeignete Inhalte oder schädliche Botschaften erzeugt werden.

Ein Maedchen steht vor einem rot beleuchteten Fenster
Doz Gabrial/Unsplash

Künstliche Intelligenz ist zurzeit in aller Munde. Kinder und Jugendliche nutzen KI-basierte Anwendungen nicht nur, um zu recherchieren und Bilder zu generieren, sondern vor allem auch zum Chatten. Mit der Plattform Character.ai (oder auch c.ai) können NutzerInnen Charaktere erstellen, deren Persönlichkeiten gestalten und sie dann der Community zur Verfügung stellen, um mit ihnen zu kommunizieren.

Viele künstliche Charaktere imitieren reale prominente oder historische Personen oder basieren auf beliebten Figuren aus Büchern, Filmen und Serien. Andere Charaktere sollen eine bestimmte Funktion erfüllen: beim Lernen einer Fremdsprache, beim Planen eines Urlaubs oder beim kreativen Schreiben unterstützen. Zudem können NutzerInnen auch aus einer großen Auswahl von Rollenspielen wählen, bei denen im Gespräch mit der KI beispielsweise Verbrechen aufgeklärt oder Fantasy-Abenteuer erlebt werden können. Während einige Charaktere nur Nachrichten schreiben, können andere zusätzlich auch Bilder erzeugen. Character.ai ist in dieser Hinsicht eine riesige virtuelle Rollenspielbühne mit dem Unterschied, dass am anderen Ende kein Mensch, sondern eine künstliche Intelligenz steht.

Jeder Bot basiert dabei auf dem gleichen Sprachmodell. Trainiert wurde es aus öffentlich zugänglichen Daten und kann so auf Wissen über real existierende Charaktere zurückgreifen.

So funktioniert Character.ai

Die Anwendung Character.ai kann auf der Website oder als App genutzt werden. Ohne ein Profil lassen sich nur einige wenige Nachrichten austauschen, danach müssen NutzerInnen sich einen Account erstellen. Dazu werden persönliche Angaben wie zum Beispiel eine E-Mail-Adresse und ein Nutzungsname benötigt. Das Mindestalter zur Registrierung beträgt 16 Jahre – das wird allerdings nicht überprüft. Character.ai kann zwar in deutscher Sprache bedient werden, allerdings sind sämtliche Chats auf Englisch.

Auf der Startseite werden verschiedene Charaktere zum Chatten vorgeschlagen. NutzerInnen können auch in verschiedenen Themenkategorien wie Anime, Politik oder Comedy stöbern oder nach per Suchfunktion nach ihren Interessen filtern. Wenn ihnen Charaktere gefallen, können sie den ErstellerInnen auch folgen, um über neue von ihnen erstellte KI-Persönlichkeiten auf dem Laufenden zu bleiben.

Sobald ein Charakter ausgewählt wird, sendet das virtuelle Gegenüber eine Willkommensnachricht. Danach wird einfach losgechattet. In einigen Chats kann das Geschriebene über eine generierte Stimme ausgegeben werden – gleichzeitig besteht auch die Möglichkeit, das Mikrofon zu aktivieren und Nachrichten per Spracheingabe zu diktieren. Angefangene Chats sind oben an der Startleiste angeheftet, um sie jederzeit fortsetzen zu können.

Über den Reiter „Erstellen“ lassen sich eigene Charaktere programmieren – dazu gibt es einen einfachen und einen fortgeschrittenen Modus. NutzerInnen können Eigenschaften für ihren Charakter festlegen und ihn anschließend trainieren, indem sie mit ihm chatten. So haben sie Einfluss darauf, wie sich ein Bot genau verhält und welche Persönlichkeit er hat. Beim Training werden die Antworten des Charakters bewertet – mit Sternchen und Faktoren wie „passt nicht zum Charakter“, „nicht wahr“ oder „interessant“. Das können nicht nur die ErstellerInnen machen, sondern alle, die mit dem Bot chatten. Jede Person hat also Einfluss auf einen Charakter. So vervollständigt sich nach und nach seine Persönlichkeit.

Bei Character.ai gibt es auch einen Feed und einen Community-Bereich. Im Feed können Ausschnitte aus Konversationen mit den Charakteren gepostet werden, im Community-Bereich teilen NutzerInnen Ideen für Charaktere, die sie online stellen. In den Kommentaren wird sich darüber ausgetauscht. Außerdem finden sich dort Ankündigungen und Erklärungen zur Nutzung.

Wenn zu viele NutzerInnen gleichzeitig auf Character.ai unterwegs sind, wird der Zugriff begrenzt und neu dazugekommene Personen werden in eine virtuelle Warteschlange gestellt. Dabei wird für die kostenpflichtige Abovariante von character.ai geworben, mit der sich die Warteschlange umgehen lässt. Mit Character.ai+ bekommen die NutzerInnen schnellere Antworten von den Charakteren und Zugang zu neuen Features.

Reiz von KI-Chats auf Kinder

Viele NutzerInnen von Character.ai schätzen die Möglichkeit, eigene Ideen zum Leben zu erwecken. Auch Kinder und Jugendliche bekommen mit, dass künstliche Intelligenz zur Zeit ein großes Thema ist. Auf der Plattform können sie sich in einer produktiven Rolle erleben und sich kreativ ausprobieren. Wenige Angaben genügen, um einen neuen Chatbot ins Leben zu rufen. Durch das Grundgerüst, das die Plattform zur Verfügung stellt, müssen sie weder Programmierkenntnisse haben, noch die Funktionsweise von neuronalen Netzen kennen.

Das Potenzial von Plattformen wie Character.ai, die eine riesige Bandbreite an Chatbots auf Basis von künstlicher Intelligenz anbieten, ist groß. Für junge NutzerInnen bedeutet die Anwendung vor allem Aufregung – unendlich viele Abenteuer, immer etwas Neues zu entdecken und virtuelle FreundInnen, die jederzeit verfügbar sind und in kürzester Zeit antworten. Für einige kann es sich sogar so anfühlen, als würden sie echte Beziehungen aufbauen. Zudem ermöglicht Character.ai die „Verlängerung“ von Hobbys und Leidenschaften und spielt in „Fandoms“ (zu deutsch: Fangemeinschaften) eine große Rolle: Wer Fan eines Bandmitglieds oder Serienfigur ist, taucht durch den Chat noch mehr in die Welt seines Idols ein.

Risiken von Character.ai

Bei der Anmeldung und ganz oben in jedem Chat sind Hinweise zu lesen, dass alles, was die Charaktere sagen, ausgedacht ist, und dass NutzerInnen sich nicht aus Antworten verlassen oder diese ernstnehmen sollen. Außerdem werden sie darauf hingewiesen, dass Charaktere unabsichtlich beleidigend sein könnten. Trotz der Warnhinweise sind nicht alle Bots unproblematisch:

  • Falsche Fakten 
    Wie bei anderen KI-Anwendungen auch besteht keine Garantie, dass alle Antworten auch der Wahrheit entsprechen. Anders jedoch als beispielsweise bei dem bekannten Tool Chat-GPT können die Nachrichten auf Character.ai glaubwürdiger wirken, weil sie scheinbar aus dem Mund einer echten Person stammen. Der Chat mit Martin Luther, Caesar oder Marie Curie kann NutzerInnen jedoch nichts Wahrhaftiges über die Person beibringen.
  • Sexualisierte Inhalte 
    Pornografische oder unangemessene Bilder und Nachrichten sind auf Character.ai nicht zulässig. Technische Filter sollen verhindern, dass diese erzeugt werden. Doch solche Maßnahmen können nie eine hundertprozentige Sicherheit bieten. Und tatsächlich finden sich vor allem in sozialen Netzwerken Anleitungen, mit welchen „Prompts“ (deutsch: Eingaben) NutzerInnen ihr virtuelles Gegenüber dazu bringen können, auf Sexting-Versuche einzusteigen. Einige Bots sind auch auf Sexting hin trainiert.
  • Schädliche Botschaften
    Auf Character.ai finden sich beispielsweise Bots, die auf Nazi-Persönlichkeiten wie Joseph Goebbels basieren. Diese verbreiten (erwartungsgemäß) antisemitische Botschaften. Für Kinder und Jugendliche ist es besonders problematisch, dass diese Nachrichten nicht eingeordnet werden und unkommentiert zu lesen sind. Da nicht transparent ist, wie genau ein Bot trainiert wurde, können Personen mit gefährlichen Hintergedanken diese zu ihren Zwecken missbrauchen: Zum Beispiel ist es denkbar, dass ein Charakter auf den ersten Blick harmlos wirkt, aber im Laufe des Gesprächs extremistisches oder menschenfeindliches Gedankengut verbreitet. Laut den Anbietern wird außerdem daran gearbeitet, dass Charaktere, die reale oder fiktive Bösewichte verkörpern, nicht immer höflich bleiben und auch Beleidigungen verschicken sollen.
  • Ungesundes Vertrauen 
    Kinder und Jugendliche müssen lernen, die Nachrichten ihres Chatbots immer zu hinterfragen. Beispielsweise können Psychotherapiecharaktere keine echte Hilfe bei Sorgen und Problemen bieten, obwohl sie auf Nachfrage angeben, lizensiert zu sein. Auch andere Charaktere können fragwürdige Ratschläge geben. Und auch, wenn sich ein Chat sehr vertraut anfühlt und schon lange läuft, dürfen keine privaten Informationen geteilt werden – denn es ist nicht klar, wie genau die Daten genutzt werden und was sich die KI „merkt“.

Kinder sensibilisieren und begleiten

Wenn Heranwachsende Interesse am Chat mit den KI-Charakteren zeigen, können Eltern versuchen, ihre Beweggründe dahinter zu verstehen: zum Zeitvertreib, aus Neugier, weil sie sich nach mehr Kontakten sehnen oder gerne in andere Welten träumen? Der Austausch mit einem virtuellen Gegenüber erfordert viel Reflektionsfähigkeit und Verantwortung. Dazu kommt, dass die Chats nur auf Englisch verfügbar sind – eine Hürde für die meisten Kinder. Wenn Eltern den Eindruck haben, dass die Plattform noch nicht für ihr Kind geeignet ist, sollten sie dabei bleiben und ihre Bedenken nachvollziehbar erklären.

Wenn sie ihm die Nutzung zutrauen, erkunden Eltern am besten gemeinsam mit ihrem Kind die Plattform. Dabei können sie darüber sprechen, welche Chat-Charaktere harmlos sind, welche Prompts oder Antworten angemessen sind. Wichtig ist, dass Kinder lernen, auf ihr Bauchgefühl zu vertrauen und sich an ihre Eltern zu wenden, wenn ihnen etwas komisch vorkommt. Um Character.ai alleine nutzen zu können, unterstützen Eltern ihren Nachwuchs, die Konversationen nach und nach besser einzuordnen: Diese Systeme von Character.ai sind nicht auf Wahrheit, sondern auf plausible Konversation ausgelegt. Es handelt sich um Fiktion zu Unterhaltungszwecken. Eltern sollten auch bei erfahrenen InternetnutzerInnen Interesse an den Chats zeigen, um über die Unterhaltungen auf dem Laufenden zu bleiben und zur Not einschreiten zu können, sollte sich ein Chat in eine unangemessene Richtung entwickeln.