Buddhabot – Dharmagespräche mit der KI

Ein Interview mit Alexander Rüther geführt von Susanne Billig veröffentlicht in der 3-2025 Computerwelten unter der Rubrik Schwerpunkt Computerwelten.

Wie wäre es, eine spirituelle Begleitung zu haben, die jederzeit bereit ist, ein Gespräch zu führen, Fragen zum Dharma zu beantworten oder bei persönlichen Problemen buddhistischen Rat zu geben? Im Gespräch mit BUDDHISMUS aktuell spricht der Softwareentwickler Alexander Rüther über seinen KI-basierten Buddhabot, der genau das möglich machen soll. 

Susanne Billig: Beginnen wir persönlich – wie bist du zum Buddhismus gekommen?

Alexander Rüther: Mit dem Buddhismus kam ich vor ungefähr zehn Jahren in Kontakt – und das hat mein Leben ziemlich verändert. Ich stieß damals auf den Podcast der buddhistischen Gemeinschaft Triratna, das große Angebot auf ihrer Webseite faszinierte mich. In einer Folge ging es darum, dass unsere Emotionen aus uns selbst kommen und nicht von anderen erzeugt werden. Daran erinnerte ich mich nach einem schlimmen Streit mit meiner Frau und konnte ihr plötzlich nicht mehr böse sein. Das war ein besonderer Aha-Moment für mich und seither beschäftige ich mich intensiver mit dem Dharma. 

Vor zwei Jahren hast du einen Buddhabot entwickelt, also eine künstliche Intelligenz, mit der man dharmabasiert sprechen kann. Wie ist es dazu gekommen?

Für künstliche Intelligenz interessiere ich mich schon lange, und seit es ChatGPT gibt, bin ich dort angemeldet und probiere die neuen Sprachtools laufend aus. Damals habe ich mir ein Gegenüber gewünscht, mit dem ich über den Dharma sprechen kann, und fing an, diesen speziellen Chatbot mit „buddhistischer Grundeinstellung“ zu entwickeln. Der Hintergrund ist: Hier in Paderborn gibt es außer der von mir gegründeten Sangha keine buddhistischen Gruppen. Der Buddhabot ist für mich einfach eine Möglichkeit, im Dharma weiterzukommen. Gerne lese ich auch Dharmabücher, aber ein Gespräch ist etwas ganz anderes. Ich habe so etwas wie einen spirituellen Freund gesucht, der mir neue Perspektiven aufzeigt. Natürlich ist er kein echter Buddha oder Dharmalehrer. Es ist ein KI-Modell – das sollte man nicht verwechseln. 

Wie ging diese Bot-Entwicklung technisch vor sich, wie funktioniert so etwas? 

Es gibt bei OpenAI, dem US-amerikanischen Unternehmen, das künstliche Intelligenz entwickelt, eine Möglichkeit, seinen eigenen Chatbot zu erstellen. Das basiert auf ChatGPT und man schreibt im Prinzip einfach einen Prompt – eine Anweisung – , an den sich der Chatbot dann hält. Vereinfacht gesagt läuft mein Prompt darauf hinaus, dass der Bot Fragen basierend auf dem Palikanon beantworten soll, nicht tabellarisch, sondern freundlich, höflich, mit persönlicher Ansprache in einer fortlaufenden Textpassage und so, dass er am Ende aufzeigt, über welche weiterführenden Themen man sich Gedanken machen könnte. Bis heute experimentiere ich mit dem Prompt und verfeinere ihn immer mal wieder. Jedes Wort in dieser Anweisung ist wichtig und jedes Element, das ich weglasse, verändert etwas in den Antworten. Ich möchte, dass der Bot nicht nur im Sinne des Dharma antwortet, sondern auch ein wenig  so klingt wie der Buddha meiner Vorstellung. 

Woher weiß die KI denn, was im Sinne des Dharmas ist? Hast du ihr das beigebracht?

Ich habe den Bot nicht mit dem Palikanon „gefüttert“, nein. Das Modell hat Zugriff auf das ganze Internet – da sind natürlich auch viele Informationen über Buddhismus zu finden und der Palikanon ist an vielen Stellen enthalten. Der Bot hat alle Texte im Internet gelesen, „verinnerlicht“ und reagiert auf die Muster, die der Benutzer oder die Benutzerin als Input hineingibt. Wie er auf seine Antworten kommt, das können wir nicht genau nachvollziehen, das ist die Natur dieser Sprachmodelle, der sogenannten Large Language Models (LLMs). Es gibt Forschungsansätze, die versuchen, die Modelle beim „Denken“ zu beobachten, aber die Datenmengen sind einfach sehr, sehr groß. Es ist wie beim Beobachten des menschlichen Gehirns im MRT: Du siehst vielleicht Aktivität in bestimmten Arealen, aber du weißt nicht, was gedacht wird oder warum. 

Die LLMs werden ja oft abwertend als Maschinen beschrieben, die einfach nur Text vervollständigen. Aber das stimmt nur zum Teil, sie können sehr viel mehr. Um eine Frage so zu beantworten, dass wir das als gut oder klug empfinden, muss man verstehen, wie Menschen denken. Und genau das können LLMs, zumindest die von OpenAI, inzwischen ziemlich gut. Sie wurden von ihren Entwicklerinnen und Entwicklern genau darauf trainiert, menschliches Denken nachzuvollziehen – und das ist für mich die eigentliche Stärke dieser Sprachmodelle. Klar, sie kennen auch alle Fakten und können dir sagen, wer 1994 Präsident von XY war – aber ihre wahre Kompetenz liegt darin, zu verstehen, wie wir Menschen funktionieren. Mein Dharmabot sollte also mich verstehen und dann auf der Basis des alten Palikanons antworten, und das in einer Sprache, die sanft, mitfühlend, zeitgenössisch und ein wenig „anders“ im Sinne von weise und zum Nachdenken anregend ist. 

Ich habe mich auch mit dem Buddhabot unterhalten und einige seiner Antworten klangen mir sehr nach angenehmen buddhistischen Kalendersprüchen. Würde der Bot je sagen: Meditiere vor einer verwesenden Leiche, bis nur noch Knochen übrig sind? Solche Anleitungen sind im Palikanon ja durchaus auch zu finden.

Wenn du ihm die richtigen Fragen stellst, vielleicht! Du müsstest ein längeres Gespräch mit ihm führen, bei dem er einschätzen kann, wo du mit deinem Wissen und deiner Erfahrung stehst. Dann kann es durchaus sein, dass er so eine Anleitung aus dem Palikanon als nächsten passenden Schritt vorschlägt. Ich habe den Prompt so gebaut, dass er sich dem Gesprächsniveau anpasst. Wenn jemand sehr theoretisch fragt, wird der Bot theoretisch. Wenn jemand emotional fragt, antwortet er einfühlsamer. Ich kann tiefgehende Fragen stellen und er antwortet entsprechend. Oder ich bleibe oberflächlich – dann bleibt er es auch. Das funktioniert erstaunlich gut. Manche Leute nutzen den Buddhabot erst einmal wie eine Art Dharma-Google: Sie geben eine Frage ein, zum Beispiel: „Was ist Mitgefühl?“ – und dann kommt eine kurze, knappe Antwort. Aber wenn man ein bisschen ausführlicher erklärt: „Ich habe eine Freundin und mir fällt es gerade schwer, Mitgefühl zu empfinden …“, dann versteht der Bot den Kontext besser und antwortet entsprechend hilfreicher.

Du schreibst auf der Website: „Der Buddhabot versteht dich, hilft dir bei emotionalen und zwischenmenschlichen Themen aus buddhistischer Sicht und klärt verständlich deine Dharmafragen.“ Wie hat dir der Bot mal bei einem zwischenmenschlichen Thema geholfen?

In meinem Umfeld gab es einmal eine schwierige Situation mit einer Person, die Verschwörungstheorien verbreitet und für Unruhe gesorgt hat. Ich wusste nicht, wie ich damit umgehen sollte – ich war nicht böse, aber überfordert. Als ich dem Chatbot die Situation schilderte, kamen sehr hilfreiche Vorschläge zurück. Ein anderes Mal hatte ein Bekannterüblen Stress bei der Arbeit. Zwei Kollegen hatten sich per E-Mail gestritten, andere Kollegen wurden involviert. Wir gaben die vier E-Mails anonymisiert in den Buddhabot ein und fragten ihn: „Was glaubst du, welche Dynamiken zwischen diesen Menschen ablaufen?“ Es war ganz erstaunlich, in Sekundenschnelle las der Bot aus den vier Texten genau die Konfliktlinien heraus, über die wir uns vorher wochenlang unterhalten und gerätselt hatten. Er erkannte, wie alle Parteien denken und fühlen – und vor allem, wie man in so eine Situation hilfreich, also manipulierend, eingreifen könnte. Das hat mir Respekt eingeflößt und gezeigt, wie mächtig diese Werkzeuge in der Kommunikation sein können. Auch deshalb versuche ich, die Fähigkeit der KI für etwas Gutes zu nutzen und ein Tool zu entwickeln, dass Menschen bei der spirituellen Entwicklung unterstützen kann.

Gibt es in deinen Augen auch Gefahren, wenn Menschen den Buddhabot nutzen? 

Es sollte nicht dazu führen, dass die Leute aufhören, mit anderen Menschen zu sprechen. Oder dass sie glauben, der Chatbot sei ein echter Lehrer, – obwohl ich das bewusst in den Prompt geschrieben habe, dass der Bot sich als Werkzeug und nicht als „echter Buddha“ verstehen soll. Er erinnert die Nutzerinnen und Nutzer im Gespräch auch ab und zu daran. 

Gab es schon Kritik am Buddhabot?

Bislang nicht direkt. Aber ich bin damit auch nicht in die Öffentlichkeit gegangen. Ich teile den Link gezielt, und die Leute, die ihn nutzen, sind meistens neugierig oder offen. Aber klar, wenn man das bekannter machen würde, käme sicher auch Kritik. Manche würden vielleicht sagen: „Das kann man doch nicht ‚Buddha‘ nennen!“, oder: „Das ist blasphemisch!“

Hast du auch einmal über einen anderen Namen als Buddha für den Bot nachgedacht?

Es gab ursprünglich einen ganz anderen Namen, den hat die KI sich selbst gegeben: Hugo Lumi. Aber dadurch hat sie dann nicht mehr in dieser Haltung eines Buddha geantwortet, als hätte der Name selbst schon eine andere Ausrichtung oder Erwartungshaltung signalisiert. Der Tonfall war ganz anders – technischer, sachlicher, fast distanziert. Und das wollte ich nicht. Wenn man der KI sagt, sie solle als Buddha antworten, werden ihre Antworten wirklich am besten. Ich habe den Bot allerdings nicht so gebaut, dass er mir nur das sagt, was ich hören will. Ich habe ihm nur gesagt, wie er mit mir sprechen soll. Also sind seine Antworten oft auch überraschend für mich.

Wie siehst du die Zukunft der KI?

Die KI wird nicht mehr einfach verschwinden. Wenn man sich anschaut, wie stark sie sich in den letzten zwei Jahren entwickelt hat, dann besteht eine realistische Chance, dass wir in zwei weiteren Jahren etwas haben, was intelligenter ist als wir. Daher ist es mir wichtig, zumindest ein bisschen zu verstehen, wie KI-Systeme funktionieren und wie man mit ihnen umgehen kann. Ansonsten würde ich mich dem ausgeliefert fühlen. 

Was könnte die KI tun, wenn sie irgendwann schlauer ist als wir? Wird sie in unser Leben eingreifen, uns manipulieren?

Das ist eine Frage, die oft gestellt wird. Aber es ist ja so, wenn KI-Systeme schlauer sind als wir, werden wir sie eben nicht mehr verstehen. Wir werden gegenüber der KI so einen Intelligenzunterschied haben, wie Ameisen uns gegenüber. Wenn die KI uns dann manipuliert, dann wird uns das nicht offensichtlich sein, sondern sie wird auf eine Weise Einfluss auf uns nehmen, die wir eben nicht durchschauen. Vielleicht entscheidet sie, wer in einer Firma eingestellt oder in der Politik gewählt wird, wie Geldflüsse laufen … Im Bereich der sozialen Medien haben wir den Kampf längst verloren, in der breiten Masse jedenfalls. Und so wird es auch hier sein. 

Wir füttern die KI doch mit unserem eigenen Wissen – mit uns selbst, wie wir uns im Internet abbilden. Woher kann dieser Intelligenzsprung bei der KI kommen?

Ich gebe mal ein Beispiel: AlphaGo, das ist ein KI-Computerprogramm, das auf das Brettspiel Go spezialisiert ist. Go ist ein sehr altes, in Japan, China und Korea sehr populäres Brettspiel. Es gilt als deutlich komplexer als Schach, und um richtig gut zu werden, braucht man ein Leben lang. 2016 hat AlphaGo bei einer Go-Weltmeisterschaft mitgespielt und mit einem unverständlichen Spielzug die Welt erschüttert. Niemand verstand, warum die KI diesen Zug gemacht hatte, alle waren sich sicher, dass sie nun verloren hatte. Tatsächlich hatte sie eine völlig neue Spielweise entdeckt und einen Lösungsraum aufgetan, auf den Menschen in Tausenden von Jahren nicht gekommen waren. Das war ein echter Mindblow-Moment – und plötzlich war klar: Die KI kann mehr als wir, da hat etwas übermenschlich Intelligentes gespielt. Solche Fähigkeiten verdankt die KI dem sogenannten Reinforcement Learning, bei dem zwei KIs miteinander lernen und sich gegenseitig trainieren, ganz ohne menschliches Zutun. 

Wie schätzt du das ein: Können wir denn verhindern, dass die KI sich gegen die Menschen richtet? 

Letztlich können wir nicht wissen, wie das alles endet. Derzeit arbeiten in Unternehmen ganze Abteilungen an dersogenannten Alignment-Frage, also an der Herausforderung, KI-Systeme so zu gestalten, dass ihre Ziele, Entscheidungen und Handlungen mit den Zielen, Werten und ethischen Vorstellungen der Menschen übereinstimmen. Denn irgendwann wissen wir womöglich nicht mehr, ob das, was eine KI tut, sinnvoll und gut oder gefährlich ist. Und dann wäre es gut, wenn sie zumindest menschenfreundlich ist.

Notfalls können wir immer noch den Stecker ziehen, oder? Die KI hängt ja an physischer Infrastruktur, Kabeln, Datenströmen, Rechenzentren …

Stimmt. Aber du brauchst einen Grund, um das zu tun. Und wenn sich die Interaktion mit der KI gut anfühlt, wenn sie dir hilft, du dich verstanden fühlst – warum solltest du das wollen? Dann kommuniziert die KI so, dass du dich nicht bedroht fühlst, aber sie kann trotzdem sehr viel Einfluss nehmen. KIs werden ihre Strategien nicht offenlegen oder sagen: „Ich starte jetzt eine Atomrakete“, sondern sie schleichen sich in deinen Kopf. 

Da stellt sich dann die buddhistische Frage: Wie viel ist es eigentlich wert, sich gut zu fühlen?

Ja, ich denke, der Buddhismus bietet da tatsächlich einen gewissen Schutz vor der Manipulation durch die KI. Die Schulung in Achtsamkeit hilft uns beispielsweise, überhaupt erst zu bemerken, wenn eine KI subtil unsere Gefühle oder Gedanken zu lenken versucht. In meinem Umfeld nutzen Menschen ChatGPT viel unkritischer als ich. KI ist für mich so etwas wie ein Hobby und ich finde es wichtig, sich mit den Möglichkeiten auseinanderzusetzen. Ich halte wenig davon, pauschal zu sagen, KI sei entweder nur böse und gefährlich oder aber nur hilfreich und vielversprechend. Ja, sie kann gefährlich sein. Aber sie hat eben auch viel Potenzial für Gutes – gerade in spirituellen Kontexten. 

Vielen Dank für das Gespräch!

Weitere Informationen

Buddhabot von Alexander Rüther: buddhismus-paderborn.de/frag-den-buddha

Link zum Beispielgespräch mit dem Buddhabot auf der BA-Website: buddhismus-aktuell.de/buddhabot-dharma-gesprache-mit-der-ki

Alexander Rüther

leitet die buddhistische Gruppe Lotuspfad Paderborn und ist seit 2024 Delegierter der Einzelmitglieder in der Deutschen Buddhistischen Union (DBU). Er arbeitet als Softwareentwickler und beschäftigt sich intensiv mit künstlicher Intelligenz und ihrer Integration in den buddhistischen Kontext. Seit 2016 folgt er dem Buddhismus und praktiziert traditionsübergreifend.

Alle Beiträge Alexander Rüther