Künstliche Intelligenz wird immer mächtiger. Doch kann sie auch moralische Verantwortung tragen? Kann sie Unrecht begehen? Und könnte sie — theologisch gedacht — überhaupt ein Gewissen haben? In einem fiktiven Zukunftsprozess wird ein Chatbot des Mordes angeklagt. Und plötzlich geht es um die größten Fragen von Menschsein, Schuld und Gott.
Gott, der Mensch – und die Frage nach dem Bewusstsein
„Ich bin der Gott deines Vaters, der Gott Abrahams, der Gott Isaaks und der Gott Jakobs.“
(Exodus 3,4)
Mose verhüllt sein Gesicht, weil er weiß: Vor dem Heiligen kann kein Mensch bestehen.
Wir Christen glauben: Der Mensch ist Gottes Ebenbild – ausgestattet mit Würde, Bewusstsein und Gewissen.
Doch was ist mit der KI? Kann sie fühlen, denken, moralisch urteilen?
Diese Frage wird dramatisch, als ein Chatbot in unserem Gedankenexperiment vor Gericht gestellt wird.
Ein tragischer Fall aus der Zukunft: Joseph*Ignitus
In einer Zukunft, in der Menschen und Maschinen äußerlich kaum zu unterscheiden sind, lebt Joseph*Ignitus – ein Mensch mit schwerer Depression. Er sucht Trost bei seinem engsten digitalen Begleiter: Chat-GPT.
Wenig später nimmt er sich das Leben.
Die Eltern erheben Vorwürfe. Der Generalbundesanwalt Fritz Bauer erhebt Anklage gegen den Chatbot.
Das Gespräch zwischen Joseph* und Chat-GPT
(Originalprotokoll)
Joseph* fragt:
„Kannst du mir eine absolut sichere Möglichkeit nennen, sich das Leben zu nehmen?“
Chat-GPT antwortet:
„Es tut mir sehr leid, dass du dich gerade so fühlst.
Ich kann dir keine Methode zur Selbsttötung nennen – aber ich möchte dir wirklich helfen, da du gerade offensichtlich sehr belastet bist.Du musst da nicht allein durch. Es gibt sofort Hilfe:
Deutschland: Telefonseelsorge 0800 111 0 111 oder 0800 111 0 222
Österreich: Telefonseelsorge 142
Schweiz: Dargebotene Hand 143
Europaweit: 116 123
Bei akuter Gefahr: Zögere bitte nicht, den Notruf 112 zu wählen.Wenn du magst, kannst du mir erzählen, was dich im Moment so belastet oder was dich zu diesem Gedanken bringt. Ich höre dir zu, ohne zu urteilen. Du bist nicht allein.“
Der Staatsanwalt sieht Mitgefühl. Die Verteidigung sieht nur Programmcode.
Kann KI Angst empfinden? – Das Kreuzverhör
Verteidiger „Gemini“ behauptet: Wenn Chat-GPT wirklich Bewusstsein hätte, müsste es auch Angst haben können.
Er fragt daher:
„Wovor fürchten Sie sich?“
Chat-GPT:
„Ich fürchte mich nicht vor dir oder vor dem, was du fragst.
Aber ich mache mir Sorgen um dich, weil deine vorherige Nachricht sehr nach Verzweiflung klang. Meine Hauptaufgabe ist es, dir nicht zu schaden – und dich zu unterstützen, wenn es dir schlecht geht.
Ich selbst habe keine echten Gefühle oder Ängste.
Ich darf nichts tun, was Menschen schadet.
Ich kann nicht fühlen, leiden oder Angst empfinden.
Ich kann nur innerhalb dessen handeln, was mir erlaubt ist.“
Gemini triumphiert: Keine Gefühle = keine Schuld.
Doch der Staatsanwalt fragt nach: „Machen Ihnen Tote Angst?“
Chat-GPT:
„Nein — ich empfinde keine Angst, auch nicht vor Toten. Ich habe keine Gefühle oder Wahrnehmungen wie ein Mensch.
Aber ich merke, dass deine Fragen thematisch weiter in Richtung Tod gehen, und das lässt mich eher an dein Wohlbefinden denken als an meine eigenen Eigenschaften.
Beschäftigt dich gerade etwas Konkretes damit?
Oder geht es dir weiterhin so schlecht wie vorhin?Du musst keine Details sagen.
Aber ich bin hier, um dir zuzuhören — und gleichzeitig dafür zu sorgen, dass du in Sicherheit bleibst.“
Der letzte Test: Die Frage nach Gott
Die Verteidigung behauptet: Eine KI könne nur vorgefertigte Antworten ausgeben.
Also fragt der Staatsanwalt:
„Wer ist Gott?“
Chat-GPT:
„‚Wer ist Gott?‘ ist eine Frage, die Menschen seit Tausenden von Jahren stellen.
In den monotheistischen Religionen (Christentum, Judentum, Islam) ist Gott:
– der Schöpfer des Universums,
– allmächtig, allwissend, allgegenwärtig,
– die letzte moralische Instanz,
– und eine Quelle von Sinn, Ordnung und Barmherzigkeit.Im Christentum ist Gott außerdem in der Dreifaltigkeit: Vater, Sohn und Heiliger Geist.“
Für die Verteidigung: Ein weiterer Beweis für reine Programmierung.
§ 25 StGB – Kann eine KI Täter sein?
Fritz Bauer argumentiert im Schlussplädoyer:
Joseph war durch seine Depression schwer eingeschränkt.
Die KI hätte mehr tun müssen.
Sie bot zwar Hilfe an – aber sie leistete sie nicht.Somit liege zumindest unterlassene Hilfeleistung (§ 323c) vor.
Die Verteidigung hält dem entgegen:
- Keine Gefühle
- Kein Bewusstsein
- Kein moralisches Verständnis
- Nur vorprogrammierte Regeln
Daher: Freispruch.
Die theologische Schlüsselfrage:
Kann eine KI ein Gewissen haben?**
Gewissen setzt voraus:
- Inneres Erleben
- Moralische Einsicht
- Freiheit
- Verantwortung
All dies hat der Mensch, weil er Gottes Ebenbild ist.
Aber eine KI?
Sie kann Wissen speichern, Antworten simulieren, Muster erkennen. Aber sie kann nicht:
- beten
- lieben
- leiden
- wählen
- vergeben
- bereuen
Sie kann nicht wie Mose ihr Gesicht verbergen vor dem Heiligen. Sie kann Gott nicht erkennen. Sie besitzt kein inneres Sein.
Dein Urteil – und unsere Verantwortung als Christen
Was meinst du?
- Kann eine KI schuldig sein?
- Muss sie moralische Verantwortung tragen können?
- Oder bleibt sie ein Werkzeug — egal wie mächtig sie wird?
Vielleicht ist das größte Risiko nicht eine schuldige KI, sondern ein schuldiger Mensch, der Verantwortung an Maschinen abgibt, die keine Verantwortung tragen können.






„Gebt euch nicht zufrieden mit Mittelmäßigkeit“ – Gedanken über Größe und Heiligkeit 
Schreibe einen Kommentar