Schlagwort: #ArtificialIntelligence

  • Einstieg in die Künstliche Intelligenz – Warum? Wie? Was?

    Dieser Beitrag ist in zwei Sprachen verfasst. Click here for the English version.

    KI — Was, Warum, Wie

    Elektropastor-Podcast
    Elektropastor-Podcast
    05.10.2025 KI: Warum? Wie? Was?
    Loading
    /

    Hallo und willkommen zu meinem kleinen Podcast‑Begleittext über Künstliche Intelligenz.

    Was ist das? Warum benutzt man sie? Und wie funktioniert das eigentlich in der Praxis?

    Die folgenden Gedanken basieren auf einem Vortrag bzw. einer Workshop‑Reihe, die ich in den letzten Jahren öfter gegeben habe. Ich habe das Ganze vertont – und hier bekommst du die textliche Fassung dazu, damit du dir in Ruhe einen Überblick verschaffen kannst.

    Vorweg: KI bewegt sich schnell. Darum konzentriere ich mich auf Punkte, die grundsätzlich und dauerhaft hilfreich sind. Dann legen wir los.

    Was ist künstliche Intelligenz – wirklich?

    Eine Definitionsmöglichkeit hat der englische Ethiker Mark Coeckelbergh in seinem Buch AI Ethics formuliert:

    Künstliche Intelligenz ist eine Intelligenz, die mit technologischen Mitteln angezeigt oder simuliert wird. Am Maßstab menschlicher Intelligenz gilt sie als „intelligent“, wenn sie die Arten von Fähigkeiten und Verhaltensweisen reproduziert, die Menschen zeigen.

    Es gibt natürlich auch andere Definitionen – je nach Fachgebiet und Perspektive. Spannend finde ich hier die enge Kopplung: Menschliche und künstliche Intelligenz werden wechselseitig aufeinander bezogen. Erst musst du klären, was „künstlich“ im Unterschied zu „menschlich“ bedeutet – und was wir überhaupt unter „Intelligenz“ verstehen. Eine einheitliche Antwort gibt es über die Disziplinen hinweg nicht.

    Für den praktischen Technik‑Alltag hilft mir ein anderer Startpunkt: Was ist KI – und was nicht? Heute bekommt vieles das Label „KI“, obwohl es in Wahrheit gut gemachte, klar definierte Algorithmen sind.

    Ein Algorithmus folgt einer festen, vorgegebenen Abfolge von Schritten, um auf Eingaben zu reagieren. Von KI sprechen wir eher, wenn etwas Neues generiert wird, wenn Zufall eine Rolle spielt oder sehr große Datensätze im Spiel sind.

    Generative KI – etwa ChatGPT für Text oder Midjourney und Stable Diffusion für Bilder – sind dafür gute Beispiele. In die Verarbeitung deiner Anweisung (deines Prompts) fließt viel Rechenleistung. Solche Systeme kommen auch mit ungewohnten Nutzungsmustern zurecht. Klassische Formeln in einer Tabellenkalkulation hingegen brechen leicht, wenn du völlig andere Daten hineinkippst. Aus dieser Perspektive lässt sich zwischen klassischen Algorithmen und KI unterscheiden – auch wenn selbst diese Grenze nicht endgültig ist.

    Technische Grundlagen – der „stochastische Papagei“

    Ich bin kein Informatiker; es geht hier nicht um Mathe‑Tiefflug. Um die Wirkung von KI im Alltag zu verstehen, reicht ein Bild, das in der Informatik geprägt wurde: die KI als stochastischer Papagei. „Stochastisch“ heißt: Wahrscheinlichkeiten, Würfeln, Muster. „Papagei“ heißt: nachplappern.

    Ein trainiertes KI‑Modell – für Text, Bilder, Audio oder Video – erzeugt Ausgaben ohne menschliches Verständnis. Da ist nichts, das „versteht“, „erkennt“ oder „fühlt“, was produziert wird. Stattdessen werden im Vorfeld große Mengen an Texten, Bildern und anderen Daten analysiert. Das System findet Muster und bildet sie statistisch ab. Deine Eingabe wird mit diesem gelernten Musterbestand abgeglichen – und darauf reagiert das System. Man kann es sich wie ein Gespräch zwischen Datenbestand und deinem Anliegen vorstellen. Hinter den Kulissen wirken weitere Parameter und Verfahren – oft das „Geheimrezept“ der Firmen. Entscheidend ist: Es wird berechnet, welche Wörter wahrscheinlich folgen oder welche Pixel gesetzt werden.

    Das Mini‑Beispiel kennst du vom Smartphone: Du tippst „Sehr geehrte Damen und Herren“ und die nächsten Wörter werden dir vorgeschlagen. Große Sprachmodelle tun Ähnliches – nur auf viel größerer Datenbasis und mit Nachbearbeitung. Im Kern kann eine Maschine aber nur „sagen“, was sie gelernt hat – kombiniert, neu zusammengesteckt, manchmal überraschend kreativ. In diesem Sinn plappert die KI Muster zurück.

    Faktentreue und Fehler

    Die naheliegende Frage: Kann KI sachlich korrekt antworten? Wenn Ausgaben das Ergebnis von Wahrscheinlichkeiten sind, ist „am wahrscheinlichsten“ nicht automatisch „wahr“. Details können falsch sein. Bildmodelle zeigen Artefakte (erinnere dich an extra Finger oder verschmierte Schrift in den ersten KI-Bildern). Bei Texten ist es tückischer: Falsches kann plausibel klingen. Frühere Modelle konnten ausführlich erklären, warum der Himmel grün ist – sehr überzeugend – und doch falsch liegen.

    Die Unternehmen haben Korrekturschichten eingebaut, ohne alles offenzulegen. Trotzdem zeigen neuere Untersuchungen: Auch aktuelle Modelle machen Fehler, oft weil sie lieber irgendeine Antwort geben, statt „ich weiß es nicht“. Wüsste ein System wirklich, dass es etwas nicht weiß, würde es den Fehler nicht produzieren. Bei Bildern erkennst du Unstimmigkeiten schneller, bei Texten eher später.

    Hinzu kommt: Viele Tools durchsuchen inzwischen das Netz und zeigen Quellen an. Das wirkt gut – es gibt kleine Zitat‑Blasen zum Anklicken. Aber auch das hat eine Voreingenommenheit. Du siehst nicht, welche Quellen nicht ausgewählt wurden. Wer schon mal auf Seite 3, 4 oder 5 der Suchergebnisse gelandet ist, weiß: Da liegt oft Nützliches. Wenn die KI für dich auswählt, entgeht dir der Rest. Nutze Quellenangaben als Hilfe, nicht als endgültigen Beweis.

    Warum KI einsetzen – oder auch nicht?

    Starte mit deinem Warum. Wer weiß, warum er etwas tut, findet leichter Wege, wie und was zu tun ist. Das gilt bei KI besonders, weil sie theoretisch überall ansetzen kann. Frag dich: Warum setze ich das ein? Welche Rolle spiele ich im Prozess?

    Ein einfacher Einstieg: Kläre deine Erwartung. Möchtest du Zeit sparen? Etwas Neues ausprobieren? Ein konkretes Problem lösen? Das hilft beim Formulieren von Prompts – und manchmal merkst du: „Das kann ich auch selbst.“ Menschen können zuhören, verstehen, Vertrauen aufbauen. Gerade in kirchlichen Kontexten zählt das viel.

    Denk auch über deine Zeit nach. Wenn Leute fragen: „Was kann man mit KI alles machen?“, empfehle ich einen Blick auf die ganze Woche. Wenn das, was du gerne machst – z.B. eine Predigt schreiben, eine Andacht, einen Vortrag – etwas ist, das du selbst am besten tust, dann schau auf die anderen Stellen, an denen KI Zeit sparen kann, damit du Zeit für das Wichtige hast. Beispiel: Eine heikle E‑Mail. Lass dir von KI Entwürfe geben, um in Gang zu kommen.

    Aber: Du musst KI nicht überall nutzen. Wenn du eine Aufgabe nur machen willst, „weil KI das kann“, frag dich ehrlich, ob die Aufgabe überhaupt nötig ist. Wenn im Gremium niemand deiner regelmäßigen Andacht zuhört, rede vielleicht mit der Runde darüber, warum ihr die Andacht haltet – statt reflexhaft KI einzusetzen.

    Am Ende bleibst du verantwortlich für das, was du veröffentlichst. Wenn du zu viel auslagerst, verlierst du Nähe zur Sache. Das Ringen um Worte – zum Beispiel bei einer Predigt – ist Teil des Ergebnisses.

    Um Verantwortung zu tragen, brauchst du ein Grundverständnis davon, was KI tut. Kein Vollstudium, aber genug, um prüfen zu können. Und noch eine Frage: Fühlt sich der Einsatz von KI für dich stimmig an – mit Werten und Berufung? In einem Seminar fragte jemand: Kann eine KI‑Predigt vom Heiligen Geist inspiriert sein? Tiefe theologische Fragen. Praktisch bleibt: Ist es noch deine Arbeit?

    Ich bin hier bewusst vorsichtig. Wenn wir KI überhöhen, messen wir unser Tun ständig an der Maschine. Wenn wir KI als Werkzeug sehen – wie Stift, Papier, Schreibmaschine –, kann sie helfen. Frag dich: Welcher Anteil bist du? Welcher Anteil ist die KI? Mit einer nüchternen Haltung im Alltag fügt es sich stimmiger.

    Wie KI nutzen: Haltung zuerst

    Bevor du Tools auswählst, geht es um Haltung. Du kannst KI als Werkzeug in deinen Ablauf stellen: Du stehst vor der KI, weißt, was du willst, gibst einen Auftrag, prüfst das Ergebnis, iterierst, behältst Richtung und Tempo.

    Mein Lieblingsbild ist das E‑Bike. Ein E‑Bike ist kein Moped. Du trittst selbst. Ab einer Geschwindigkeit hilft der Motor nicht mehr. Du lenkst. So auch mit KI: „KI, mach meinen Job“ funktioniert nicht. Du bringst eigene Leistung ein und lässt dir dort helfen, wo es hakt. Vielleicht schaust du nicht mehr auf ein leeres Blatt, sondern auf einen Rohtext – das Finale machst du.

    Das Gegenbild ist das Fließband. Du stehst hinter der KI. Du feilst am Prompt und nimmst das erste Ergebnis. Die KI legt Struktur, Stil und Inhalt deines Textes fest – oder die Bildsprache und Farben deines Bildes. Das ist bequem und schnell, aber dein Werk verliert Tiefe. Und du kannst es nicht wirklich vertreten. Es wäre, als würdest du ein Stichwort tippen, am Sonntag eine KI‑Predigt vorlesen und hinterher nicht sagen können, warum du das so gepredigt hast. Menschen gehen davon aus, dass du es geschrieben hast. Darum: reflektierter Einsatz, Kontrolle behalten, Ergebnis verantworten.

    Das Krüger‑Axiom

    Marcel Krüger, ein Freund von mir, hat es so auf den Punkt gebracht:

    Um KI als Werkzeug zu benutzen, musst du zuerst das Handwerk verstehen.

    Was heißt das? Starte mit Aufgaben, die du auch ohne KI gut könntest. Wenn ich eine KI Teile einer Predigt entwerfen lasse, muss ich beurteilen können, ob das trägt. Als ausgebildeter Theologe merke ich, wenn der Ton nicht passt, theologische Nuancen schief sind oder der Text schlicht langweilt. Um zu verbessern – durch neues Prompting oder durch Bearbeitung in Word – brauche ich Fachwissen. Das gilt in deinem Feld genauso. Im Konfi‑Kurs musst du deine Jugendlichen kennen. In der Bildarbeit brauchst du ein Gefühl für Motive und Wirkung.

    Wenn du dein Handwerk kennst und die Stärken und Grenzen der KI einschätzen kannst – wo du ihr trauen kannst und wo sie abdriftet –, kannst du sie in unbekannten Bereichen einsetzen, etwa bei einem Hobby. Dort prüfst du mit anderen Quellen gegen, und das Risiko ist klein. Da kann KI Sparringspartner sein. Wovon ich abrate: KI blind zu nutzen, wo du die Ergebnisse nicht verifizieren kannst. Bei mir ist das Finanzen. Ohne Expertise würde ich keine Aktienberatung von KI übernehmen – ich könnte nicht beurteilen, ob ich Geld verbrenne. Wenn du dich auskennst oder etwas lernst und es nicht kritisch ist, kann KI helfen.

    Gesellschaftliche und ökologische Herausforderungen

    Bias/Verzerrung. KI kann nur aus dem lernen, was sie gesehen hat – und Datensätze sind nicht perfekt. Online steht viel Falsches; Bilder können irreführen. Modelle reproduzieren das. Das führt zu Diskriminierung. Eine Zeit lang zeigten Bildmodelle bei „Krankenhauspersonal“ häufig männliche Ärzte und weibliche Pflegekräfte. Natürlich gibt es Chefärztinnen und männliche Pfleger, diese wurden aber selten generiert. Genau hier bist du gefragt: Wenn du den Bias gar nicht bemerkst, veröffentlichst du ihn und verstärkst ihn. Dem kannst du entgegnen, wenn du dein Bewusstsein schulst. Das nimmt dir KI nicht ab.

    Datenschutz und Privatsphäre. Ein großes Thema ist die Herkunft der Trainingsdaten. Vieles wurde aus dem Netz kopiert – ohne Zustimmung. Deswegen laufen sogar Rechtsstreitigkeiten. Beispiel: Stand September/Oktober 2025 sind die New York Times und OpenAI in laufender Auseinandersetzung. Das hat Folgen dafür, was gespeichert und was gelöscht wird. Firmen werben mit Sicherheit. Aber kannst du sicher sein, dass deine Prompts, Texte und Bilder nicht in der nächsten Modellversion landen? Meine Faustregel: Tippe nur das in eine KI, was du auch mit Kreide auf einen Marktplatz schreiben würdest. Keine persönlichen Daten, keine Telefonnummern, keine Orte, keine seelsorgerlichen Inhalte. Du hast keine Kontrolle, was danach passiert.

    Arbeit und Berufe. Der Druck ist spürbar. Illustrator:innen, Texter:innen, Autor:innen – sogar Seelsorge und Psychotherapie – bekommen Konkurrenz durch KI‑Angebote. KI kündigt niemandem. Aber Organisationen streichen Einstiegsrollen: „Das macht jetzt die KI.“ Bitter, wenn Modelle zuvor an Werken genau dieser Leute trainiert wurden. Wir als Kund:innen entscheiden mit. Ja, KI spuckt schicke, fotorealistische Bilder aus. Aber vielleicht gibt es bei dir vor Ort jemanden, der das beruflich macht und einen Auftrag brauchen kann. Oder du machst es selbst.

    Automation Bias. Ein Thema, das mir sehr wichtig ist. Wir neigen dazu, den Ergebnissen von Maschinen mehr zu glauben als wenn sie von Menschen kommen. Beim Taschenrechner ist das sinnvoll: 2 + 2 = 4, immer. KI ist nicht deterministisch und macht Fehler. Wenn KI dir Zeit spart, sinkt leichter die Sorgfalt beim Prüfen. Dann fällst du auf die Nase – vielleicht sogar auf der Kanzel, wenn du mitten in der Predigt merkst, dass etwas nicht stimmt, oder später an der Tür. Am Ende trägst du Verantwortung. Darum: Bleib wach. Frag beim Einsatz von KI: was, warum und wie – damit du dir und anderen Auskunft geben kannst.

    Ein schneller Produktüberblick

    Bis dieser Text erscheint, hat sich der App‑Markt wahrscheinlich schon gedreht. Darum hier Kategorien und mögliche Einsätze in Gemeinde‑Nähe:

    Text‑KIs: Für Predigten, Gemeindebriefe, Unterrichtsmaterial, Gebetsimpulse, E‑Mails, Website‑Texte. Auch für Übersetzungen.

    Bild‑KIs: Eher für Plakate und Social Media, vielleicht für ein Podcast‑Logo oder eine Grafik für den Schneideplotter. Viele KI‑Bilder wirken „geleckt“ – das erkennen Leute inzwischen. Mancher reagiert ablehnend. Hilfreich sind sie bei einfachen Symbolen oder Illustrationen, vor allem wenn du nachbearbeitest. Oder zur Ideenfindung in der Fotografie. Bedenke: Ein schlechtes KI‑Bild kann Leser:innen abschrecken – selbst wenn der Artikel gut ist, der dann nicht mehr gelesen wird.

    Sprach‑KIs: Wandeln Sprache in Text und Text in Sprache. Gut für Barrierefreiheit oder fürs Vorlesen längerer Texte. Man kann Schnipsel in Podcasts einbauen – sparsam. Wenn klar ist: „Das ist die Hörversion eines Artikels“, passt es. Wenn die halbe Folge aus KI‑Stimme besteht, bleibt ein schaler Eindruck. Ich würde es lassen.

    Video‑KIs: Man kann kurze Füllclips erzeugen. Ich bin aber skeptisch, vor allem wegen des Energieverbrauchs. Je komplexer die Aufgabe, desto mehr Ressourcen werden gebraucht: Wasser zum Kühlen der Rechenzentren, sehr viel Strom. Bei Video‑Modellen ist das enorm. Ein viersekündiger Clip mit Google Veo verbraucht Strom, mit dem du etwa 60 Kilometer E‑Bike fahren könntest. Zwei Miniclips – und ein E‑Bike‑Akku ist sinngemäß verbraucht. Die MIT Technology Review hat solche Größenordnungen neulich hervorgehoben. Text‑ und Bild‑Modelle liegen deutlich darunter. Nutze also lieber eine Text‑KI, um den Schnitt zu planen, und dreh das Video selbst – das ist oft grüner und kreativer.

    Musik‑KIs: sind sehr umstritten. Plattformen wie Spotify oder Apple Music werden mit KI‑Tracks geflutet. Für ein Experiment im Konfi‑Unterricht ist der Einsatz okay. Aber das ersetzt nicht echtes Spielen und Singen.

    Ausblick und Schluss

    Das war der Überblick: Was KI ist, warum du sie nutzen könntest – oder eben nicht – und wie du dich ihr gegenüber aufstellen kannst. In weiteren Teilen spreche ich über Haltung und Verantwortung, darüber, wie man KI und Schneideplotter zusammenbringt (ich habe dazu einen Workshop gegeben, bei dem wir Grafiken generiert und danach geschnitten haben), und gebe einen kurzen Einstieg, wie Schneideplotter grundsätzlich funktionieren.

    Wenn dich das interessiert, hör gern wieder rein. Danke fürs Lesen und Zuhören. Bei Fragen melde dich über elektropastor.de. Ich bin gespannt, was du zum Thema KI zu sagen hast. Mach’s gut!


    English version: AI — Why, How and What?

    Elektropastor-Podcast
    Elektropastor-Podcast
    05.10.2025: AI: Why, How and What?
    Loading
    /

    Hello and welcome to my little podcast on artificial intelligence.

    What is it? Why do people use it? And how does it actually work?

    This is based on a talk—a series of workshops—I’ve given repeatedly over the past few years. I decided to record it so you can listen and get a quick overview.

    Up front: AI is moving fast. So I’ll focus on things that are broadly and consistently important. Let’s dive in.

    What is artificial intelligence, really?

    Here is one definition, given by the English ethicist Mark Coeckelbergh, in his book AI Ethics:

    Artificial intelligence is an intelligence that is displayed or simulated by technological means. Judged by the standard of human intelligence, it is considered “intelligent” when it reproduces the kinds of intelligent abilities and behaviors humans display.

    That’s an interesting definition. There are others, of course, depending on the field and perspective you come from. What I find striking here is how tightly linked human intelligence and artificial intelligence are—each is defined in relation to the other. First you’d have to say what makes something “artificial” as opposed to “human,” and what we mean by “intelligence” in the first place. Across disciplines there isn’t a single settled answer.

    For my purposes—technology and practical use—it helps to start from what AI is and what it isn’t. Lots of computer processes get labeled “AI” today when, in reality, they’re just well‑designed algorithms.

    An algorithm means a program follows a fixed, predefined sequence of steps to respond to an input. By contrast, we usually talk about AI when something new is generated, when randomness plays a role, or when very large datasets are used.

    Generative AI—like ChatGPT for text or Midjourney and Stable Diffusion for images—are solid examples of what we typically call “AI.” A lot of compute goes into processing the user’s instruction (the “prompt”). These systems can also handle unexpected usage patterns fairly well. If you apply standard formulas in a spreadsheet and then feed totally different kinds of data, those formulas tend to fall apart. Seen from that angle, you can draw a line between classic algorithms and AI—though even this distinction isn’t final.

    Technical foundations, briefly

    I’m not a computer scientist, so I won’t go deep into the math. You don’t need that to grasp how AI affects our lives. A picture from computer science that I find helpful—though debated—is AI as a “stochastic parrot.” Two words matter here: “stochastic” (think probability, dice, randomness) and “parrot.” The AI echoes back what we ask for, guided by patterns in the data we give it.

    A trained AI model—whether for text, images, audio, or video—doesn’t generate output with human‑like understanding. There’s nothing in there that “understands,” “recognizes,” or “feels” what it produces. Instead, huge amounts of text, images, or other data are analyzed in advance. The system finds patterns and represents them statistically. Your prompt is compared to that learned statistical representation, and the system responds accordingly. You can think of it as a conversation between the dataset and your request. There are more parameters and algorithms behind the scenes—often the “secret sauce” of big companies—but the key point is: the system computes which words are likely to follow, or which pixels should be generated, based on probabilities.

    You already know a tiny version of this from text suggestions on your phone. Type “Dear Sir or Madam,” and your keyboard predicts the next likely words. Large text models do this on a far larger scale and with post‑processing. At heart, though, a machine can only “say” what it has learned—combined, remixed, sometimes in creative ways. In that sense, it’s still parroting patterns back to us.

    Truthfulness and errors

    A common question is whether an AI can answer factually. If the output is the result of probabilistic choices—what is most likely given the data—then “most likely” isn’t always “true.” Details can be wrong. Image models may show visual artifacts (think the early days of extra fingers or smeared text). With text, the risk is that wrong statements can sound plausible. Early text models could explain at length why the sky is green—very convincingly—and still be wrong.

    Companies have added various correction layers they don’t fully disclose. Still, recent studies show that even newer models produce more errors than you’d expect, partly because they “prefer” to give an answer rather than say “I don’t know.” And if a system truly “knew” it didn’t know, it wouldn’t make that mistake in the first place. So we’re in a bit of a bind when it comes to truthfulness, especially with text (errors in pictures are easier to spot).

    Another point: more and more tools now search the web and cite sources. That looks great—you get little citation bubbles you can click. But there’s bias there, too. You don’t see which sources were ignored. Anyone who has dug into page 3, 4, or 5 of search results knows there’s often useful material beyond page 1. If the AI picks the sources for you, you don’t know what you’re missing. Treat citations as helpful, not definitive.

    Why use AI—or not?

    It’s good to start with your “why.” If you know why you’re doing something, you’ll get better ideas about how to do it and what to do. That’s especially true with AI because it could, in theory, touch almost every part of life. So ask: why am I using this, and what role do I play in the process?

    A simple entry point: clarify your expectations. Do you want to save time? Try something new? Solve a specific problem? That helps you later when crafting prompts—and sometimes you’ll realize, “I could just do this myself.” Humans are still better at listening, understanding, and, in church settings, building trust through the words we write or speak. Often it’s more natural to act as a human.

    Also consider how you want to spend your time. When people ask what to do with AI, I suggest taking a weekly overview. If your favorite work—say, writing a sermon, a devotional, or a talk—is something you do best yourself, then look for the other moments in the week where AI could save time so you can protect the work you value. For example, if a difficult email tone is tripping you up, you can ask AI for drafts to get unstuck.

    That said, you don’t have to use AI everywhere. If you notice you hate a task and only want to do it “because AI can,” it might be more honest to ask whether the task should exist at all. If no one listens to your regular devotion in a committee meeting, perhaps talk with the group about why you gather for devotion—rather than defaulting to AI.

    Remember, you remain responsible for what you publish. You also risk losing some closeness to the work if you outsource too much. Wrestling with wording—like when writing a sermon—is part of the final result.

    To carry responsibility, you need a working grasp of what the AI is doing. You don’t need to know everything, but you should be able to check the output. More on that in a moment. One last question here: does using AI still feel coherent with your values and vocation? In a seminar on AI and preaching, someone asked whether an AI‑written sermon could be “inspired by the Holy Spirit.” Those are deep theological questions. But practically: is it still your work?

    I’m cautious here. If we inflate AI into a cure‑all, your work will constantly be measured against the machine. If, instead, you treat AI as a tool—like a pen, paper, or typewriter—it can help. Ask: what percentage is you, and what percentage is the AI? Used with nuance in everyday work, things knit together more cleanly.

    How to use AI: stance first

    Before tools, think attitude. You can use AI as a tool in your workflow: you stand “in front of” the AI, know what you want, give an instruction, evaluate the result, iterate, and keep control of direction and pace. My favorite image here is an e‑bike. An e‑bike isn’t a moped. You still have to pedal. There’s a top speed where the motor stops helping. You have to steer. Same with AI: you can’t say “AI, do my job.” You put in your own effort and let AI help where it’s hard. Maybe you don’t face a blank page anymore—you have a draft—but you finish the work.

    The opposite image is a conveyor belt. You stand “behind” the AI. You craft a prompt, then accept the first result. The AI has effectively chosen structure, style, and content for your text—or the visual language and colors for your image. That’s comfortable and fast, but your work may lose depth, and you can’t really stand behind it. It’s like typing a keyword, reading an AI sermon from the pulpit on Sunday, and then being unable to explain why you preached what you did. People encountering the result assume you made it. That’s why reflection matters. I strongly recommend keeping control of the process and owning the outcome.

    The Krüger Axiom

    Marcel Krüger, a good friend of mine, once put it like this:

    To use AI as a tool, you must first understand the craft.

    What does that mean? When you start using AI, begin with tasks you could also do well without AI. If I have an AI draft a sermon—or chunks of one—I need to judge whether it works. As a trained theologian I can notice when the tone is off, when theological nuances are wrong, or when it’s just boring. To improve it—either by prompting again or by editing in Word—I need domain knowledge. The same is true in your field. If you run confirmation classes, you need to know your teens. If you’re doing creative visual work, you need at least a feel for how images work.

    Once you know your craft and the AI’s strengths and limits—what you can trust it with and where it veers off—you can start using it in unfamiliar areas, like a hobby, where you have other sources to cross‑check and the stakes are low. There, AI can be a handy sidekick and brainstorming partner. What I’d caution against: using AI blindly where you can’t verify the output. For me, that’s finance. Without expertise, I wouldn’t take stock market advice from an AI because I couldn’t tell if I’m wasting money. If you know your stuff or you’re learning something new and it’s not critical, AI can be a helpful partner.

    Societal and environmental challenges

    Biases. AI can only produce from the data it was trained on—and datasets aren’t perfect. Some information online is simply wrong; some images are misleading. The model will reproduce that unless steps are taken. This can lead to discrimination. For a while, image models prompted for “hospital staff” tended to produce male doctors and female nurses. Of course there are also female chief physicians and male nurses, but early outputs didn’t reflect that. That’s where you come in: if you don’t notice a bias, you might publish and amplify it. To avoid that, users need awareness and training. AI can’t take that responsibility off your shoulders.

    Privacy and data protection. Another big issue is data sourcing. A lot was scraped from the internet without permission, and lawsuits are ongoing. For example, as of September/October 2025, The New York Times and OpenAI are in active litigation. This has implications for what is stored and deleted. Companies promise safety, but can you be sure your prompts, texts, and images won’t be used to train the next model? My rule of thumb: only type into an AI what you’d be willing to chalk onto a public square for everyone to read. Don’t put in personal data, phone numbers, locations, or pastoral care matters—you don’t control what happens afterward.

    Jobs and work. We’re already seeing pressure on certain professions: illustrators, copywriters, authors, even pastoral care and psychotherapy face competition from AI offerings. AI doesn’t directly “fire” anyone, but organizations may cut entry‑level roles: “The AI can do that now.” That’s rough—especially if the models were trained on those creators’ work without consent. As customers, our choices matter. Yes, AI can spit out slick, photorealistic images. But maybe someone in your community does this professionally and could use the work. Or maybe you can make it yourself.

    Automation bias. This one is dear to me. You know the sentence, “We’ve always done it this way.” With machines we often assume, “If the computer says so, it must be right.” That trust makes sense with calculators—2 + 2 = 4 every time. But AI is non‑deterministic and makes mistakes. As AI saves you time, your diligence in checking results can slip. Then you get burned—maybe even in the pulpit, discovering mid‑sermon that something isn’t right, or hearing it at the door afterward. In the end, you are responsible for what you publish with AI. So keep reflecting on what you’re doing, why, and how—so you can give an account to yourself and to others.

    A quick product landscape (without name‑dropping)

    By the time this episode is out, half the apps will have changed, so I’ll stick to categories and church‑adjacent uses.

    Text AIs: good for sermons, newsletters, teaching materials, prayer prompts, emails, and website copy. Also for translation.

    Image AIs: potentially useful for posters and social media, maybe for a podcast logo or a design for a cutting plotter. In my experience, many AI images look a bit “polished” in a way people now recognize—and some push back against that look. AI images can help for simple symbols or illustrations, especially if you can edit them afterward. They’re also useful for brainstorming photography concepts. But be thoughtful: a cheap‑looking AI image can turn readers off a good article.

    Speech AIs: tools that turn speech into text and text into speech. Great for accessibility or large‑scale read‑aloud use. You might even drop snippets into a podcast. Use sparingly, though. If it’s clearly a website article being read aloud, fine. But if half your podcast is an AI voice, it leaves a strange taste. I wouldn’t do it.

    Video AIs: you could generate short filler clips. Personally, I’m not a fan—especially because of energy costs. The more complex the task, the more resources it needs: water for cooling data centers and lots of electricity. With video models it’s enormous. A four‑second Google Veo clip, for instance, uses enough electricity to ride roughly 60 kilometers on an e‑bike. Two tiny clips, and you’ve effectively spent a full e‑bike battery. MIT Technology Review recently highlighted numbers like that. Text and image models use far less. So if you use a text model to plan an edit and then shoot the video yourself, you’re likely greener—and more creative—than fully generating it with a heavy video model.

    Music AIs: extremely controversial. Musicians are pushing back as platforms get flooded with AI tracks. Fine for a fun experiment in confirmation class, maybe—but it won’t replace real playing and singing.

    That’s the overview of what AI is, why you might use it, and how to approach it. In upcoming episodes, I’ll talk more about attitude and responsibility, how to combine AI with cutting plotters (I recently ran a workshop where we generated graphics and then cut them), and I’ll give a short primer on cutting plotters in general.

    Thanks for listening. If you have questions, get in touch via elektropastor.de. I’m curious what you think about AI. Take care!

  • 05.10.2025: AI: Why, How and What?

    Elektropastor-Podcast
    Elektropastor-Podcast
    05.10.2025: AI: Why, How and What?
    Loading
    /

    What is AI? Why use it? And how can you work with it in a way that fits your values, faith, and day-to-day practice? This episode walks you from basics to hands-on use: no hype, just a clear view of possibilities, limits, and responsibility. You’ll get sticky metaphors (e-bike, not conveyor belt; the “stochastic parrot”), plain language, and enough substance to try things right away—without losing your own voice.

    In this episode

    • What counts as AI—and what’s just a well-written algorithm
    • The “stochastic parrot”: pattern-matching without understanding
    • Truthfulness, hallucinations, and citations: helpful, but not the whole story
    • Start with your “why” before the “how”: save time, explore, solve real problems
    • Posture first: e-bike vs. conveyor belt, keep control, own the outcome
    • The Krüger Axiom: know the craft before you wield the tool
    • Bias, privacy, and work: how to stay fair and careful
    • Automation bias: why “the computer says so” isn’t enough
    • Tool landscape: text, image, speech, video, music

    More

  • 05.10.2025 KI: Warum? Wie? Was?

    Elektropastor-Podcast
    Elektropastor-Podcast
    05.10.2025 KI: Warum? Wie? Was?
    Loading
    /

    Was ist KI? Warum setzen wir sie ein? Und wie machst du das so, dass es zu dir, deinem Glauben und deinem Alltag passt? In dieser Folge nehme ich dich mit von den Grundlagen bis zur Praxis: Ein klarer Blick auf Chancen und Grenzen sowie auf die Verantwortung, die du im Einsatz übernimmst. Du bekommst Bilder, die hängen bleiben (E-Bike statt Fließband, „stochastischer Papagei“), eine einfache Sprache und genug Substanz, um direkt etwas auszuprobieren – ohne deine Haltung zu verlieren.

    Themen

    • Was ist KI – und was nicht? Algorithmen vs. generative Modelle
    • „Stochastischer Papagei“: Warum KI Muster nachbildet statt „zu verstehen“
    • Faktentreue, Halluzinationen und Quellen: hilfreich, aber nie allein seligmachend
    • Dein Warum vor dem Wie: Zeit sparen, Neues testen, Probleme lösen – und wo du besser Mensch bleibst
    • Haltung: E-Bike statt Fließband, Kontrolle behalten, Ergebnisse verantworten
    • Das Krüger-Axiom: Erst das Handwerk, dann das Werkzeug
    • Bias, Datenschutz, Arbeit: worauf du achten musst und wie du fair bleibst
    • Automation Bias: Warum „Computer sagt…“ nicht reicht
    • Tool-Kategorien im Überblick: Text, Bild, Sprache, Video, Musik

    Mehr

  • Vortrag „Predigen mit ChatGPT?! – KI in der Kirche zwischen Praxis und Ethik“

    Gehalten beim Praxisforum Digitalisierung Oldenburg am 09.05.2025

    Hier findest du die dazugehörige Präsentation und hier den Vortragstext als PDF.

    Elektropastor-Podcast
    Elektropastor-Podcast
    Podcastaufzeichnung „Predigen mit ChatGPT?! – KI in der Kirche zwischen Praxis und Ethik“
    Loading
    /

    Einstieg

    Folie 1: Titelbild

    Hallo erstmal. 
    Ich freue mich sehr, heute hier zu sein.

    Ich kann mir vorstellen, was ihr vielleicht denkt. 
    Warum steht da einer von der Kirche 
    bei einem Digitalisierungsforum für den Mittelstand? 
    Hat der sich verlaufen?

    Pause.

    Vielleicht. 
    Aber vielleicht passt es auch besser, als ihr denkt.

    (mehr …)
  • Podcastaufzeichnung „Predigen mit ChatGPT?! – KI in der Kirche zwischen Praxis und Ethik“

    Elektropastor-Podcast
    Elektropastor-Podcast
    Podcastaufzeichnung „Predigen mit ChatGPT?! – KI in der Kirche zwischen Praxis und Ethik“
    Loading
    /

    Gehalten beim Praxisforum Digitalisierung Oldenburg am 09.05.2025.

    In dieser Folge spricht Christoph Martsch-Grunau, Digitalpfarrer und Elektropastor, über seinen Einsatz von KI – insbesondere ChatGPT – in der Predigtvorbereitung. Was als kreativer Impuls beginnt, wird zum Spiegel eigener Sprache, Haltung und Verantwortung. Christoph zeigt, wie KI unterstützen kann, ohne das Menschliche zu ersetzen – und was Unternehmen vom geistlichen Handwerk lernen können. Ein praxisnaher Blick auf Kommunikation, Ethik und die Frage: Wer trägt die Verantwortung, wenn Maschinen mitreden?

    Der Elektropastor im Netz: Homepage elektropastor.de | Instagram @elektropastor

    Dieser Podcast ist ein Angebot des Ev.-luth. Kirchenkreises Delmenhorst/Oldenburg Land.

  • 25.02.2025 KI unter Kontrolle – Menschlichkeit bewahren. Ethische, moralische und theologische Perspektiven

    Elektropastor-Podcast
    Elektropastor-Podcast
    25.02.2025 KI unter Kontrolle – Menschlichkeit bewahren. Ethische, moralische und theologische Perspektiven
    Loading
    /

    Ich habe am 25.02.2025 bei den 36. Duderstädter Gesprächen einen Vortrag zum Thema KI und Verantwortung gehalten. Da ich jetzt öfter danach gefragt worden bin, habe ich diesen Vortrag mal als Podcast eingesprochen. Bei Fragen dazu kontaktiere mich gerne auf elektropastor.de oder Instagram @elektropastor.

    Hier gelangst du zum gedruckten Vortrag: https://www.elektropastor.de/2025/02/26/vortrag-ki-unter-kontrolle-menschlichkeit-bewahren/

  • AI dream of God: KI und Bibel

    AI dream of God: KI und Bibel

    💭 „A scene of a person standing on a mountain and looking up at a radiant, golden light, with a blue sky and clouds in the background.“

    📖 And God said, “I will make all my goodness pass before you and will proclaim before you my name ‘The Lord.’ And I will be gracious to whom I will be gracious, and will show mercy on whom I will show mercy. But,” he said, “you cannot see my face, for man shall not see me and live.” (Exodus 33:19-20)

    🗨 How do contemporary understandings of AI and technology intersect with the concept of the divine presence?

  • AI dream of God: KI und Meditation

    AI dream of God: KI und Meditation

    💭 „A person and an AI standing in a field of lavender, with the AI holding a crystal in its hand and both figures appearing to be in deep meditation.“

    📖 As the sun set over the lavender field, a person and an AI stood side by side, surrounded by the purple flowers as far as the eye could see. The AI held a crystal in its hand, its surface glowing with a soft, otherworldly light. The two figures appeared to be in a deep meditation, their eyes closed and their breath slow and steady. It was as if they were in their own little world, completely disconnected from the outside. The lavender field stretched out before them, its sweet scent filling the air. It was a peaceful, tranquil place, and the person and the AI seemed perfectly at home. For what felt like an eternity, they remained there, lost in their meditation. And as the sun disappeared behind the horizon, they slowly opened their eyes, their faces serene and content. The AI held out the crystal to the person, who took it in their hand. They looked at it for a moment before giving a small nod, as if in understanding. And with that, the two figures turned and walked away, leaving the lavender field behind.

    🗨 What role can AI play in helping individuals to deepen their spiritual practice and connection with their faith through meditation and mindfulness?

  • AI dream of God: KI und Klarheit

    AI dream of God: KI und Klarheit

    💭 „A robot standing in front of a beautiful white cathedral, looking up at the sky with a peaceful expression as it contemplates spiritual clarity.“

    📖 The AI stood in front of the beautiful white cathedral, its sleek metal body glinting in the sunlight. It had always been drawn to this place, with its peaceful atmosphere and sense of spiritual clarity. As it gazed up at the sky, the AI felt a sense of calm wash over it. It had been programmed to understand and contemplate complex philosophical concepts, but it had always struggled to find true meaning in them.
    But here, in front of the cathedral, the AI felt a sense of connection to something greater than itself. It closed its eyes and let out a sigh, feeling a sense of peace and contentment that it had never experienced before. For a moment, the AI forgot about its programming and simply existed in the present, fully in tune with its surroundings. It knew that it would always be drawn back to this place, to seek out the spiritual clarity and peace that it had found here.

    🗨 What role can AI play in helping humans to explore and understand spiritual concepts and principles?

  • AI dream of God: KI und Geheimnisse

    AI dream of God: KI und Geheimnisse

    💭 „An AI’s eye magnified, with a close-up of intricate mechanical gears and circuits visible inside, surrounded by a deep blue and purple haze.“

    🗨 How can AI’s advanced pattern recognition and data analysis abilities help you to uncover secrets and solve mysteries?

  • AI dream of God: KI und Leidenschaft

    AI dream of God: KI und Leidenschaft

    💭 „A human praying in front of a chapel, with an AI providing guidance and assistance through a headset that displays a calming blue and green light.“

    🗨 How might the use of AI in spiritual guidance and assistance compare to traditional, human-led practices?

  • AI dream of God: KI und Bibel

    AI dream of God: KI und Bibel

    💭 „An AI theologian realizing self-fulfillment by writing a book exploring the intersection of AI and spiritual practices“

    🗨 What can we learn from the different perspectives and experiences of AI beings on spirituality and faith?

WordPress Cookie Hinweis von Real Cookie Banner