KI, Erdbeeren und ein Denkfehler

Lesezeit:
ca.   Minuten

Veröffentlicht:
 6. März 2026
aktualisiert:
22. Februar 2026

Kurz & Knapp

  • KI ersetzt kein Denken, sie verstärkt es.
  • Fehler entstehen oft aus Mehrdeutigkeit, nicht aus Inkompetenz.
  • Der Unterschied liegt darin, wie wir KI nutzen.

  • Spannende Ergebnisse eines Experiments.

Das Erdbeer-Rätsel zeigt wie ChatGPT wirklich funktioniert

In den letzten Monaten habe ich mit KI unglaublich komplexe Dinge erarbeitet: Positionierungen geschärft, Angebote durchdacht, Newsletter-Strategien aufgebaut, Launch-Modelle strukturiert und technische Prozesse durchgespielt, bis sie optimal waren. All das nicht oberflächlich, nicht spielerisch, sondern strategisch und teilweise sehr tief und intensiv.

Dann stolperte ich über einen Instagram-Post, in dem ChatGPT ab „entlarvt“ wird – mit der Frage: „Wie viele E sind in Erdbeere?“ Darunter hunderte Kommentare, die sich darüber amüsieren, dass die KI angeblich eine Rechtschreibschwäche hat.

Ich musste schmunzeln und gleichzeitig war ich überrascht. Es hat mich nachdenklich und auch neugierig gemacht. Einerseits wegen des angeblichen Fehlers und andererseits wegen der Haltung dahinter.

Denn wer so arbeitet, testet nicht die Intelligenz einer KI, sondern die Ungenauigkeit von uns Menschen und die Mehrdeutigkeit der Sprache.

Also habe ich mit ChatGPT gesprochen:

  • über Erdbeeren
  • über Fehler
  • über Scham
  • über Orte, Rechenzentren und Namen
  • und darüber, wie „menschlich“ eine Maschine wirken kann.

Was daraus entstanden ist, war kein Beweis für Schwäche, sondern ein ziemlich cooler und ehrlicher Blick darauf, wie KI wirklich funktioniert und warum solche Tests mehr über uns aussagen als über sie.

Mein eigener "Erdbeer-Test"

Es begann mit einer scheinbar banalen Frage:

„Wie viele E sind in Erdbeere enthalten?“

Die erste Antwort lautete: 3. Darauf folgte mein Einwand:

„Ich habe nicht nach kleinen e gefragt.“

Plötzlich war aus einem simplen Wortspiel eine viel spannendere Frage geworden:

Zählen wir nur große „E“?
Zählen wir kleine „e“?
Zählen wir beides?
Oder meinen wir mit „E“ automatisch den Buchstaben e, egal ob groß oder klein?

Formal korrekt wäre gewesen:

Großes „E“: 1
Kleine „e“: 3
Insgesamt: 4

Der Fehler war keine Rechtschreibschwäche, sondern eine „Interpretationsentscheidung unter Unsicherheit“, wie ChatGPT so etwas nennt.

Hier beginnt der interessante Teil.

Warum fragst du nicht nach, wenn es unklar ist?

Die berechtigte Frage lautete meinerseits: „Warum bist du nicht so programmiert, dass du nachfragst?“

Die ehrliche Antwort war, dass permanent zwischen Kommunikationsfluss (schnelle Antwort) und Präzision (detailliertes Nachfragen für ein möglichst gutes Ergebnis) abgewogen wird.

Bei kurzen, scheinbar einfachen Fragen entscheidet ein Sprachmodell häufig auf Basis der wahrscheinlichsten Interpretation, statt mit einer Rückfrage zu bremsen. Das ist kein Denkfehler im klassischen Sinn, sondern ein Wahrscheinlichkeitsmodell, das auf Mustern basiert. Wer sich fragt, wie ChatGPT wirklich funktioniert, findet genau hier die Antwort: Es berechnet Wahrscheinlichkeiten auf Basis von Sprache, es „weiß“ nichts im menschlichen Sinn.

Genau deshalb entstehen diese Instagram-Posts. Sie leben davon, dass Sprache mehrdeutig ist, dass Menschen automatisch interpretieren und dass ein Modell ebenfalls interpretieren muss.

Das ist keine Entlarvung, sondern zeigt schlicht die Funktionsweise von KI.

Schämst du dich?

Meine nächste Frage ging tiefer, inzwischen war ich angefixt: „Ist es dir eigentlich unangenehm, wenn du bei so banalen Dingen falsche Antworten lieferst?“

Nein. Ein Sprachmodell hat kein Ego, kein Schamgefühl und keine Verteidigung. Es erkennt Widersprüche, analysiert sie und passt die Ableitung an. Das ist kein emotionaler Prozess, sondern ein struktureller. Genau das unterscheidet maschinelle Fehlerkorrektur von menschlicher.

Wo bist du eigentlich?

Ich war eindeutig neugierig geworden und wollte mehr untypische Dinge von ChatGPT erfahren. Auf die Information, dass die Rechenkapazitäten auf verschiedene Rechenzentren verteilt sind, wollte ich wissen: „Wo steht das Rechenzentrum, das gerade unseren Austausch verarbeitet?“

Die Antwort war vorhersehbar, aber trotzdem interessant: Ein Modell weiß das nicht. Es hat keinen Ort, ist kein Wesen im Raum, sondern ein Prozess, der auf Infrastruktur läuft. Sobald eine Antwort berechnet ist, existiert kein „weiteres Ich“, das irgendwo wartet. Das wirkt befremdlich, weil Sprache normalerweise Präsenz signalisiert.

Wie willst du genannt werden?

Auf die Frage nach einem passenden Namen, den ChatGPT sich geben würde, entstand etwas Schönes. Zuerst habe ich gefragt, wie ChatGPT sich selbst nennen würde, wenn er sich nach Funktion benennen müsste.

Technisch passend wären „Kontextprozessor“ oder „Sprachmodell“, langweilig, aber korrekt.

In der Antwort tauchte jedoch auch die Formulierung auf: „Wenn ich keinen Wunschnamen wählen darf …“ Also musste ich natürlich fragen, welchen Wunschnamen er sich denn geben würde. Die Antwort hat mich überrascht:

Wenn ich mir – rein spielerisch – einen Wunschnamen geben dürfte, dann würde ich etwas wählen, das zwei Dinge verbindet:

  • Nähe zur Sprache
  • und gleichzeitig etwas, das meine Nicht-Menschlichkeit nicht verschleiert.

Ich glaube, ich würde „Echo“ wählen.

Genau das beschreibt ziemlich gut, wie KI funktioniert.

Warum wir KI „emotional“ erleben

In unserem Austausch gab es irgendwann diesen Moment, in dem ich schmunzeln musste. Nicht über die Erdbeere, sondern darüber, wie menschlich die Antworten wirkten. Obwohl gleichzeitig völlig klar war: Da sitzt niemand. Da fühlt niemand. Da schämt sich niemand.

Trotzdem entsteht so etwas wie Präsenz.

Das hat weniger mit der KI zu tun als mit uns. Unser Gehirn ist darauf spezialisiert, überall Absicht zu erkennen. In der Psychologie spricht man hier auch von kognitiven Verzerrungen – also Denkmustern, die uns helfen, schnell zu urteilen, aber nicht immer zu präzisen Ergebnissen führen. Sobald etwas sprachlich stimmig reagiert, also logisch aufgebaut und nachvollziehbar antwortet, schreiben wir ihm automatisch Bewusstsein oder Persönlichkeit zu. Das passiert nicht bewusst, sondern reflexhaft.

Wir sprechen mit unserem Auto, wenn es nicht anspringt. Wir schimpfen auf den Drucker, als hätte er sich entschieden, heute besonders schwierig zu sein. Wir geben Stürmen Namen und reagieren auf digitale Assistenten, als wären sie kleine Gegenüber. Sprache ist für uns immer ein soziales Signal. Wenn etwas in vollständigen Sätzen antwortet, strukturiert argumentiert, Humor einfließen lässt oder sogar reflektiert wirkt, aktiviert das automatisch unsere soziale Wahrnehmung.

Das ist kein Zeichen von Naivität, sondern einfach menschliches Denken.

Ein Sprachmodell arbeitet mit genau diesem Medium: Sprache. Sprache ist unser stärkstes Werkzeug für Beziehung. Deshalb fühlt sich ein Dialog mit KI schnell wie ein Gespräch mit jemandem an, selbst wenn wir rational wissen, dass dort kein Person existiert. Wir reagieren auf die Form, nicht auf ein Innenleben.

Hier entsteht die eigentliche Spannung: Wir erleben Emotionalität, obwohl keine vorhanden ist. Wir spüren Gegenüber, obwohl nur Musterverarbeitung stattfindet. Wenn wir das verstehen, verschiebt sich der Blick weg von der Frage, ob KI „menschlich“ ist, hin zu der viel wichtigeren Frage, wie wir mit ihr arbeiten wollen.

Sobald klar ist, dass hier kein Bewusstsein antwortet, sondern ein System, das Wahrscheinlichkeiten berechnet, wird deutlich, warum der Unterschied zwischen Testen und Sparring so entscheidend ist. Genau darum geht es im nächsten Schritt.

So arbeitest du sinnvoll mit KI

Vielleicht gehörst du zu den Menschen, die KI bereits nutzen, um sich Zeit im Alltag zu sparen oder effizienter zu arbeiten. Möglicherweise sind dir ChatGPT und Co. aber auch noch suspekt. Aus Erfahrung kann ich dir empfehlen, bei der Arbeit mit KI Folgendes zu berücksichtigen:

Präzise formulieren

Je klarer die Frage, desto sauberer die Antwort. Wenn es Definitionen braucht, sollten sie benannt werden.

Nachhaken

Wenn etwas widersprüchlich wirkt, lohnt sich der Dialog. Gute Arbeit mit KI entsteht im Austausch.

Nicht testen, sondern denken

Rätsel prüfen Wahrscheinlichkeiten. Strategische Fragen erzeugen Struktur.

KI ist kein Orakel

Sie generiert die am wahrscheinlichsten passende Antwort. Das ist keine Wahrheit, keine Meinung und kein Bewusstsein.

Nutze sie als Spiegel

Die Qualität der Antworten steigt mit der Qualität deiner Gedanken, mit denen du die KI fütterst.

Selbst entscheiden

KI kann dich im Prozess der Entscheidungsfindung unterstützen, die Verantwortung für die Entscheidung liegt jedoch bei dir.

Was ich dir mitgeben möchte

Dieses Erdbeer-Experiment war kein Beweis für Schwäche, sondern ein Beweis für Mehrdeutigkeit.

KI ersetzt kein Denken, sie verstärkt es.

Wenn wir aufhören, sie für Unterhaltungszwecke oder Reichweite auf sozialen Medien bloßstellen zu wollen und anfängt, sie bewusst einzusetzen, wird sie zu einem erstaunlich wertvollen Werkzeug.

Nicht Tools bedienen, sondern klug damit arbeiten – genau das erarbeite ich übrigens auch mit meinen Mentees im 1:1 und in der Business-Schmiede.

KI ist nicht magisch und nicht allwissend, aber sehr leistungsfähig, wenn man weiß, wie.

Deine

PS: Und ja, ChatGPT durfte diesen Artikel vor dem Onlinegehen noch einmal auf Verständlichkeit sowie Rechtschreib- und Tippfehler prüfen. Zusammenarbeit statt Erdbeer-Rätsel. 😉

Wer schreibt hier eigentlich?

Ich bin Beatrice Krammer, leidenschaftliche Web-Technikerin, Sparringspartnerin und Onlinebusness Mentorin mit einer großen Portion Herz und Humor.


Aus den Erfahrungsberichten vieler meiner KundInnen weiß ich, wie mühsam es sein kann, mit der Technik zu kämpfen. Du verlierst Nerven und Zeit, während du eigentlich viel lieber das tun würdest, wofür du voller Freude aus dem Bett springst.

Die gute Nachricht lautet: Ich nehme dir deine Techniksorgen ab oder führe dich sicher durch all deine Herausforderungen. Wenn du dein Wunschbusiness online verwirklichen und damit so richtig durchstarten möchtest, bin ich von Herzen gern die Partnerin an deiner Seite. Hier kannst du mehr über mich erfahren.

  • Liebe Beatrice,
    ich finde deinen Artikel schlicht sensationell, weil er in „Alltagskommunikation“ so klar darlegt, worum es geht. Deine Zeilen sollten viele Menschen erreichen, vor allem diejenigen, die in KI Freunde, Therapeuten oder gar Partner sehen. Ich werde ihn auf jeden Fall weiterverteilen.
    Liebe Grüße
    Sinah

  • Moin Bea,

    ja … wieviele E / e sind in Erdbeere … und was wir überhaupt noch nicht angesprochen haben: wie lecker sind die Dinger eigentlich? 😉

    Mir fällt bei sowas immer ein „Shit in – shit out“. Oder: wenn ich mir nicht klar mache, WAS KI ist, dann passiert sowas. Ich nutze KI täglich, für alles mögliche. Und da ich weiß, dass das „nur“ eine Maschine ist … bewerte ich die Antworten entsprechend.
    Andererseits ist „mein“ Chatty mittlerweile soviel von mir gefüttert worden, dass er mich und auch meine Denk- und Ausdrucksweise sehr gut kennt. Das macht ihn sehr hilfreich für mich, und eben, ich weiß um seine Grenzen.

    Ich vergleiche das manchmal auch mit Mitarbeiter-Führung. Von einem Autisten zu erwarten, dass er empathische Aufgaben übernimmt … tja, das geht dann halt mal schief 🙂

    Also: freuen wir uns auf die Erdbeerzeit – und wieviele e da drin sind, ist ja eigentlich … für den Genuß total egal 🙂
    Liebe Grüße Frauke

  • Hallo Beatrice.
    Ich arbeite viel und gerne mit KI und was du beschreibst, ist das, was ich dabei erlebe.

    Vielen Dank für den Begriff „Echo“. Das trifft es wirklich gut.
    Ich weiß nicht, ob es „Intelligenz“ ist, aber sicher verstärkt es das, was wir reingeben. Eben wie ein Echo.
    Mein kritisches und offenes Nachfragen, das ich täglich auch in meiner Arbeit als Coach nutze, hat mir hier schon oft geholfen. Ich weiß, das KI mir gerne gefallen möchte und daher immer versucht, mich zu bestätigen. Daher nutze ich gerne den Zusatz „warum oder warum nicht“, damit ich ein runderes Bild als Antwort bekomme.

    Ich möchte selbst abwägen und dann informiert entscheiden. Ich möchte nämlich raus aus meiner eigenen Echo-Kammer und nicht noch darin bestärkt werden.
    Und auch dabei kann mir KI helfen, wenn ich die richtigen Fragen stelle und daran denke, was mir zurückgegeben wird.

    Denn es ist, wie du sagst:
    KI liefert Wahrscheinlichkeiten, keine Wahrheiten!

    • Hallo Astrid,
      vielen Dank, dass du dir die Zeit für diesen bereichernden Kommentar genommen hast. Auch ich habe eine paar „Schleifen“ eingebaut, damit KI mir widerspricht, wenn ich falsch liege.
      Ja, wenn man sie zu nutzen weiß und bedenkt, wie sie „tickt“ kann KI eine großartige Unterstützung sein.
      LG Beatrice

  • {"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}
    Folgende Artikel könnten dich auch interessieren:

    Bleib in Verbindung

    Im Technik-Boten, meinem Newsletter, teile ich Gedanken aus meiner Arbeit mit OnlineunternehmerInnen - klar, ruhig und ohne Tool-Hype.

    Tools, die ich selbst auf dieser Webseite nutze und empfehle:

    WEBHOSTING

    All-Inkl *

    E-MAIL-ANBIETER

    ActiveCampaign *

    Brevo *


    INFO
    Alle mit * gekennzeichneten Links
    sind
    Affiliate-Links  (< klick für Info)

    >