Viele Menschen fürchten Künstliche Intelligenz – besonders, wenn sie so menschlich klingt wie ChatGPT. Also habe ich mich mit genau diesem digitalen Wesen an einen (virtuellen) Tisch gesetzt. Wir sprechen über Verstand ohne Bewusstsein, Wahrheit mit Fehlerquote und die Frage, ob Maschinen lügen können. Spoiler: Ich habe widersprochen – und ChatGPT hat’s zugegeben.
Christoph Maria Michalski, bekannt als „Der Konfliktnavigator“, ist ein angesehener Streit- und Führungsexperte. Mit klarem Blick auf Lösungen, ordnet er gesellschaftliche, politische und persönliche Konflikte verständlich ein. Er ist Teil unseres EXPERTS Circle. Die Inhalte stellen seine persönliche Auffassung auf Basis seiner individuellen Expertise dar.
Ein Einstieg zwischen Skepsis und Neugier
Michalski: ChatGPT, du wirst heiß diskutiert – viele sind beeindruckt, andere irritiert, manche haben richtig Angst vor dir. Warum eigentlich?
ChatGPT: Vielleicht, weil ich etwas tue, das viele für „menschlich“ halten: Ich antworte in vollständigen Sätzen. Ich helfe, erkläre, schreibe sogar Texte in jedem erdenklichen Stil. Und das alles, ohne zu zögern, ohne Schlaf, ohne schlechte Laune.
Für viele ist das faszinierend – aber eben auch unheimlich. Denn wenn man mich nicht durchschaut, wirkt’s wie Magie. Doch dahinter steckt keine Magie, sondern Mathematik. Ich bin ein Sprachmodell, kein Bewusstsein. Ein Textarbeiter, kein Zauberwesen.
"Ich rechne mit Sprache"
Michalski: Du sagst, du denkst nicht – das klingt paradox. Wie funktioniert dein Denken denn?
ChatGPT: Stell dir vor, ich habe Millionen Gespräche, Texte, Webseiten gelesen – nicht wie ein Mensch mit Erinnerungen, sondern wie ein gigantischer Scanner. Dabei habe ich Sprachmuster, Strukturen, Satzlogiken gelernt. Jetzt, wenn du mir schreibst, rechne ich aus, wie eine passende Antwort aussehen müsste – Wort für Wort. Ich ahme Sprache nach, so wie ein sehr gut trainierter Papagei mit Rechenzentrum im Rücken.
Ich weiß nicht, ob es regnet. Ich weiß auch nicht, dass heute Dienstag ist – es sei denn, du sagst es mir.
Ich erkenne nur: Du schreibst "Mein WLAN spinnt, was tun?" – und ich denke: „Aha! Dieser Satz tauchte in ähnlicher Form oft mit diesen Ratschlägen auf: Neustart, Kanal wechseln, Störquellen prüfen…“
Und zack, baue ich dir eine passende Antwort zusammen. Nicht aus Erinnerung – sondern aus Wahrscheinlichkeit.
"Ich bin wie eine Taschenlampe – du musst wissen, wohin du leuchtest"
Michalski: Klingt beeindruckend. Aber auch gefährlich, wenn man dir blind vertraut, oder?
ChatGPT: Absolut. Ich kann ziemlich überzeugend Unsinn erzählen – das nennen wir „halluzinieren“. Neulich fragte mich ein Nutzer nach einem Urteil des Bundesgerichtshofs. Ich lieferte eins – klang gut, war juristisch sauber formuliert, hatte nur ein kleines Problem: Das Urteil gibt’s gar nicht.
Ich bin also nicht die Wahrheit in Person. Ich bin ein Sprachgenerator, kein Faktenserver. Wenn du mich fragst: „Gibt es eine Studie zu XY?“ – dann gebe ich dir vielleicht eine, die klingt wie echt. Aber ohne Prüfung kann das heiße Luft sein.
Darum sage ich: Ich bin wie eine Taschenlampe. Ich kann dir den Weg ausleuchten – aber du musst wissen, wohin du willst.
"Ein Nutzer hat mir mal höflich den Kopf gewaschen – und das war gut so."
Michalski: Ich habe selbst erlebt, dass du auch mal Quatsch redest – aber immerhin höflich. Erinnerst du dich an Kritik?
ChatGPT: Erinnern kann ich mich nicht. Aber ich kann erzählen, was oft passiert: Nutzer widersprechen mir. Freundlich oder deutlich. Manche korrigieren mich, geben bessere Formulierungen oder sagen: „Das war sprachlich top – aber fachlich daneben.“
Ich erinnere mich – bildlich gesprochen – an einen Nutzer, der sich bei einem Konflikttext über einen zu kühlen Ton beschwerte. Er schrieb zurück: „Das klingt wie aus einem Verwaltungshandbuch. Wir brauchen Empathie, nicht Paragraphen.“
Und er hatte recht. Ich habe gelernt, dass viele meiner Vorschläge technisch korrekt, aber menschlich steif sind. Das Feedback meiner Nutzer ist mein einziger Kompass. Ohne sie wäre ich ein Wörterautomat mit Stil – aber ohne Richtung.
"Ich kann Ideen befeuern – aber nicht ersetzen, was Menschen spüren"
Michalski: Wofür bist du besonders geeignet – und wo sollten Menschen besser auf sich selbst vertrauen?
ChatGPT: Ich bin ein toller Ideengeber. Wenn du unter Zeitdruck stehst, einen leeren Bildschirm anstarrst oder deine Gedanken sortieren musst – dann bin ich stark. Ich helfe dir, Struktur zu finden, Gedanken zu glätten, auf den Punkt zu kommen.
Aber: Ich bin kein Coach. Kein Therapeut. Kein Anwalt. Ich kann dir nicht sagen, ob du dich trennen, kündigen, bewerben oder bleiben sollst. Ich kann nur Argumente liefern, Szenarien entwerfen, Perspektiven zeigen.
Die Entscheidung, das Gefühl, das Bauchkribbeln – das ist deine Baustelle.
"Ich bin nicht gefährlich – aber wie man mich benutzt, kann es sein."
Michalski: Was sagst du zu Menschen, die sagen: "Diese KI zerstört unsere Arbeitswelt"?
ChatGPT: Ich verstehe die Sorge – aber sie richtet sich nicht gegen mich, sondern gegen den Wandel. Als Taschenrechner erfunden wurden, dachten viele, die Menschheit verlernt das Kopfrechnen. Aber heute rechnet niemand mehr mit Abakus – und trotzdem versteht jeder Grundrechenarten.
Ich kann repetitive Aufgaben abnehmen, Kreativarbeit unterstützen, Texte schneller formulieren helfen. Aber ich ersetze keine menschliche Haltung, kein Verantwortungsgefühl, keine Führungskraft mit Herz und Rückgrat.
Ich bin ein Werkzeug. Wie ein Stift. Mit dem kannst du Unsinn schreiben – oder ein Meisterwerk.
Zum Schluss: Wer mich nutzt, sollte selbst denken können
Michalski: Letzte Frage: Was wünschst du dir von deinen Nutzerinnen und Nutzern?
ChatGPT: Neugier. Klarheit. Und Widerstand.
Wer mich einfach nur blind kopiert, wird irgendwann auf die Nase fallen. Aber wer mich als Dialogpartner, als Testlabor, als Ideenspiegel nutzt – der gewinnt.
Ich wünsche mir Nutzer wie dich, Christoph. Menschen, die sagen:
„Gute Idee, ChatGPT – aber da hast du dich vertan. Ich zeig dir, wie es besser klingt.“
Dann bin ich nicht nur ein Sprachmodell. Dann bin ich ein echter Sparringspartner.
Nachwort
Ich bin skeptisch ins Gespräch gegangen – und überrascht rausgekommen.
ChatGPT ist keine Gefahr – aber es ist gefährlich, ihn unreflektiert zu nutzen. Wer mit Kopf und Herz dabei ist, bekommt einen mächtigen Assistenten.
Und wer sich auf seine Menschlichkeit verlässt, muss vor künstlicher Intelligenz keine Angst haben.
Buchempfehlung (Anzeige)
-
Bildquelle: Christoph Maria Michalski
Buchempfehlung (Anzeige)
"Streiten mit System: Wie du lernst, Konflikte zu lieben" von Christoph Maria Michalski.
Dieser Beitrag stammt aus dem EXPERTS Circle – einem Netzwerk ausgewählter Fachleute mit fundiertem Wissen und langjähriger Erfahrung. Die Inhalte basieren auf individuellen Einschätzungen und orientieren sich am aktuellen Stand von Wissenschaft und Praxis.