Wenn High-Tech auf Retro trifft – und verliert
Man stelle sich vor: Eine der modernsten KIs unserer Zeit, ChatGPT 4o von OpenAI, versagt kläglich gegen ein Schachprogramm, das auf einem Heimcomputer aus den 70ern läuft – dem legendären Atari 2600. Während KI-Modelle heute ganze Romane schreiben, Filme produzieren oder medizinische Diagnosen unterstützen, genügte ein 8-Bit-Prozessor mit 128 Byte Arbeitsspeicher, um der KI eine schachliche Lehrstunde zu erteilen.
Was wie ein Scherz klingt, wurde vom Citrix-Ingenieur Robert Caruso dokumentiert und sorgt für Aufsehen in der Tech-Welt. Sein Experiment zeigt: Selbst eine KI, die scheinbar alles weiß, kann an den einfachsten Dingen scheitern – besonders, wenn es ums konkrete Denken geht.
Warum verliert eine moderne KI gegen pixelige Schachfiguren?
„Es ist eine Sache der Zeit bis das läuft“, mag man denken – doch so einfach ist es nicht. ChatGPT kann problemlos erklären, was eine Rochade ist, warum das Londoner System beliebt ist oder wie Bobby Fischer spielte. Doch im Live-Spiel tappte die KI immer wieder in dieselben Fallen: illegale Züge, übersehene Drohungen, verwirrte Figurenpositionen.
Der Grund? Sprachmodelle wie ChatGPT sind nicht fürs visuelle oder regelbasierte Denken geschaffen – zumindest nicht in der Tiefe, wie es ein reines Schachprogramm kann. Atari Chess hingegen wurde genau dafür programmiert: Es kennt keine Konversation, keine Emotionen, keine Ablenkung – nur Schach.
Selbst als Caruso versuchte, ChatGPT entgegenzukommen, etwa durch vereinfachte Figuren-Symbole, änderte sich das Ergebnis nicht. „ChatGPT machte genug Fehler, um von einem Drittklässler-Schachclub ausgelacht zu werden“, kommentierte er trocken.
Schach: Die Schwachstelle smarter Systeme?
Schach galt lange als Königsdisziplin der KI. Spätestens seit IBMs Deep Blue 1997 Garri Kasparow besiegte, war klar: Maschinen können beim Spiel der Könige Menschen schlagen. Doch Carusos Experiment beweist, dass nicht jede KI automatisch zur Großmeisterin wird.
Die Erklärung liegt im Aufbau heutiger Sprachmodelle. Sie arbeiten mit Wahrscheinlichkeiten und Textmustern – nicht mit konkreter Weltlogik. Wenn also ein Modell weiß, wie Schach beschrieben wird, heißt das nicht, dass es Schach spielen kann. Für echtes strategisches Denken braucht es spezialisierte Systeme, wie etwa AlphaZero von DeepMind – aber eben nicht ChatGPT.
KI ist mächtig, aber nicht unfehlbar
Das Ergebnis mag auf den ersten Blick amüsant sein, zeigt aber ein ernstes Problem: Viele überschätzen, was KI tatsächlich kann. Nur weil ein System eloquent wirkt, ist es noch lange nicht „intelligent“ im menschlichen Sinne. Im juristischen Kontext heißt das für uns: Vertrauen ist gut, aber Kontrolle ist Pflicht. Kein Richter würde auf Basis eines KI-Vorschlags urteilen – und das ist auch gut so.