Startseite Foren Politik - Zentrale Zum Lachen und Weinen gleichzeitig: KI erfindet neue Städte in den USA

  • Yossarian

    Mitglied
    10. Januar 2026 um 8:39

    Chatbots erfinden unter bestimmten Voraussetzungen nicht nur Ortsnamen. Das Phänomen wird „halluzinieren“ genannt und ist schon lange bekannt. Das erste Mal ging es vor längerer Zeit durch die Presse, als Rechtsanwälte Schriftsätze bei Gericht einreichten, in denen erfundene Präzedenzfälle angeführt wurden. Sie hatten die Schriftsätze komplett von einem Chatbot schreiben lassen und das Ergebnis ohne Überprüfung abgeschickt. Meines Wissens nach ist die Ursache für das Halluzinieren noch nicht ganz geklärt. Die von @webra eingestellte Antwort von Copilot trifft nicht den Kern des Problems. Peinlich ist die Angelegenheit vor allem für diejenigen, die trotz eines lange bekannten Problems ungeprüft Texte übernehmen.

    Ich habe von Copilot zwei Anleitungen zum Einrichten von Servern unter Linux schreiben lassen und die sind beide fehlerfrei. Einen Fileserver aufzusetzen ist kein Hexenwerk, aber ein Webserver plus WordPress plus Absicherung gegen Hackerangriffe ist etwas umfangreicher. Bei der Fehlersuche, warum das openSUSE Linux einen Netzwerkdrucker nicht findet, war Copilot teilweise etwas umständlich, aber es kam immer zu Ziel. Voraussetzung für brauchbare Antworten ist immer, dass man so genau wie möglich beschreibt was man mit Hilfe des Chatbots erreichen will. Dann bewährt sich das System als eine Art von interaktiver Wikipedia.

    • Diese Antwort wurde in vor 1 Stunde, 34 Minuten um  Yossarian geändert.
  • Webra

    Mitglied
    9. Januar 2026 um 22:38

    Hallo Carlinette,

    ich habe bei Copilot angefragt und folgend Antwort bekommen.

    Dann lege ich los und führe dich Schritt für Schritt hinein, wie solche KI‑Fehler entstehen – gerade bei Ortsnamen, die ja besonders heikel sind.

    🧠 Warum KI so leicht Fantasie‑Orte erfindet

    KI‑Modelle erzeugen Text, indem sie Muster aus riesigen Datenmengen fortsetzen. Das funktioniert großartig, solange die Muster klar sind – aber bei Ortsnamen gibt es ein paar typische Stolperfallen.

    1. Ortsnamen sind extrem vielfältig

    Es gibt keine festen Regeln wie bei Grammatik.
    Beispiele: Missoula, Boise, Kamiah, Pocatello, Coeur d’Alene.
    Für eine KI sehen solche Namen oft wie „zufällige Silbenkombinationen“ aus.
    Also denkt sie: „So etwas kann ich auch erzeugen.“

    2. Fehlende oder unklare Kontextdaten

    Wenn ein KI‑Tool eine Karte generiert, aber:

    • keine vollständige Ortsliste hat
    • oder nur grobe Koordinaten
    • oder die Daten schlecht formatiert sind
      …dann füllt es Lücken kreativ – statt korrekt.

    3. Halluzinationen durch Wahrscheinlichkeiten

    Eine KI „weiß“ nichts.
    Sie berechnet nur, welche Buchstabenfolge wahrscheinlich passt.
    Wenn sie z. B. viele Ortsnamen aus Idaho kennt, die auf „‑a“ oder „‑o“ enden, entstehen schnell Fantasieformen wie Whata Bod oder Orangeotild.

    4. Fehlerhafte Trainingsdaten

    Wenn im Training:

    • Tippfehler
    • seltene Ortsnamen
    • oder falsch erkannte Wörter
      vorkommen, verstärkt die KI diese Muster.

    5. Zu viel Autonomie bei der Kartenerstellung

    Wenn ein System automatisch:

    • Daten interpretiert
    • Karten zeichnet
    • Beschriftungen generiert
      …kann ein kleiner Fehler in einem Schritt zu einem sichtbaren Unsinn im Endprodukt führen.

    🧭 Warum das bei Wetterkarten besonders auffällt

    Wetterkarten sind visuell klar strukturiert.
    Wenn plötzlich ein Ort auftaucht, den niemand kennt, wirkt das sofort komisch.
    Bei Texten fällt so etwas viel weniger auf.

    🟩 Kurz gesagt

    Solche Fehler entstehen, wenn eine KI Lücken kreativ füllt, statt korrekte Daten nachzuschlagen. Das ist kein „dummer Fehler“, sondern eine Folge der Art, wie Sprachmodelle funktionieren.

    Wenn du möchtest, kann ich dir auch erklären, wie man solche Fehler in Zukunft vermeiden kann oder warum Ortsnamen für KI besonders schwierig sind.

Sie müssen angemeldet sein, um zu antworten.

Verstoß melden

Schließen