Startseite › Foren › Politik - Zentrale › Zum Lachen und Weinen gleichzeitig: KI erfindet neue Städte in den USA
-
Zum Lachen und Weinen gleichzeitig: KI erfindet neue Städte in den USA
Von Carlinette am 9. Januar 2026 um 22:11Guten Abend!
Lt. Washington Post und anderen hat der amerikanische Wetterdienst letztens verstärkt auf KI gesetzt – und zu wenig Personal, um deren Ergüsse zu berichtigen. Nachdem sich Leser darüber mokierten, dass auf der Wetterkarte nicht existente Städte verzeichnet waren (Whata Bod, Orangeotild…), wurde das Fantasieprodukt wieder offline genommen.
Vielleicht kann jemand hier, der richtig gut US-Amerikanisch kann, uns noch sagen, ob die beiden Fake-Ortsnamen irgendwie politisch belastet sind? 😅 Ich mein ja nur – bei „Orange“ horchen wir alle auf!
https://oecd.ai/en/incidents/2026-01-07-1ff3
https://www.washingtonpost.com/weather/2026/01/06/nws-ai-map-fake-names/
Carlinette antwortete vor 1 Monat, 1 Woche 7 Mitglieder · 11 Antworten -
11 Antworten
-
Moin, lieber @Yossarian! Schön, dass grad mal wieder auftauchst 🙂, und deine Inputs finde ich ausgesprochen wichtig, da überlegt!
Also, zu den Kryptowährungen, ich habe keinen Überblick, ob diese Art von Investition wirklich weit verbreitet ist. In meinen Augen waren sie bislang ein Randphänomen für risikoaffine Geeks, sonst nichts. Keine Ahnung, ob das stimmt!
Natürlich sind Streaming usw. auch Energiefresser, das ist hinlänglich bekannt. Ob die Ausstrahlungen von früher weniger gefräßig waren, weiß ich nicht, aber es gibt sie ja (zumindest hier) sowieso nicht mehr. Obendrein muss ich gestehen, dass ich noch nichtmal einen Fernseher besitze und auch daher nicht am Thema dranbleibe…
In meinem beruflichen Umfeld sind die Ansichten zur KI sehr gespalten. Anwälte, Übersetzer und Dolmetscher habe ich sagen hören, dass sie schon jetzt um ihre Existenz fürchten. Lehrkräfte sind oft überfordert, um KI-generierte Hausaufgaben schnell genug zu identifizieren. Andere Stimmen gibt es aber auch: Sozialarbeiter, die unzählige Berichte liefern sollen, füttern ihre KI mit einer Faktensammlung und generieren daraus strukturierte Berichte; sagen ihrer KI dabei aber, dass sie das Maul halten soll, wenn es um die Bewertung der Fakten geht 😆 Und die aufwändige Bildauswertung nach dem Scannen und Röntgen scheint ebenfalls von KI zu profitieren.
Nur läuft eben auch sehr viel aus dem Ruder. Die Einflussnahme auf die menschliche Psyche und politische Ansichten vor Wahlentscheidungen sehe ich als hoch problematisch an. Auch Betrüger profitieren von KI: es gab gerade Berichte über KI-generierte Familien, die angeblich in großem Umfang Sozialleistungen bezogen haben. Ob unsere Politik da schnell genug ist, um Schlimmeres zu vermeiden? Wir haben schon jetzt ein ziemliches Schlamassel, weil die BigTechs eine Koalition mit Donald Trump und Konsorten eingegangen sind. KI unter einer autoritäten Regierung, das kann böse werden. Finde ich jedenfalls!
-
Mit Verzögerung eine Antwort zu dem vom @Carlinette erwähnten Problem. Ja, es ist richtig, dass bei der gegenwärtigen benutzten Technik die KI-Systeme sehr viel Strom verbrauchen. Es gab aber neben der gegenwärtig benutzten Technologie noch andere Ansätze. Die steckten allerdings alle noch in den Kinderschuhen, während die aktuelle Technologie zur Verfügung stand. Hard- und softwaremäßig wird sich da bstimmt noch viel tun.
Erstaunlich finde ich allerdings, dass jetzt auf einmal der Stromverbrauch wieder ein Thema wird, während von einem anderen System niemand mehr spricht, obwohl das seit Jahren Unmengen von Strom verbraucht. Da ist der Verbrauch allerdings nicht auf wenige Zentren konzentriert, sondern breit gestreut und deswegen nicht so leicht bezifferbar. Trotzdem hat China schon vor längerer Zeit Privatpersonen das „Schürfen“ von Kryptowährungen verboten, eben weil dabei unvorstellbare Mengen von Strom verbraucht werden. Das ist nämlich der große Nachteil von Kryptowährungen, zumindest von denen, die auf dem Prinzip „proof of work“ beruhen.
Ist es nicht seltsam, dass sich niemand mehr dafür interessiert? Darum ist diese Diskussion für mich scheinheilig.
Ein Nachtrag noch: bis zum Erscheinen der Kryptowährungen galt übrigens YouTube als einer der schlimmsten Sünder bei diesem Thema. Das Speichern und Streamen unzähliger Filmchen kostet ebenfalls sehr viel Energie. Hier im Forum kann man verfolgen, wie so nebenbei ein weiterer Stromfresser ohne Ende bedient wird. Auch das ist anscheinend kein Thema mehr. Ist das vielleicht so, weil gerade eine neue Sau durchs Dorf getrieben wird?
-
Finde das Halluzinieren der KI, ist ganz gut erklärt, immer wenn Datensätze für das komplette Bild fehlen oder mangelhaft sind, korrigiert und ergänzt die KI und das führt teilweise zum Halluzinieren. Die KI erfindet kreativ die Fakten und füllt damit die Lücken. Es ist ähnlich wie bei einem Halluzinierenden psychisch kranken Menschen, ein Symptom womit man z.B. Schizophrenie erkennen kann. Da sind es Fehlschaltungen im Gehirn, die dazu führen, dass der Mensch Dinge wahrnimmt, auf das er schwört, dass sie da sind, die es aber real nicht gibt. Sie bilden sich nur im kranken Gehirn und genauso halluziniert die KI, wenn es Lücken in der Information gibt, die Lücken werden gefüllt mit Dingen, die es real nicht gibt. Die KI soll logisch ergänzen, das ist ihre Aufgabe, da kommt manchmal Quatsch dabei heraus. Ganz ähnlich wie die Autokorrektur auf dem Handy, wie oft kommt Quatsch dabei heraus.
-
@Yossarian neulich (10. Januar – naja, war viel unterwegs):
Die Auseinandersetzung um KI hat schon einige Facetten mehr zu berücksichtigen als nur Halluzinationen vs. nützliche Problemlösungen durch KI, denke ich. Insbesondere frage ich mich, wozu z.B. so viele Bildchen mit KI generiert werden, nur zum Spaß in sehr vielen Fällen, wenn doch bekannt ist, dass die benötigte Rechenleistung eine Unmenge Energie frisst? Berücksichtigen wir den Gesamtbedarf, also das Training und die Bearbeitung von Anfragen/Problemen, stößt unsere Energieversorgung schnell an ihre Grenzen. Wollen wir wirklich DAZU noch mehr neue Kraftwerke hinstellen?
Auf Netzpolitik.org stand schon vor einem Jahr einiges zum Thema generative KI unter dem Titel „Klimaschädlich bei Design“:
Generative KI ist inhärent ein nicht nachhaltiges System. Sie kann zu den Klima- und Nachhaltigkeitszielen wenig bis nichts beitragen. Schlimmer noch: Sowohl die Schaffung großer Sprachmodelle als auch deren Nutzung sind nicht nur nicht nachhaltig, sondern in hohem Maße umweltschädlich. Generative KI bringt also keine Lösung für die Klimakrise, sondern heizt sie massiv an, insbesondere wenn alle weiter kopflos dem Marketingversprechen folgen, wonach generative KI so gut wie alle Branchen quasi revolutionieren werde.
Gegen den KI-Glauben gibt es bisher nur wenig öffentlichen Gegenwind. Doch weltweit wehrt sich die Zivilgesellschaft: von indigenen Bewegungen im schwedischen Teil Sapmís, die gegen Metas Rechenzentren demonstrieren, bis hin zu Protestierenden in Montevideo, die ihr Trinkwasser gegen Verschmutzungen durch Googles Rechenzentren schützen wollen. Doch die Diskussionen um den Energie- und Wasserverbrauch, die problematischen Arbeitsbedingungen oder auch die kolonialen Kontinuitäten beginnen erst.
Mit Blick auf Deutschland lassen sich im Vorfeld der Bundestagswahl drei zentrale Forderungen in Bezug auf die ökologischen Kosten der generativen KI erheben: Erstens braucht es strenge Transparenz über den Energie- und Ressourcenverbrauch von Rechenzentren. Zweitens sollte staatliche Förderung nur an spezifische KI-Modelle gehen, die explizit Nachhaltigkeitskriterien erfüllen. Und drittens brauchen wir eine breite gesellschaftliche Debatte darüber, ob und wie wir uns umweltschädliche KI-Systeme in Zeiten der Klimakrise leisten können – und wollen.
https://netzpolitik.org/2025/generative-ki-klimaschaedlich-by-design/
-
Diese Antwort wurde in vor 1 Monat, 2 Wochen um
Carlinette geändert.
-
Diese Antwort wurde in vor 1 Monat, 2 Wochen um
-
Huch… tut mir leid, ich hab mein „American English“ abgerufen, aber meistens war… Pause. Komisch, in Florida hab ich einen „etwas angeheiterten“ Kalifornier besser verstanden als er Kaugummi kaute. Wahrscheinlich deswegen, weil ich mir amerikanische Filme angeschaut habe, im Original, und die Cowboys kauten dauernd Tabak, da hab ich verstanden was die gespuckt haben. Oder wiedergekäut.
Mein Kalifornier wollte mich zu sich einladen: „Cum a du me, I ha red wine aaand uait uain, I schou ju“
Na klar, sowas verstehe ich noch, aber nicht manche Begriffe aus der Zeitung, zum allgemeinen Verständnis sollten sie nicht dermaßen mit „self created“ Begriffen abschweifen und alles rumschwurbeln, wie z.B. Hotdog: „
Der US-amerikanische Kulturhistoriker Andrew F. Smith weist darauf hin, dass deutschstämmige Metzger in den USA bekannt dafür gewesen seien, „wurstförmige Hunde“ zu halten, nämlich Dackel. Diese Tatsache habe gewisse Assoziationen zwischen deutschen Würstchen und Hunden gefördert.[9] Im Oktober 1893 hatte der Hotdog bei der Chicagoer Weltausstellung seinen amerikanischen Siegeszug angetreten.[10] Seit 1916 wird jedes Jahr am US-amerikanischen Nationalfeiertag in New York City ein Internationales Hot-Dog-Wettessen ausgetragen
-
-
@seestern47 Das sind großartige „Experten“, die die Schwächen von KI-generierten Texten nicht kennen. Was die Diskussionen um das Thema KI hier im Forum so langweilig macht: es werden immer nur Zeitungsberichte verlinkt, wo und wie mal etwas nicht funktioniert hat. Anscheinend hat niemand Interesse an einer Gegenüberstellung wo die Systeme nützlich sind und wo sie Schwierigkeiten haben. Statt dessen läuft das nach meinem Empfinden „typisch deutsche Hobby“, nämlich an allem Neuen herumzumäkeln und Fehler zu suchen. Deswegen lohnt es sich nicht, sich hier an einem derartigen Thema zu beteiligen.
-
Dazu passt:
„Selbst die EU-Cyberagentur Enisa kämpft mit den Tücken von KI. Die Experten verfassten einen Bericht über Gefahren durch Hacker und nutzten auch künstliche Intelligenz. Das Problem: Viele Quellen existieren gar nicht.“ 🤪😃
-
Chatbots erfinden unter bestimmten Voraussetzungen nicht nur Ortsnamen. Das Phänomen wird „halluzinieren“ genannt und ist schon lange bekannt. Das erste Mal ging es vor längerer Zeit durch die Presse, als Rechtsanwälte Schriftsätze bei Gericht einreichten, in denen erfundene Präzedenzfälle angeführt wurden. Sie hatten die Schriftsätze komplett von einem Chatbot schreiben lassen und das Ergebnis ohne Überprüfung abgeschickt. Meines Wissens nach ist die Ursache für das Halluzinieren noch nicht ganz geklärt. Die von @webra eingestellte Antwort von Copilot trifft nicht den Kern des Problems. Peinlich ist die Angelegenheit vor allem für diejenigen, die trotz eines lange bekannten Problems ungeprüft Texte übernehmen.
Ich habe von Copilot zwei Anleitungen zum Einrichten von Servern unter Linux schreiben lassen und die sind beide fehlerfrei. Einen Fileserver aufzusetzen ist kein Hexenwerk, aber ein Webserver plus WordPress plus Absicherung gegen Hackerangriffe ist etwas umfangreicher. Bei der Fehlersuche, warum das openSUSE Linux einen Netzwerkdrucker nicht findet, war Copilot teilweise etwas umständlich, aber es kam immer zu Ziel. Voraussetzung für brauchbare Antworten ist immer, dass man so genau wie möglich beschreibt was man mit Hilfe des Chatbots erreichen will. Dann bewährt sich das System als eine Art von interaktiver Wikipedia.
-
Diese Antwort wurde in vor 2 Monaten um
Yossarian geändert.
-
Diese Antwort wurde in vor 2 Monaten um
Sie müssen angemeldet sein, um zu antworten.