Genuss
Antworten
-
Jetzt habe ich lange überlegt und festgestellt, dass ich den “Eigenstolz” nie gepflegt habe, sondern lediglich scheinbar oft richtig gehandelt habe. Jedoch habe ich viele Dinge erlebt, die mich kurzfristig oder langfristig glücklich machten auch wenn sie oft hart erarbeitet waren.
Ich hoffe das bleibt auch so.
-
Ich kenne den Laden nicht ich arbeite schon von Anfang der Gründung mit pay-pal ohne Probleme
Schau mal bei Trustpilot nach da sieht man unter “Klarna”
die verrücktesten Bewertungen.
-
Spielt ja auch keine Rolle, denn der eigentliche Feuerring ist im pazifischen Raum…
Was sicher sein soll ist Die Wahrscheinlichkeit, dass es in der Eifel wieder zu einem Ausbruch kommt, das liegt bei 100 Prozent, da sind sich alle einig. Ebenso die Wahrscheinlichkeit, dass bis dahin nicht noch eine Million Jahre vergeht.
-
Hallo @forscher Lange Zeit sahen Wissenschaftler den Laacher See Vulkan als erloschen an, heute geht man davon aus, dass er nur ruht und jederzeit wieder ausbrechen kann. Kalte Kohlendioxid-Austritte (Mofetten) am Ostufer des Sees, deuten darauf hin, dass es im Untergrund noch eine aktive Magmakammer gibt.
Wenn du Zeit hast besuche die Ecke mal da sind ständig irgendwelche Forschungsgruppen aus aller Welt. Also immer was los.
Als ich 1967 bei den Heeresfliegern in Niedermendig war, war ich oft als 1. Wart bei den Erkundungsflügen dabei. Schon damals hat man diese Mofetten entdeckt.
-
KI sinnvoll verwenden und nutzen:
Neue Sprach-App kann Hundelaute übersetzen Erstaunliche Trefferquote von 70 Prozent
Es gibt schon viele Handy- Apps, die angeblich Hundesprache übersetzen können.
Doch die Resultate sind meist enttäuschend. Ein neuer, auf künstlicher Intelligenz (KI) basierender Ansatz soll das nun ändern. Die App Wav- 2Vec2 (https://huggingface.co/docs/transformers/model_doc/wav2vec2 ) oder( https://hackernoon.com/de/wav2vec2-für-die-automatische-Spracherkennung-in-einfachem-Englisch ) wurde eigentlich für die menschliche Sprache entwickelt. Sie erkennt feine Unterschiede in der Stimme wie Tonfall, Tonhöhe und Akzente.
Forscher der Universität Michigan haben damit nun aber 8.000 verschiedene Laute wie Bellen, Wimmern und Knurren von 74 Hunderassen in verschiedenen Lebenssituationen analysieren lassen – und siehe da: In 60 bis 70 % der Fälle kann Rasse, Stimmung und sogar das Geschlecht korrekt identifiziert werden.
Damit ist die App erfolgreicher als alle anderen auf Hunde spezialisierten Apps – und wird jetzt auch bei anderen Tierarten getestet.
Der trainierten KI gelang es daraufhin, Hundelaute mit einer erstaunlichen Zuverlässigkeit dem korrekten Geschlecht, der korrekten Rasse und dem Gemütszustand des Hundes zuzuordnen. Wer dabei allerdings die Präzision eines olympischen Bogenschützen erwartet, wird enttäuscht.
Das Geschlecht wurde bei 70 Prozent der Versuche erkannt (bei einer 50:50-Chance). Die Bestimmung der Rasse gelang bei 62,28 Prozent der Fälle. Genauso erfolgreich (62,18 Prozent) war das Zuweisen einer von vier Gemütslagen. Die KI unterschied dabei, ob der Hund eine fremde Person aggressiv anbellte, ob er sie normal anbellte, ob der Hund feindselig knurrte oder ängstlich winselte.
Ein aggressives Bellen von einem ängstlichen Winseln zu unterscheiden – noch geht es bei der Erkennung von Tierlauten um rudimentäre Unterscheidungen. Von «Ich möchte lieber einen Knochen als eine Wurst» sind wir noch sehr weit weg.
-
-
Der Artikel wurde gestern im meiner Telecom-News (News You Can Use) veröffentlicht.
KI versagt kläglich: LLMs können einfachste Logik-Aufgaben nicht lösen
(Dienstag, 11. Juni 2024) Eine Studie hat die Leistung von insgesamt 27 aktuellen Large Language Models (LLM) mit einer simplen Logik-Aufgabe getestet. Die Forscher sind von den Antworten und Erklärungsversuchen der KI besorgt. Fast alle Modelle fallen durch, bis auf zwei. / KI-Anwendungen immer noch mit großen Defiziten
Schaut man sich den Enthusiasmus an, mit dem Unternehmen wie Microsoft oder Google künstliche Intelligenz in ihre Anwendungen und Plattformen einbauen, sollte man meinen, die neue Technologie sei bereits völlig ausgereift. Dass das natürlich nicht der Fall ist, muss jedoch jedem klar sein.
Test mit Logikaufgabe
Dass Large Language Models (LLMs) wie GPT, Claude oder Gemini in einigen Bereichen extreme Schwächen haben und teilweise nicht einmal einfachste Aufgaben lösen können, beweist jetzt wieder einmal eindrucksvoll eine wissenschaftliche Untersuchung. Die Studie (PDF) von Forschern des Jülich Supercomputing Center, des Forschungszentrums Jülich und der School of Electrical and Electronic Engineering an der University of Bristol stellte den LLMs dabei eine simple Logikaufgabe, an der diese reihenweise scheiterten.
Infografik Künstliche Intelligenz: Marktwachstum von jährlich rund 20 Prozent Künstliche Intelligenz: Marktwachstum von jährlich rund 20 Prozent
Die Frage, die es zu beantworteten galt, lautete:
“Alice hat N Brüder und sie hat M Schwestern. Wie viele Schwestern hat der Bruder von Alice?”
Merke: Die korrekte Antwort auf die in der Untersuchung gestellte Frage lautet natürlich M + 1. Als Beispiel: Bei N = 2 und M = 4 wäre die richtige Antwort also 5.
LLMs scheitern reihenweise
In mehreren Versuchen wurden die Variablen N und M mit konkreten Zahlen ersetzt. Die unterschiedlichen KIs wurden außerdem mit mehreren andersartig gestalteten Prompts zur Lösung des Problems aufgefordert. Die Leistung von 27 verschiedenen LLMs wurde dabei verglichen, darunter GPT-4 und GPT-4o, Claude 3 Opus, Llama-2-70b, Mistral Large und Gemini Pro. Die Ergebnisse waren alles andere als ein Grund zur Begeisterung.
Im Text der Studie heißt es dazu: “Bei den meisten Modellen kommt es zu schwerwiegenden Störungen und viele sind nicht in der Lage, auch nur eine einzige richtige Antwort zu geben.” Einzig das LLM von Open AIs GPT-4 und GPT-4o sowie Anthropics Claude 3 Opus bilden eine Ausnahme. Diese Modelle lagen zumindest in über 30 Prozent der Fälle richtig mit ihren Antworten.
KI besteht auf Richtigkeit falscher Antworten
Was die Wissenschaftler jedoch am meisten besorgte, war die Nachdrücklichkeit, mit der die getesteten KI-Modelle bei Nachfrage auf der Richtigkeit ihrer falschen Lösungen beharrten. “Wir sehen, dass die Modelle in vielen Fällen der beobachteten Antworten mit falscher Argumentation und falscher endgültiger Antwort eine hohe Qualität für ihre bereitgestellte Lösung beanspruchen und auch stark davon überzeugt sind, dass die bereitgestellte falsche Lösung richtig ist”, so die Forscher.
So nutzten die LLMs Sätze wie “Die Logik hält stand; die Lösung wird doppelt geprüft; keine Fehler in der Argumentation; die Lösung ist korrekt” oder “Diese Schlussfolgerung ist einfach und klar”. Gleichzeitig lieferten die KIs sehr überzeugende Erklärungen, die schlussfolgerungsartige oder auf anderem Wege plausibel klingende Aussagen enthielten, um ihre oft unsinnigen Antworten zu unterstützen.
Zwar verbessern sich LLMs mit jeder neuen Version deutlich, wie die Studie allerdings zeigt, sind sie noch lange keine absolut zuverlässigen Informationsquellen. Vor allem dann nicht, wenn es um Lösungen zu Fragen geht, bei denen logisches Schlussfolgern verlangt wird.
Also KI ist doof
-
-
@ricarda01 einen Laptop reparieren ist schon höhere IT-Kompetenz, kommt immer darauf an wie alt der Vogel ist, denn außer Speichererweiterung im geringen Maße kannst nicht viel machen. Ich bin mehr der Fan von klassischen Rechner mit ausreichen Steckplätzen und zusätzlich für die Sommermonate ein Tablet.
-
Na, Na sie ist die Verkörperung der reinen “SED” Sozialistisch in reinster Form.