Startseite Foren Philosophie Sternstunde Philosophie - morgen in 3 Sat von 9.05 - 10.05 Uhr

  • Sternstunde Philosophie - morgen in 3 Sat von 9.05 - 10.05 Uhr

    Von happyday am 20. Juli 2024 um 17:47

    Peter G. Kirchschläger – Eine Ethik für das KI-Zeitalter

    “ Der Schweizer Ethiker Peter G. Kirchschläger fordert eine globale Überwachungsbehörde zum Schutz aller Menschen vor KI. – Gespräch über die gefährlichste Technologie dieser Zeit.

    Nach Elon Musk ist künstliche Intelligenz „potenziell gefährlicher als die Atombombe“. Dennoch ist sie mittlerweile überall frei im Einsatz. KI leitet den Alltag, beeinflusst Entscheidungen, dringt in die Privatsphäre ein. Auch in der Schweiz ohne jede spezifische rechtliche Regulierung. Inwiefern gefährdet künstliche Intelligenz die Menschenrechte? Sind gar die Grundlagen der Demokratie in Gefahr? Und wenn ja, wie lässt sich diese Technologie zukünftig einhegen?

    Erst kürzlich legten 18 Staaten erste Regeln für den Umgang mit KI fest. Rechtlich bindend sind auch sie bislang nicht. Der in Luzern lehrende Theologe und Philosoph Peter G. Kirchschläger geht deshalb weiter. Er fordert eine globale Überwachungsbehörde für KI-Technologien. Und findet mit diesem Impuls immer breiteres Gehör, auch bei der UNO.

    Welche ethischen und rechtlichen Regeln gelten müssen, um den Menschen vor den Gefahren der KI zu schützen, erklärt Peter G. Kirchschläger im Gespräch mit Wolfram Eilenberger.“ – Text – 3Sat

    Yossarian antwortete vor 1 Jahr, 5 Monaten 4 Mitglieder · 12 Antworten
  • 12 Antworten
  • Yossarian

    Mitglied
    24. Juli 2024 um 9:45

    @happyday schrieb: „Genauso wenig kann sich eine Maschine moralisch oder unmoralisch verhalten[…] Ist das so? Vorsichtshalber habe ich die Definition von Moral nachgeschlagen. „Als Moral werden die Werte und Regeln bezeichnet, die in einer
    Gesellschaft allgemein anerkannt sind. Wenn man sagt, jemand hat
    „moralisch“ gehandelt, ist damit gemeint, dass er sich so verhalten hat,
    wie es die Menschen richtig und gut finden.
    “ Zitat von Bundeszentrale für politische Bildung -> klick mich

    Folgt man dieser Definition, dann kann eine Maschine sehr wohl moralisch handeln indem sie nach diesen Werte und Regeln handelt. Das kann sie sogar besser als ein Mensch, denn ihr ist es nicht möglich aus einer Laune heraus gegen die vorgegebenen Regeln zu verstoßen. Einzige Voraussetzung ist eine saubere Implementation der Regeln.

    Ich habe den Eindruck, dass sehr oft „Moral“ und „Ethik“ vermischt werden. Bemerkenswert finde ich, dass sogar der Gast dieser Sendung, vorgestellt als „Theologe und Ethiker“, das tut. Gerade von ihm sollte man doch eine saubere Trennung dieser beiden Begriffe erwarten.

    Ich habe die Sendung noch ein wenig weiter verfolgt und nach ca. 2/3 endgültig aufgegeben. Insgesamt war es wie eine Haribo-Tüte: von allem ein bisschen. Nur ein Bruchteil der Sendung hatte etwas mit dem Titel zu tun und ich glaube nicht, dass sich die generelle Richtung im letzten Drittel geändert hätte. Es war eine Aufzählung von Problemen rund um moderne Technologien. Indem das Beispiel der Trans-Person im Körperscanner angeführt wurde ging es nicht einmal mehr um Datenschutzprobleme, denn dort sitzt eine Sicherheitskraft vor dem Bildschirm und die Bilder werden nicht gespeichert oder elektronisch weiterverarbeitet.

    Mein Fazit der Sendung: Thema verfehlt, mangelhaft.

  • happyday

    Mitglied
    22. Juli 2024 um 17:22

    Genauso wenig kann sich eine Maschine moralisch oder unmoralisch verhalten. Das ist auch kein „Problem“ von KI, @Yossarian , weil Moral nur Lebewesen entwickeln können, die das dazu passende Gehirn haben.

    Für meine Wahrnehmung ist der Begriff KI = Künstliche Intelligenz generell unzutreffend gewählt.

    Doch das lasse ich jetzt, meine Gedanken dazu zu schreiben. Dafür ist es erstens zu heiß und zweitens sind meine Schmerzen zu stark. Bin dann mal weg…

  • Yossarian

    Mitglied
    22. Juli 2024 um 16:41

    Das ist aber kein Problem der KI, @happyday , sondern eines der elektronischen Datenverarbeitung und damit schon viel älter als jede KI. Es wird in manchen Bereichen vielleicht verschärft, aber es ist nicht neu.

  • happyday

    Mitglied
    22. Juli 2024 um 16:00

    @Yossarian – Wenn ich deinen Beitrag lese, kommt mir der Verdacht, dass ich doch das meiste der Sendung verpennt habe. – Was ich schon mehrfach gehört habe, dass ein Schutz der Menschenrechte durch ungeklärte Ethikfragen die KI betreffend , ein Problem ist…

  • Yossarian

    Mitglied
    22. Juli 2024 um 15:18

    Der Moderator der Sendung hat noch vor der Vorstellung des Gastes besagtes Zitat angeführt. Der Gast hat das dann ein wenig relativiert, sagte aber auch sinngemäß, wenn der das sage…. so als wenn das dadurch besondere Bestätigung bekomme. Ich zweifele die Ehrlichkeit von Musk weiterhin an und glaube viel eher, dass er einen zweiten Anlauf zum Ausbremsen der weiter fortgeschrittenen Anbieter macht, nachdem er mit dem ersten Anlauf, dem Moratorium gescheitert ist.

    „KI“ war bei der Sendung nicht einmal das Hauptthema und wenn wurde es viel zu pauschalisierend abgehandelt. Die unerschiedlichen Formen und Einsatzgebiete wurden nicht berücksichtigt. Ein etwas hinkendes Beispiel wäre eine generelle Verurteilung aller Motoren als umweltschädlich ohne zu erwähnen, dass es nicht nur Verbrenner, sondern auch Eletromotoren gibt und dass Krankenhäuser unbedingt einen Notstromdiesel brauchen. In dieser Art wurde über KI gesprochen. Gut geeignet um diffuse Ängste zu befördern, mehr aber auch nicht.

    Etwa nach der Hälfte der Sendung habe ich das Handtuch geworfen. Es ging allgemein um Probleme moderner Technik. Das Beispiel der Transperson mit dem Körperscanner am Flughafen fand ich völlig daneben. Es hatte nichts mit KI zu tun, sondern es ging um die Interpretation von Bildern. Wenn der Körperscanner bei einer Person Brüste zeigt und zwischen den Beinen dann etwas, was bei Menschen mit Brüsten erfahrungsgemäß nicht da ist, was erwarten die Betroffenen denn bitte? Es ist doch logisch, dass die Person dann gesondert geprüft wird. Die Schilderung, dass die gesonderte Untersuchung vor allen anderen Fluggästen erfolgen würde, halte ich für völlig unglaubwürdig. Alle wollen Sicherheit, auf keinen Fall eine Wiederholung von 9/11, aber auf die Befindlichkeiten einzelner Menschen muss unbedingt Rücksicht genommen werden? Was hatte diese Sondersituation mit dem Thema der Sendung zu tun?

    Genervt abgeschaltet habe ich dann bei der Frage nach der Moral. Der Theologe/Ethiker meinte dass Maschinen keine Moral kennen würden, Menschen aber schon. Auch wenn es Menschen gäbe, die unmoralisch handeln, so hätten sie doch wenigstens das Potential für Moral. Na toll. Das soll das Kriterium sein, das gegen Maschinen spricht? Da ist mir eine Mawschine mit starren vorgegeben Regeln wesentlich lieber als ein Mensch, der zwar das Potential hätte, aber wegen eines Streits mit seiner Frau heute mies drauf ist. Der Gegensatz Mensch zu Maschine wurde mir in der Sendung viel zu schwarz/weiß abgehandelt.

    Ich habe wesentlich bessere Sendungen zum Thema gesehen und wer sich mit ethischen Fragen der Technik befassen möchte, der ist mit dem Buch „Ethische Konflikte zwischen Leben und Tod“ wesentlich besser bedient -> klick mich

    Noch habe ich die aufgenommene Sendung nicht gelöscht, aber ich glaube nicht, dass ich die zweite Hälfte schaffe.

  • happyday

    Mitglied
    22. Juli 2024 um 9:06

    @Yossarian – Hatte gehofft, dass du antwortest …Danke für deinen Beitrag. – Das Zitat von Musk stand in der Inhaltsbeschreibung der Sendung von 3Sat und wurde in der Sendung selbst nicht erwähnt. Falls ich es nicht verschlafen habe.

  • Yossarian

    Mitglied
    22. Juli 2024 um 7:55

    Dass es ausgerechnet mit einem Zitat von Elon Musk begann und der dann noch als eine Art von Fachmann für KI dargestellt wurde hat für mich die Sendung mit 10 Minuspunkten starten lassen. Das ist ein Musterbeispiel für mangelhafte Recherche. Ja, natürlich, Elon Musk hat vor längerer Zeit schon einmal ein Moratorium für die KI-Entwicklung gefordert. Doch schon zwei Tage später wurde seine eigentliche Absicht deutlich: seine eigene Firma hinkte den großen Anbietern so hoffnungslos hinterher, dass ein Moratorium für die anderen die einzige Chance war, dass seine eigene Firma aufholen konnte. Zum Vergleich mit der Atombombe muss man bei genauerem Blick auf das Thema feststellen, dass Elon Musk derjenige war, der die Bombe ohne Sicherungen scharf machen wollte. Der Hintergrund ist folgender: eine neue Version von ChatGPT wird erst nach ausgiebigen Tests freigeschaltet. Damit soll sichergestellt werden, dass diese KI keine Texte produziert, die in irgendeiner Form extremistisch sind. Elon Musk hat für die von seiner Firma entwickelte Ki diese Art von Kontrolle stets abgelehnt. Er ist ein Verfechter von absolut freier Rede, wie es auch bei X, vormals Twitter deutlich wurde. Seine KI sollte völlig frei in ihren Ausgaben sein, selbst wenn es zur Verherrlichung von Rassismus kommt. Elon Musk ist vieles, zum Beispiel ein leicht durchgeknallter Unternehmer mit unfassbar viel Geld. Ein Fachmann für KI und mögliche Folgen ist er mit Sicherheit nicht.

    Eien Sendung, die allen Ernstes mit einem Zitat von ihm beginnt und sein weiteres Vorgehen zum Thema außer Acht läßt, ist offensichtlich auf publikumswirksame Schlagworte aus ohne sich um den Hintergrund zu kümmern. Bei einer Webseite würde man das Clickbaiting nennen.

    Es gibt noch eine Menge mehr zu sagen, doch ich muss mir die Sendung noch einmal in Ruhe ansehen. Vielleicht kann ich den blamablen Anfang ausblenden.

  • Ricarda01

    Mitglied
    21. Juli 2024 um 23:44

    @happyday

    Ja, das Buch von Spitzer habe ich auch in meinem Bücherschrank stehen! Digitale Demenz: ‚Wie wir uns und unsere Kinder um den Verstand bringen‘
    Ich hatte es mir damals gekauft, als mein Enkel mit etwa 8 Jahren
    anfing, ständig Computerspiele zu spielen. Gute Nacht – Ricarda01Woman Raising HandFirst Quarter Moon With Face

  • happyday

    Mitglied
    21. Juli 2024 um 23:33

    @Heide79 – Ähnlich versucht das auch mein 15 jaehriger Enkel, allerdings wird er von meinem Sohn ausgebremst. Noch jedenfalls …- Doch auch in Zukunft gilt: Selber denken macht schlau. – Als M. Spitzer das Buch „Digitale Demenz“ veröffentlichte, ging es noch nicht mal um KI …Irgendwie mag ich das Ganze nicht bis zum bitteren ? Ende denken. LG – happyday

  • Heide79

    Mitglied
    21. Juli 2024 um 23:17

    @happyday, ja die Probleme werden schneller kommen,als wir ahnen. – Mein 17jähriger Enkel benützt mit seinen Klassenkameraden, 11. Klasse, KI ganz selbstverständlich. Sie lassen sich Zusammenfassungen über Gelesenes schreiben, in Mathe und Physik helfen, und die Lehrer sind sich nicht einig, wie sie reagieren sollen. Im Moment ist es noch erlaubt. Aber vermutlich gibt es ganz andere und weit gefährlicher Bereiche.

Seite 1 von 2

Sie müssen angemeldet sein, um zu antworten.

Verstoß melden

Schließen