Startseite Foren Philosophie Ethische Fragen zur Künstlichen intelligenz

  • FlorianS

    Mitglied
    11. August 2020 um 15:07

    @Modesty Das noch: den Link zur schweizerischen Seite finde ich super!

    Gruß/Florian.

  • Cocco

    Mitglied
    11. August 2020 um 14:45

    „….Emotionalität ist kein Manko des Menschen, wie Immanuel Kant noch meinte. Es sind die emotionalen Wünsche und ihre Erfüllung, die unsere Zufriedenheit und Glück ausmachen…“


    @FlorianS… Die größere Gefahr sehe ich auch darin, dass Menschen zu Robotern
    und
    im Gegensatz zur künstlichen Intelligenz unberechenbar werden.
    mfg Cocco

  • FlorianS

    Mitglied
    11. August 2020 um 14:36

    @Modesty

    bei deinem ersten Posting gefällt mir, dass du versuchst in eine darüberliegende Kategorie zu wechseln. Für mich hat es den Anschein, dass ein Zeitalter vor uns liegt, das dominiert wird von der Digitalisierung. Mich irritiert und erschreckt die Kälte, die Oberflächlichkeit und die Gefühlslosigkeit dessen Weltsicht. Wenn Killerrobotern Intelligenz zugesprochen wird, dann kräuseln sich bei mir die Fußnägel.

    Nach einer bekannten Formulierung des Psychologen Jean Piaget ist menschliche Intelligenz »das, was man einsetzt, wenn man nicht weiß, was man tun soll.« Logik und Kalkül spielen dabei nur in den wenigsten Fällen eine Rolle. Die menschliche Intelligenz ist vernetzt mit Emotionen, Intuition, Spontanität und Assoziationen. Der sog. gesunde Menschenverstand ist kein Synonym für Rationalität, sondern im gleichen Maß Einfühlung in die Situation unter der Berücksichtigung von subjektiven Werten. Menschen denken selten und dann nur unvollkommen logisch, das logische Denken macht Menschlichkeit nicht aus.

    Der Geist des Menschen operiert nicht in einem programmierten System, sondern erst Gefühle, Gedanken, Wortassiationen und Satzsplitter ergeben eine Reflexion, die uns Menschen auszeichnet. Computer sind unfähig, das eigene Wissen zu wissen, sie sind unfähig, zu verstehen, was sie tun. Lernfähige Programme, die Großmeister im Schach und Go mühelos schlagen, begreifen nicht, was Schach ist, geschweige denn, warum Menschen Schach spielen, sie verstehen nicht einmal, warum Menschen überhaupt spielen.

    Emotionalität ist kein Manko des Menschen, wie Immanuel Kant noch meinte. Es sind die emotionalen Wünsche und ihre Erfüllung, die unsere Zufriedenheit und unser Glück ausmachen.

    Eine angeregte Disskussion weiterhin wünscht Florian.

  • Modesty

    Mitglied
    11. August 2020 um 14:07

    @Webra:

    (Planet Erde – das Experiment fremder Intelligenz?

    Happich als Kind schon vermutet, wenn Erwachsene mir wie Aliens vorkamen!)

    Der Materie Roboter kannst Du den Stecker ziehen – beim intelligenten Algorithmus, von dem Du ggfs. nicht einmal weißt, dass er Deinen Rechner steuert, wird das schon schwieriger….

    M.a.W.: Auf der Ebene ‚Steckerziehen‘ wird man KI weder beikommen noch sie unter Kontrolle halten.

    M.

  • philosophin

    Mitglied
    11. August 2020 um 10:03

    @Palmstroem , diese Antwort halte ich für eine ziemliche Anmaßung. die üblichen Begriffserklätrungen gab es ja am Anfang. Allerdings halte ich es für falsch, die beiden Aspekte künstliche Intelligenz gegenüber zu stellen, als wären es verschiedene Arten. Ihre Grundlagen sind dieselben. Und nur weil noch nichts Gravierendes passiert ist, heißt es nicht, dass selbst diese jetzt eingesetzten und weiter entwickelten Formen von künstlicher Intelligenz nicht im Inneren eigenständige Dinge entfalten können. Wir nehmen an, dass es nicht passiert, weil es nicht plausibel erscheint, aber ausschließen können wir es nicht. Wir wissen es nicht und wir versuchen nicht, es uns vorstellen, weil es nicht plausibel ist vom derzeitigen Erkenntnisniveau aus betrachtet. Reicht das aber?

    Selbst wenn KI irgendwann sprechen kann, wird auch das auf künstlichen Steuerungsmechanismen basieren .

    Die Frage nach dem Bewußtsein wird in den Vordergrund gerückt als Hemmnis für die Enwicklung starker KI. Der kann man sich schon annähern. Und das ist gar nicht so schwierig, wenn man entsprechend der Spezifik herangeht, dass es sich um einen technisch geschaffenen Organismus handelt. Er erwirbt eigenständige individuelle Erfahrungen im täglichen Umgang mit Menschen, der Natur sonstiger Umgebung . Die wird gespeichert das Verhalten entsprechend modifiziert? Usw. Ich halte die Diskussion nicht für sinnfrei. Ich meine, wir müssen unseren Verstand weiten. In der Systemtheorie sagt man dazu; Der Größe der Aufgabe muß die Größe des Ansatzes entsprechen. Ich meine, davon sind wir noch ein Stück entfernt. Aber möglicherweise ist das, was wir hier haben der derzeit mögliche Diskussionsstand . So soll es dann sein und ich mach hier auch erstmal einen Punkt.

    Schönen Tag

    phil

  • philosophin

    Mitglied
    11. August 2020 um 0:48

    @Palmstroem , es ging um den Begriff Stärke und da haben sie etwas miteinander zu tun -die Stärke- .

    Und es war bildhaft gemeint. Aber wen ndir deine Definition gut gefällt bitte Wer bin ich dir zu sagen was du denken sollst? Schönen neuen Tag

    phil

  • Webra

    Mitglied
    10. August 2020 um 23:28

    Solange der Mensch, der Schöpfer der schwachen und der starken künstlichen Intelligenz, die Energie (Elektrizität) für deren Aktivitäten liefern muss, können sie uns doch nicht gefährlich werden. Wir brauchen doch bei Gefahr nur den Stecker zu ziehen oder den Akku zu entfernen und im Nu sind sie Tot. Ich kann mir nicht vorstellen, dass Roboter irgendwann in der Zukunft fähig sein werden, durch Nahrungsaufnahme in ihrem Körper die Energie zu erzeugen, die sie für ihre Tätigkeit benötigen.

    Wir Menschen haben diese Fähigkeit , sind aber davon abhängig, dass auf unseren Planeten

    immer genug Nahrung vorhanden ist. Dafür hat bis jetzt immer unser “ Schöpfer“ gesorgt.

    Wenn wir diesem „schöpferischen Etwas“ auch gefährlich werden sollten, kann es auch den

    „Stecker ziehen“, in dem es unsere Nahrungsquellen versiegen lässt. Vielleicht sind wir auch

    nur Roboter, die einen bestimmten Zweck dienen, den wir aber, genau wie die von uns geschaffenen Roboter auch, nicht kennen.

  • philosophin

    Mitglied
    10. August 2020 um 14:40

    @Modesty, bezogen auf den verlinkt Beitrag: Mir scheint, hier werden die grundsätzlichen Fragen gestellt die seit einigen Jahrezehnten aufgetaucht sind mit der zunehmenden Technisierung, Rationalisierung und Digitalisierung von Wirtschaftsprozessen einerseits und der Globalisierung (Verlagerung von Arbeitsplätzen andererseits) Dabei geht es natürlich darum, worin der Sinn des Lebens besteht wen nder sinnstiftende Faktor Arbeit wegfällt. Womit verbringt man gewonnene Zeit? Welche Bedürfnisse entstehen usw. . Wie ist es mit der Würde des Menschen ? Aber das sind natürlich Fragen, die erst recht wichtig sind,wenn die KI tatsächlich Alltag ist in einer Form, die wir bbisher nur aus Filmen kennen.

    In der DDR wurde in den 80ern dazu sozialwissenschaftlich geforscht. Da nannte man das Herausforderungen der wissenschaftlich technischen Revolution und schlug auch den Bogen theoretisch zur Künstlichen Intelligenz. Die aktuellen praktischen Herausforderungen, an denen diese Gesellschaft erbrärmlichst versagt sind erstmal modernes Bildungswesen , die Rolle des Lernens, des Gestaltens von Gesellschaft von Produktionsprozessen neu zu definieren.

    Insofern ja dringendst sollte erstmal darüber geredet werden.

    Nun gibt es kluge Leute, die das schon seit geraumer Zeit vordenken und endlich ein Stückchen in die Politik vordringen z.B. Anke – Domscheit- Berg

    http://www.youtube.com/watch?v=6nabOasbpNQ

    Und in der Politik:

    http://mdb.anke.domscheit-berg.de/2019/04/innenansichten-aus-der-enquete-kommission-kuenstliche-intelligenz/

    Schönen Tag phil

  • philosophin

    Mitglied
    10. August 2020 um 14:21

    @Palmstroem, auf uns Menschen bezogen sind es kognitive Fähigkeiten, geistige Erkennnis- und Gestaltungspotentiale und natürlich die Schnelligkeit unseres Arbeitsgedächtnisses, sozusagen als Hardware, die verschiedenen Bereiche werden im IQ gemessen. Bezogen auf künstliche Intelligenz heißt es: Das System ist in der Lage, die Grundkonstellation (Programmierung zur eigenständigen Gestaltung zu nutzen etwas Neues zu schaffen. ) Selbstverständlich ist das auch Digitalisierung. Das Auto braucht Treibstoff und die künstliche intelligenz braucht Gerätschaften , Software und Strom, solange es noch keine andere Energiequelle gibt. Damit legen wir schon seit geraumer Zeit die Grundlagen für Prozesse und Erscheinungsfpormen, die wir uns heute vermutlich noch gar nicht vorstellen können. So würde ich die Dinge kurz und stark vereinfacht unterscheiden.

    Ich würde nicht so unterscheiden zwischen starker und schwacher KI. Das Betriebssystem muß stark sein, sonst funktionieren alle anderen Programme darauf nicht. Aber es gestaltet natürlich nicht, soweit wir heute wissen . Es ist also einerseits stark und andererseits schwach. Kommt auf die Betrachtrungsweise an. Letztlich beginnt es ja immer bei zwei Zuständen an und aus oder 0 und 1.

    Soweit erstmal phil

  • Modesty

    Mitglied
    10. August 2020 um 13:55

    @FlorianS

    Spätestens wenn KI in menschliche Entscheidungsprozesse eingreift oder sie gar ersetzt, wirds spannend! Irgend jemand muß sie programmieren und lernfähig machen…. nach welchen Kriterien/Maßstäben? Humanistischen?

    https://www.philosophie.ch/blogartikel/highlights/philosophie-aktuell/kuenstliche-intelligenz-als-philosophisches-problem

    Was wird aus dem ‚Sinn des Lebens‘ wenn KI alles besser kann und macht als der Mensch?

    M.

Seite 2 von 3

Sie müssen angemeldet sein, um zu antworten.

Verstoß melden

Schließen