Startseite › Foren › Philosophie › Ethische Fragen zur Künstlichen intelligenz
-
Ethische Fragen zur Künstlichen intelligenz
linneamarie antwortete vor 5 Jahre, 1 Monat 9 Mitglieder · 38 Antworten
-
@Palmstroem: Die Definition des Begriffs »Intelligenz« ist nicht ganz einfach. Meiner Meinung nach führt der Versuch in den Irrgarten der Philosophie. Wenn du es dir zutraust, für mich ist es ok.
Gruß/Florian.
-
Die sog. schwache Intelligenz hat Phil in ihrem Eingangs-Posting mE. ausreichend definiert. Ich halte die Unterscheidung schwach/stark für überflüssig. Entweder Intelligenz oder nicht Intelligenz – entweder schwanger oder nicht schwanger!
Mich treibt die Frage um, wem die zunehmende Digitalisierung, dh. landläufig gesprochen die schwache Ki, Nutzen bringt, und wer mit Benachteiligungen »bezahlt«. Wären wir damit bei Ethik?
Gruß/Florian.
-
Die sog. schwache KI ist tatsächlich weit fortgeschritten. Wie schon gesagt, ich habe selbst daran mitgearbeitet. Zu meinem großen Erstaunen war es relativ einfach, langjährige Erfahrung und detailliertes Wissen altgedienter Kollegen in Programmiersprachen zu übertragen. Für ein Projekt, das einen Sachbearbeiter »barfuß« 3-5 Tage beanspruchte, dauerte die Bearbeitungszeit dann nur 3-4 Stunden von der Auslegung bis zum abgeschlossenen Angebot. Ich war mir auch bewusst, dass damit Arbeitsplätze überflüssig waren, die Konkurrenz zwang uns dazu.
Zur Zeit diskutiere ich mit einem Freund (ehemals Richter) ob mittelfristig einfach gelagerte Prozesse nicht auch mit Hilfe von digitalen Programmen erledigt werden könnten. Über kurz oder lang wird dies mE. dazu kommen, mein Freund bestreitet das noch.
Die sog. starke Ki ist meines Wissens in weiter Ferne. Ein Programm, das eigenständig einen »besseren« Algorithmus entwickelt, existiert mW. noch nicht – ich lasse mich aber belehren. HAL-9000 ist in weiter Ferne; viele Experten, die die Szene besser kennen als ich, halten dies für eine Unmöglichkeit.
Nochmals: Killerroboter, Schachprogramme uä. sind keine Produkte starker KI.
Gruß/Florian.
-
@Palmstroem , ich weiß nicht, ob die Fragen generell wichtiger sind, aber aktuell auf jeden Fall vordringlicher . Nur geht es hier bereits um klare praktische Lösungen, die zeitnah greifen sollten. Ich teile deine Befürchtungen . Aber das heitß nicht, dass man nicht wenigstens versuchen sollte, darüber zu reden. Ich habe zum Beispiel keine Ahnung davon, wie weit das praktisch fortgeschritten ist. Ich weiß nur, dass es Versuche gibt . Vermutlich werden Leute erst darüber reden, wenn es sie konkret betrifft und ihnen schadet evtl. . Wenn der erste im Hafenbecken gelandet ist statt zu Hause oder so.
Schönen Restsonntag phil
-
das, @Palmstroem tut Philosophie. Über die Fragen zu reden auf die es keine Antworten gibt, die einfach mit ja oder nein zu beantworten sind. Vor einiger Zeit schrieb hier jemand angesichts der damals aktuellen Ereignisse: Nach mir die Sintflut Er ist immer noch da (für den Moment nicht im Forum) und die befürchtete „Sintflut“ auch. Und es gibt immer noch keine sinnvolle Strategie, mit ihr umzugehen.
Vordenken , um nicht von Bewegungen überrollt zu werden. Eine Frage wäre, ab wann ist ein Roboter eine Persönlichkeit? Kann er das überhaupt werden?
Roboter als Waffen einzusetzen ist natürlich höchst aktuell und bedenklich.
Schönen Restsonntag
phil
-
Das plötzliche Interesse überrascht mich sehr, mein Eingangsposting im PhilForum blieb zwei Wochen ohne Resonanz, bevor Freund Noscetempus die Diskussion angeschoben hat. Ganz sicher ist strikt zu unterscheiden zwischen »Digitalisierung« und »Künstlicher Intelligenz«. Beide sind verwandt, sollten mE. aber getrennt diskutiert werden. Also, vielen Dank fürs neue Thema.
Gruß/Florian.
Sie müssen angemeldet sein, um zu antworten.