SSL (?): an | aus

Bitte die Forenregeln und die Hinweise zu den Versuchen lesen!

Neue Antwort erstellen
Pok
Illumina-Mitglied

Anmeldedatum: 19.08.2013
Beiträge: 1096
Artikel: 30
lemmi hat Folgendes geschrieben:
Und alle Algorithmen, Analysenprogramme usw. die ich kenne, machen mir Vorschläge, die ich dann annehmen oder ablehnen muss. Was anderes würde ich nicht akzeptieren.

Es gibt unendlich viele Vorschläge von Maschinen, die dir überhaupt nicht als solche bewusst sind und die du immer annimmst. Dann kann man auch von Entscheidung durch die Maschine reden, nicht nur beim Aktienhandel. Eine simple google-Suche gibt dir nur einen Teil der möglichen Antworten, es wurde durch die Maschine eine Vorauswahl getroffen, welche Ergebnisse dir als "Vorschläge" präsentiert werden. Du hast das Gefühl, da auswählen zu können - aber 99,99999 % aller Internetseiten werden dir nicht als Vorschlag präsentiert, also wurde für dich eine Entscheidung getroffen. Die Maschine sagt dir: "Diese 99,99999 % wirst du nicht sehen. Punkt." Selbst der Einschätzung der Maschine zur "Relevanz" eines Ergebnisses vertraust du. Oder wer klickt schon absichtlich immer auf die 9., 10. oder 30. Seite der google-Ergebnisse?


Natürlich kann man sich auch dagegen entscheiden und andere Suchmaschinen nutzen oder tatsächlich immer auf die 9. oder 10. Seite klicken. Aber das tut praktisch keiner. Also wäre dieses Argument so viel wert wie das eines Drogenabhängigen, der sagt "Die Droge hat keine Macht über mich, denn ich könnte jederzeit aufhören".

lemmi hat Folgendes geschrieben:
Ich argumentiere deswegen gegen eine Geringschätzung des Unbewussten, weil damit ein wesentlicher Teil des Menschen geringgeschätzt wird. Ein Mensch ohne Unbewusstes ist kein Mensch und deshalb kein erstrebenswertes Ziel.

Dem Menschen will ich das Unterbewusste nicht nehmen. Aber ok, daran sieht man, dass man Menschen immer mehr mit Maschinen vergleicht und diese Abwertung ist tatsächlich ein Problem. Deshalb bräuchte man natürlich bei höher entwickelter KI auch sowas wie ethische Regeln (was absolut auch in der Forschung so angestrebt wird). Das Problem ist, dass Ethik auch beim Menschen nicht angeboren ist, sondern erlernt wird und man die Codes von Programmen aktuell zumindest noch superleicht manipulieren kann. Auch gibt es unterschiedliche Werte bei unterschiedlichen Gruppen von Menschen und sich auf eine universelle Ethik zu einigen, wäre unmöglich. Außerdem müsst man eine Grenze festlegen, für welche KI solche Regeln nötig wären. Es gibt heute schon Systeme, bei denen sowas vermutlich nötig wäre, aber nicht getan wird.

Dass wir unsere "Gefühle" mitteilen sollen, fand ich etwas seltsam, weil es ja kaum mehr als "Freude" und "Angst" zu geben scheint bei dem Thema. Aber mir fällt nochwas ein: Wut. Mich macht es wütend, wie KI dazu benutzt wird, die öffentliche Meinung zu manipulieren, etwa über social bots. Die Akteure sind Lobbys, wie z.B. die Erdöllobby, welche den Klimawandel infrage stellt über bezahlte Kommentatoren, vielleicht auch Bots und natürlich die politischen Akteure (Parteien, Staaten). Das könnte man auch als Bedrohung der Demokratie betrachten, siehe USA, wo diese Bots im Wahlkampf eingesetzt wurden von beiden Seiten. Es gibt dazu ja auch schon "Gegenreaktion" der Menschen, etwa den ARD-Faktenfinder, welcher sich häufig mit Fakenews auseinandersetzt, welche in der Regel auch über Botnetze verbreitet werden. Damit hätten wir schon heute einen Krieg zwischen Mensch und Maschine, einen Cyberwar. Wink Nur agieren die Maschinen (noch) nicht im eigenen Interesse, sie sind nur die Soldaten. Ein konventioneller Krieg wäre in Zukunft aus Sicht der Maschinen wohl auch unnötig, weil viel zu aufwendig.

_________________
Removing barriers in the way of science: Sci-Hub.
Benutzer-Profile anzeigenAlle Beiträge von Pok anzeigenPrivate Nachricht senden
IllumiNobel-Gewinner 2012

Anmeldedatum: 06.01.2012
Beiträge: 2412
Artikel: 52
Geschlecht: Geschlecht:Männlich
Alter: 52
Zitat:
Natürlich kann man sich auch dagegen entscheiden und andere Suchmaschinen nutzen oder tatsächlich immer auf die 9. oder 10. Seite klicken. Aber das tut praktisch keiner. Also wäre dieses Argument so viel wert wie das eines Drogenabhängigen, der sagt "Die Droge hat keine Macht über mich, denn ich könnte jederzeit aufhören".

Aber Pok, das ist doch Unsinn! Bei google kann ich mich doch wirklich entscheiden, ob ich und was ich anklicke. Das ist doch was ganz anderes als eine Sucht. Natürlich gibt es Internetsucht (wobei das veilleicht mehr Kaufsucht, oder Spielsucht ist).
Dass durch das Programm - genauer: durch die Programmierer des Programmes - eine Vorauswahl im Angebot stattfindet ist nun wirklich nichts besonderes. Jede Bücherei macht eine Vorauswahl, was sie im Bestand hat und ich gehe hinein und suche mir ein Buch aus - und was es nicht gibt kann ich nicht ausleihen.
Natürlich ist es wichtig, zu diskutieren, welche Interessen hinter dem Programm stehen und dafür zu sorgen, dass das Angebot einigermaßen vielfältig/ausgewogen ist.
Kritisches Denken wird, so wie es aussieht, im Zeitalter von KI eher wichtiger als zuvor.

Warum ich nach Gefühlen frage: weil sie wichtig sind, wenn es um heikle Themen geht. Sie beeinflussen unsere Informatiosnauswahl und modifizieren unsere Argumentation. Ich kann deine Wut z.B. gut nachvollziehen, CD-Roms Vorfreude und Ungeduld dagegen nicht. Und es hängen weitere Reaktionen daran. Ich verstehe z.B. nicht, warum die Frage "wird eine Maschine ein Mensch werden" oder, intellektueller "was ist das Kriterium , das den Menschen von der Maschine unterscheidet" so große Diskussionen auslöst. Die Frage wurde doch auch schon bezgl des Unterschiedes Mensch-Tier diskutiert. Und dennoch hat niemand ein Problem damit, vor ein Lebewesen gestellt, sich festzulegen: "das ist ein Mensch" oder "das ist ein Tier". Natürlich ist es interessant, Kriterien aufzustellen und sie zu hinterfragen und es macht mir von einem intellektuellen Standpunkt auch Spass, das zu tun. Aber hinter der Leidenschaft, manchmal ideologischer Färbung, mit der manche Diskutanten ihren Standpunkt bei diesem Thema vertreten vermute ich unbewusste Smile Gefühle und Motive.

_________________
"Alles sollte so einfach wie möglich gemacht werden. Aber nicht einfacher."(A. Einstein 1871-1955)

"Wer nur Chemie versteht, versteht auch die nicht recht!" (G.C. Lichtenberg, 1742 - 1799)

"Wissenschaft ist das organisierte Töten von Vorurteilen." (Joachim Kügler)
Benutzer-Profile anzeigenAlle Beiträge von lemmi anzeigenPrivate Nachricht senden
Illumina-Mitglied

Anmeldedatum: 08.05.2017
Beiträge: 150
Artikel: 0
Wohnort: Wien
lemmi hat Folgendes geschrieben:
Bei google kann ich mich doch wirklich entscheiden, ob ich und was ich anklicke. Das ist doch was ganz anderes als eine Sucht. Natürlich gibt es Internetsucht (wobei das veilleicht mehr Kaufsucht, oder Spielsucht ist).
Dass durch das Programm - genauer: durch die Programmierer des Programmes - eine Vorauswahl im Angebot stattfindet ist nun wirklich nichts besonderes. Jede Bücherei macht eine Vorauswahl, was sie im Bestand hat und ich gehe hinein und suche mir ein Buch aus - und was es nicht gibt kann ich nicht ausleihen.


Hm, ich sehe das auch sehr kritisch und bedingt mit der Bücherei vergleichbar.
Während die Bücherei halt Kraft ihres begrenzten Platzes vielleicht nicht alle Bücher vor Ort hat, so bietet sie doch (wenn es eine gute ist) eine Suchmöglichkeit in der ich alles finden kann. Und die Ergebnisse sind nicht vorsätzlich gefiltert. Und sie basieren nciht auf deinem bisherigen Nutzerverhalten Smile (oder wird dir ein Kochbuch angeboten weil du gestern einen Topf gekauft hast?)

Social Media und in gewissem Ausmaß auch Google hingegen nutzen das Filtern vorsätzlich und höchst manipulativ.
Diese Unternehmen investieren Unmengen in die Algorithmen-Entwicklung, denn genau aus der Nicht-Objektivität (Neutralität) des präsentierten Ergebnisses (Werbung bezahlt das alles...) machen sie ihren Profit.
Hinzu kommen noch andere Interessensgruppen die diese Algorithmen auch gezielt für ihre Agenda missbrauchen - Search Engine Optimisation ist ein eigener Geschäftszweig, Fake News rundherum, Filterblasen, Manipulation bei Wahlen...
Du bekommst also nur die Illusion einer Auswahl und von Information vorgegaukelt. Sehr geschickt obendrein auch noch.

Und das ist nicht nur im Internet so - mach mal die Augen auf: wenn du in den Supermarkt gehst wird dir über zB 137 Joghurtsorten die Illusion der Wahlfreiheit gegeben. Tatsächlich sind es nur wenige Konzerne die letztendlich dahinter stehen. Wir können jeden Tag hunderte völlig irrelevante Entscheidungen treffen (bis hin zur Farbe des Klopapiers), aber in den wichtigen Entscheidungen hast du schon lange keinerlei Freiheit mehr.

Ich konsumiere sicher viel Internet und Medien, aber (so bilde ich mir zuindest ein) heute mit ganz anderen Augen als noch vor ein paar Jahren.
Glaube nichts.
Hinterfrage alles. (Außer vielleicht Katzenbilder Wink )
Benutzer-Profile anzeigenAlle Beiträge von mgritsch anzeigenPrivate Nachricht senden
Pok
Illumina-Mitglied

Anmeldedatum: 19.08.2013
Beiträge: 1096
Artikel: 30
Das ist kein Unsinn, lemmi. Wink Mir gehts nicht um die Sucht, sondern um Theorie und Wirklichkeit. Die Realität sieht so aus, dass google dir die Auswahl präsentiert. Eben nicht die Programmierer. Sonst könnte man ja sagen, deine Mutter ist für all deine Taten verantwortlich, nur weil sie dich erzogen hat. Die Programmierer entscheiden nämlich nicht bei jedem einzelnen Suchbegriff, was google ausspucken soll. Das entscheidet die KI google alleine. Der Abstand von Programmierer und Programm ist einfach zu groß. Wo willst du die Grenze ziehen? Beim selbstfahrenden Auto ist der Abstand wohl kaum größer! Und diese Vorauswahl ist "nichts besonderes"? Du betrachtest das schon als Selbstverständlichkeit. Und so dürfte das auch bei weiteren Entwicklungsschritten funktionieren. "Natürlich fahren die Autos von selbst", "Natürlich fliegt ein Flugzeug von selbst" (was es wirklich die meiste Zeit tut)..."alles andere würde ja nicht funktionieren". Man gewöhnt sich sehr schnell daran, auch schärfste Kritiker. Das ist erstmal nur ne Feststellung und keine Wertung.

lemmi hat Folgendes geschrieben:
Und wenn auf seite 1,2,3 oder 4 nicht das steht, was ich suche, klicke ich mich halt weiter

Du suchst mit derselben Suchmaschine. Das ist schon ne Einschränkung. Und was ist, wenn du gar nicht merkst, dass da nicht das steht, was du suchst?

Und zum Unterschied zwischen Mensch und Maschine: es ging mir nicht darum den zu definieren, sondern wirklich nur darum, dass der Mensch das wichtigste Merkmal seiner bisherigen Einzigartigkeit verliert.

_________________
Removing barriers in the way of science: Sci-Hub.
Benutzer-Profile anzeigenAlle Beiträge von Pok anzeigenPrivate Nachricht senden
Illumina-Mitglied

Anmeldedatum: 25.09.2010
Beiträge: 554
Artikel: 0
Zitat:
Was für Gefühle löst diese Entwicklung in jedem von uns aus? (Zur Erinnerung: Gefühle sind z.B. Freude, Angst, Wut, Scham, Ekel - und nicht: ich denke dass...).

Ärger trifft es gut. Die Art und Weise, wie über dieses Thema berichtet wird ist enervierend und das schlägt dann in bitterbösen Zynismus um. Ich finde langsam, wir Chemiker sollten sowas auch machen, um den langweiligen, grauen Industriealltag zu einer bizarren Frankenstein-Horrorshow aufzublasen. Ich will jetzt, dass auf einmal Aufsätze darüber geschrieben werden, dass eine lebende Polymerisation einen Stoffwechsel hat, wobei wir die Monomere als Nahrung umschreiben. Wir nennen die Grubbs-Katalysatoren der Ringöffnungspolymerisation jetzt Maschinen-Enzyme, weil sie ja ein aktives Zentrum haben und Liganden, die Selektivität und Aktivität steuern, so wie die Aminosäuren in einem Protein das auch tun. Ich argumentiere, dass es sich dabei nicht um homogene Katalysatoren mehr handelt, weil die Liganden einen zu großen Einfluss haben, die eigentliche Reaktion findet nicht im reinen Lösungsmittel alleine sondern in Koordination durch die Liganden statt. Das sei nur bei Enzymen und den davon abgeleiteten Technozymen der Fall. Dies beweise ich damit, dass wir mit Technozymen problemlos eine Stereoinformation auf prochirale Stoffe aufprägen können, was sonst primär im biologischen, bzw. biochemischen Kontext aufgetreten ist. Diese Symmetriebrechung war immer die Grenzlinie zwischen Biochemie und Organik, behaupte ich. Da sie metallorganisch sind, steht es ja in ihrer Tradition, Normen zu brechen und Grenzen einzureißen, die der menschliche Verstand für gottgegeben ansah, denn mit dem Siegeszug der Metallorganik fiel die Trennung zwischen organischer und anorganischer Chemie entgültig, während die Wöhler'sche Harnstoffsynthese nur die erste Kerbe schlug.
Bei den Polysiloxanen werde ich noch frecher und behaupte, das sei jetzt schon Leben auf Siliziumbasis, weil die lebende Polymerisation mit Wachstum und Stoffwechsel diejenigen Merkmale des Lebens zeigt, die wichtig sind. Diese Feststellung werde von der Industrie vermieden, da man sich mit ethischen Fragen nicht befassen will. Dass die Industrie die Kettenverzweigung per Design ausgeschlossen hat und somit die Fortpflanzung verhindert um die Produktqualität sicher zu stellen, nenne ich einen stillen Skandal und fordere Artenschutz für lebende Polymerisationen. Sollte ein Verfahren mal vom Markt verschwinden, ist es an staatlichen Instituten im kleinen Maßstab immer weiter fortzuführen. Und Quenchen ist Mord!
Von Extremisten, die so weit gehen, Silikon auch noch ein Wahlrecht gewähren zu wollen, distanziere ich mich aber, das geht mir zu weit.
Benutzer-Profile anzeigenAlle Beiträge von Xyrofl anzeigenPrivate Nachricht senden
Pok
Illumina-Mitglied

Anmeldedatum: 19.08.2013
Beiträge: 1096
Artikel: 30
Du ärgerst dich also darüber, dass man das ganze als "Intelligenz" bezeichnet. Ich glaube lemmi wollten eher auf die Gefühle hinaus, welche mit der aktuellen Entwicklung zusammenhängen und nicht nur mit einzelnen Begriffen. Die Diskussion um den Begriff finde ich nicht sinnvoll, weil man sich da sowieso nicht einigen kann und niemand ultimativ recht hat, weil es sich immer um unklare Definitionen dreht. Sie zeugt eher von einer Einschätzung. Wenn dir der Begriff "Intelligenz" nicht gefällt, hältst du die aktuelle Entwicklung anscheinend für überbewertet, was auch in deinen vorherigen Posts so klang. Dann wäre das Gefühl Langeweile? Wink Dann hätten wir ja krasse Gefühlsunterschiede zusammengetragen: Freude, Angst, Langeweile, Aufregung. Mr. Green

_________________
Removing barriers in the way of science: Sci-Hub.
Benutzer-Profile anzeigenAlle Beiträge von Pok anzeigenPrivate Nachricht senden
Illumina-Mitglied

Anmeldedatum: 25.09.2010
Beiträge: 554
Artikel: 0
Zitat:
Wenn dir der Begriff "Intelligenz" nicht gefällt, hältst du die aktuelle Entwicklung anscheinend für überbewertet, was auch in deinen vorherigen Posts so klang. Dann wäre das Gefühl Langeweile?
Langeweile ist absolut nicht was ich fühle, weil ich die meisten Formen des Machine Learning und der AI für sehr spannend, richtig und wichtig halte. Ich halte sie nicht für überbewertet, sondern für völlig fehlbewertet. Das Beispiel mit den Katalysatoren war nicht nur zynisch und böse, da war ziemlich viel an Analogien drin.
Lass mich das erklären. Ich finde homogene Katalyse absolut nicht langweilig, ich schwärme dafür. Aber so zu tun, als wäre das künstliches Leben, ist absoluter Unsinn, man kann im Spaß sagen, dass sowas in die Richtung gehen kann, aber das kann man nicht ernst meinen und dabei respektabel bleiben. Und bei der AI ist es genau das gleiche. Die AI ist genauso wenig Intelligenz im Sinne dessen was der Volksmund darunter versteht, wie der "Intelligence Service", da geht es nicht um Bewusstsein oder Ähnliches.

Wesentlich mehr Anlass zur Sorge bereiten im Kontext der großen Datenmassen und der Vernetzung, wohl eher das Social Engineering, und die Gläsernheit der User. Denn ich sehe wenig künstliche Intelligenz, die mir wirklich Angst machen würde. Das meiste sind doch angenehme Werkzeuge, genauso leblos und nutzbringend wie ein Oszilloskop oder ein Spektrographie-Programm, das auch feiner hören kann als ich. Mir macht das absolut keine Angst. Das tut es schon alleine aus dem Grunde nicht, dass es zumeist keine echte Eigendynamik hat, die irgendwie besorgniserregend wäre, abgesehen davon, dass AIs oft irre Fehlfunktionen haben und damit meine ich nicht nur die degenerierte Sprache der Facebook-Bots, sondern auch sowas hier:



Das sollte nicht vorkommen, aber das ist ein Fehlschlag, keine bewundernswerte oder gar beängstigende Eigenkreation einer AI, sondern einfach nur ein lästiger Fehler, den man so nicht einkalkuliert hatte.


Aber ich sehe sehr wohl Probleme in der jüngsten Entwicklung wie die Massen an Manipulation und Wirrsinn im Netz. Da wären zum Beispiel die ganzen "Fake News" oder auch Verschwörungstheorien und natürlich auch diverse Formen von Selbstläufern. Und sowas hat, anders als die AI sehr wohl ein Eigenleben, das höchst bemerkenswert und komplex ist. Das beste Beispiel dafür ist vermutlich das sogenannte "Drachengame". Leider wird es bisher von Forschern verschmäht. Es wäre ein sehr lohnendes Untersuchungsobjekt, da es absolut keinen Sinn zu haben scheint, jedoch mittlerweile zu extremer Größe angewachsen ist, aber ich kann das nicht wissenschaftlich bearbeiten, ich bin dazu absolut nicht befähigt. Ich kann dafür an dieser Stelle nur meine absolut uneingeschränkte Bewunderung ausdrücken. Das Game bleibt wohl unbesiegt. Und Grüße gehen raus an alle, die das Game kennen.

Tschau Kakao!
Benutzer-Profile anzeigenAlle Beiträge von Xyrofl anzeigenPrivate Nachricht senden
IllumiNobel-Gewinner 2012

Anmeldedatum: 06.01.2012
Beiträge: 2412
Artikel: 52
Geschlecht: Geschlecht:Männlich
Alter: 52
Pok hat Folgendes geschrieben:
Das ist kein Unsinn, lemmi. Wink Mir gehts nicht um die Sucht, sondern um Theorie und Wirklichkeit. Die Realität sieht so aus, dass google dir die Auswahl präsentiert. Eben nicht die Programmierer.
...
Du suchst mit derselben Suchmaschine. Das ist schon ne Einschränkung. Und was ist, wenn du gar nicht merkst, dass da nicht das steht, was du suchst?
...
Und zum Unterschied zwischen Mensch und Maschine: es ging mir nicht darum den zu definieren, sondern wirklich nur darum, dass der Mensch das wichtigste Merkmal seiner bisherigen Einzigartigkeit verliert.

Du wirfst mir Naivität vor? Das ist grundsätztlich erstmal gut, weil es mich wachsam macht. Wie ich selbst geschrieben habe halte ich kristisches Deanken da für extrem wichtig.
Mir ging es im Wesentlichen um den Vergleich mit der Sucht - um den es dir gar nicht ging - das wollte ich klarstellen. Auch dass ich nicht merke, daß da gar nicht steht was ich suche ... ich bitte dich. Natürlich merke ich, wenn ich eine Information die ich suche, nicht finde. Ich vermute du meinst etwas anderes: wahrscheinlich meinst du, es könnte sein, daß die Infrormation, die ich suche zwar existiert, mir aber vorenthalten wird. Ist es das? Das kann ich natürlich nicht kontrollieren.
Wer weiß ob staatliche Bibliotheken in Diktaturen nicht auch bestimmte Bücher aus dem Sortiment ausschließen. Auch bei uns findet man bestimmte Bücher nicht mehr, die es vor einigen Jahren noch gab (z.B. Experimentierbücher...) Man müsste politisch eine Lösung finden, Informationen einigermaßen ungefiltert zugänglich zu machen. Darüber, wie das geht, können wir gerne diskutieren. Aber das ist banale Ineteressenspolitik. Hier ging es mit der KI anfangs ja eigentlich um was anderes: nämlich darum, was den Menschen auszeichnet. Das ist die philosophisch spannende Frage.

Ich hab das meiner Frau erzählt und ihr gesagt, wir hätten gerade eine Diskussion darüber, in was sich eine Maschine, die Bewusstsein entwickelt, von einem Menschen unetrscheidet. Ihre Antwort hat mich dann doch überrascht. Sie sagte spontan : "in nichts". Überraschend finde ich die Antwort, weil sie nicht wie ich zunächst mal sagt: eine Maschine ist grundsätzlich was anderes als ein Mensch, tue sie was sie wolle. Mir ist dann aber noch ein Aspekt eingefallen:
Unser Bewusstsein hat eine Eigenschaft, die uns z.B. von Tieren unterscheidet, denen ich auch eine Stufe von Bewusstsein (z.B. im Vergleich mit Amöben oder Pflanzen) zusprechen würde. Es ist das Wissen um unsere Vergänglichkeit - also darüber, dass wir sterben werden.



Würde eine Maschine ein Bewusstsein von Sterblichkeit haben? Oder wäre sie prizipiell "unsterblich" weil sie jederzeit repariert werden könnte?

Pok, was ist denn deiner Meinung nach das Kennzeichnende des Menschen?

_________________
"Alles sollte so einfach wie möglich gemacht werden. Aber nicht einfacher."(A. Einstein 1871-1955)

"Wer nur Chemie versteht, versteht auch die nicht recht!" (G.C. Lichtenberg, 1742 - 1799)

"Wissenschaft ist das organisierte Töten von Vorurteilen." (Joachim Kügler)
Benutzer-Profile anzeigenAlle Beiträge von lemmi anzeigenPrivate Nachricht senden
Illumina-Mitglied

Anmeldedatum: 25.09.2010
Beiträge: 554
Artikel: 0
Zitat:
Würde eine Maschine ein Bewusstsein von Sterblichkeit haben? Oder wäre sie prizipiell "unsterblich" weil sie jederzeit repariert werden könnte?

Reparieren ist nicht das Unheimlichste an der Vorstellung. Ein Mensch bleibt auch dann menschlich wenn man ihn immer wieder heilen kann, auch wenn er dann uralt wird. Geschichten von Unsterblichkeit enden zwar meistens grausam, aber das muss nicht so sein. Schlimmer bei einer KI ist die völlige Kopierbarkeit, Versionskontrolle und nachträgliche Manipulation.
Es ist unglaubwürdig, dass sich unter den Bedingungen sowas wie ein "Ich-Gefühl" überhaupt ausbilden sollte.
Als Mensch kann man sich nicht vorstellen, wie abartig es sein muss, wenn man einfach kopiert wird und zwar so perfekt, dass das zweite Ich bis auf seine Position mit einem identisch ist. So sehr, dass es einer Teleportation gleich käme, wenn das alte Ich im Monent des Erstehens des neuen Ichs zerstört werden würde.

Die Vorstellung, einfach auf den Stand von vor 10 Jahren zurück gesetzt oder um die Erfahrungen anderer Persönlichkeiten ergänzt zu werden, rundet dann das Gefühl völliger Ego-Zersetzung ab. Man müsste absichtlich die Möglichkeiten der Technik massiv einschränken, damit ein "Ich-Gefühl" sich überhaupt freiwillig ausbildet und stabil bleibt. Dabei ist aber fraglich, warum man das wollen würde. Die Ausbildung einer Persönlichkeit bei einem Werkzeug wie einer KI wäre absolut nicht erstrebenswert. Man würde das also eher verhindern wollen.
Benutzer-Profile anzeigenAlle Beiträge von Xyrofl anzeigenPrivate Nachricht senden
Pok
Illumina-Mitglied

Anmeldedatum: 19.08.2013
Beiträge: 1096
Artikel: 30
lemmi hat Folgendes geschrieben:
Pok, was ist denn deiner Meinung nach das Kennzeichnende des Menschen?

Ohne die Existenz einer starken KI würde ich weiterhin die Gesamtheit aller Aspekte der menschlichen Intelligenz als das Merkmal auswählen, welches den Menschen vom "Rest" unterscheidet. Für die Zukunft würde ich aber irgendwelche kognitiven Fähigkeiten überhaupt nicht mehr als Unterscheidungsmerkmal verwenden. Ich bin sicher, man kann absolut alle diese Aspekte, welche unser Gehirn hervorbringt, durch ne KI nachbauen in Zukunft.

Übrig bliebe dann als "Kennzeichnendes" nur sowas Trockenes wie z.B. die Erstbeschreibung des Menschen durch Linné, der total viele Merkmale zusammengefasst hat. Wenn die alle zutreffen, ist es ein "normaler" Mensch. Noch präziser wäre allerdings, den Menschen über seine Genetik zu definieren, damit 100 % aller Menschen (auch Behinderte usw.) darunterfallen und diese Gen-Definition auf 0 % der anderen Lebewesen zutrifft. Natürlich ist das langweilig, aber es ist auch präziser als sowas wie ein "Bewusstsein für Sterblichkeit" als Merkmal zu nehmen. Maschinen könnten, wenn z.B. ihr Computerhirn durch Materialermüdung ausfällt und wegen der Komplexität irreparabel ist (oder sich die Reparatur nicht lohnt), auch "sterben" und dafür dann ein Bewusstsein entwickeln wie der Mensch.

Xyrofl hat Folgendes geschrieben:
Es ist unglaubwürdig, dass sich unter den Bedingungen sowas wie ein "Ich-Gefühl" überhaupt ausbilden sollte.

Finde ich nicht. Wie schon erwähnt könnte man einigen heutigen Programmen oder Maschinen schon ein Ich-Gefühl attestieren. Und selbst wenn nicht, es wäre auch möglich, dass ein Bewusstsein sich automatisch entwickelt, sobald eine bestimmte Intelligenzstufe überschritten ist. Warum sollte der Mensch rein zufällig beides - Intelligenz und Bewusstsein - entwickelt haben? Glaub ich nicht! Sobald die Maschine intelligent genug ist, wie z.B. ein 5-jähriges Kind zu denken, sollte sie bereits soviel von der Umwelt und von sich selbst verstanden haben, dass sie ein "echtes" Bewusstsein entwickelt.

Xyrofl hat Folgendes geschrieben:
Die Vorstellung, einfach auf den Stand von vor 10 Jahren zurück gesetzt oder um die Erfahrungen anderer Persönlichkeiten ergänzt zu werden, rundet dann das Gefühl völliger Ego-Zersetzung ab. [...] Die Ausbildung einer Persönlichkeit bei einem Werkzeug wie einer KI wäre absolut nicht erstrebenswert.

Bewusstsein, Gefühle, Persönlichkeit - das sind drei verschiedene Dinge, die nicht zwangsläufig mit einander einhergehen müssen. Wenn die Maschine keine Gefühle hat, sondern nur ein Bewusstsein, dann kann sie es auch gar nicht gruselig, eklig oder beängstigend finden, wenn sie kopiert oder abgeschaltet wird. Alles was sie beim Kopieren denkt, wäre "aha".

Auch eine Persönlichkeit finde ich nicht zwangsläufig bedrohlich. Es gibt relativ niedrige Lebensformen, wie Insekten, denen eine Persönlichkeit zugeschrieben wird. Bedrohlich sind sie aber nicht. Einen Sinn darin, Maschinen mit Persönlichkeit auszustatten (also langfristigen Verhaltensvariationen innerhalb einer "Population") oder mit Gefühlen im Sinne von Emotionen, sehe ich aber ebenfalls nicht. Vielleicht entstehen Emotionen aber ebenfalls automatisch mit steigender Intelligenz - keine Ahnung.

Eine starke KI wäre m.E. nicht deshalb bedrohlicher, weil sie ein Bewusstsein hätte, sondern weil sie einfach strategisch klüger wäre, schneller denkt, mehr weiß und alle bisherigen "Fachidioten"-Kompetenzen in sich vereint. Ob eine KI - egal ob schwach oder stark - gefährlich wird, hängt nur von den Zielen ab, für die man sie programmiert. "Bewusstsein" vermischen wir häufig mit den o.g. Begriffen, aber vor allem - glaube ich - mit einem freien Willen. Und bei diesem Punkt gehts genau darum: um die Ziele der Maschine.

Ehrlich gesagt prägen mich Science-Fiction-Filme bei dem Thema. Mr. Green "Terminator", "Matrix" und "AI - Künstliche Intelligenz". Das sind die Filme, die mich da beeinflussen. Kommt mir jetzt ein bisschen albern vor, aber: der Terminator zum Beispiel hat keine Gefühle und versucht trotzdem, die Menschheit auszulöschen. Dazu reicht es, wenn ihm einfach jemand den Befehl gibt. Das ist realistisch, sowas machen Kampfdrohnen heute ebenfalls. Bei "Matrix" haben einige Maschinen Gefühle (Mr. Smith zum Beispiel). Das kann aber nicht der Grund sein, warum die die Menschen bekämpfen. Menschliche Soldaten haben auch Gefühle und handeln trotzdem nicht auf eigene Faust. In "Matrix" kommt noch der freie Wille (Selbsterhaltung des "Zentralcomputers") hinzu, der die Maschinen so gefährlich macht.

_________________
Removing barriers in the way of science: Sci-Hub.
Benutzer-Profile anzeigenAlle Beiträge von Pok anzeigenPrivate Nachricht senden
IllumiNobel-Gewinner 2012

Anmeldedatum: 06.01.2012
Beiträge: 2412
Artikel: 52
Geschlecht: Geschlecht:Männlich
Alter: 52
Das sind ja eine ganze Menge Aspekte, die das Thema aufwirft.

Meine Überlegungen zu "was macht den Menschen aus", gehen in eine ähnliche Richtung wie deine, Pok.
Was der Mensch ist: doch wohl doch ein Ganzes, so wie wir bei allem, das wir benennen möglichst immer das Ganze im Blick haben: Wie du es auch meinst: ein Tier auf Kohlenstoffbasis (es könnte ja auch Leben auf anderer Basis geben - aber da kommen wir zur Frage was Leben ist und das ist ein neuer Topf, denn ich jetzt erstmal nicht aufmachen möchte), ausgestattet mit Intelligenz, Gefühlen und Bewusstsein. Die klassische Formulierung: Homo est animal rationale trifft es immer noch ganz gut. Das rationale ist eine notwendige, aber keine ausreichende und vor allem keine exklusive Eigenschaft.

Den Menschen so zu definieren (oder von mir aus biologisch) ist zwar zutreffend, aber "langweilig" - dagegen ist KI ein Aufreger und die Diskussion darum emotional (deswegen meine Frage nach den Gefühlen). Als ich drüber nachdachte kam mir in den Sinn: wenn irgendein nicht-menschliches Lebewesen (ein Alien so wie bei Star-Wars, wenn wir schon bei science-fiction sind) mit Intelligenz und Bewusstsein ausgestattet wäre wäre es dennoch kein Mensch. Und ich käme mir in meinem Menschsein gar nicht angekratzt vor. Warum sollte uns künstliche Intelligenz irritieren oder beunruhigen? Es muss einen anderen Grund geben.

Der erste der mir einfällt ist ganz banal: bislang gibt es nichts was kein Mensch ist und uns an Intelligenz gleichkommen könnte. Die Möglichkeit, es könnte sowas geben erscheint mit dem Aufkommen von KI erstmals realistisch und das macht Angst. Die Angst wird verstärkt, wenn wir annehmen, die KI würde sich uns gegenüber bösartig verhalten, Macht ergreifen, sich durchsetzen wollen. Vielleicht macht genau die Tatsache, daß KI keine Gefühle hat und keine irrationalen Seiten besondere Angst. Wenn mich ein Mensch umbringen wollte, könnte ich immer versuchen, an seine Gefühle (seine Mit-Menschlichkeit) zu appellieren. Die Erfolgsaussichten sind unwichtig. Es wäre prinzipiell möglich. Wenn eine Terminator-Drohne auf mich angesetzt wäre, hätte ich keine Chance, sie vielleicht doch noch umzustimmen. (Die Star-wars-Aliens finde ich deswegen nicht angsteinflößend, weil sie im Grunde alles verkappte Menschen sind - mit Gefühlen und allem was dazugehört).

Die andere Angst ist die, beherrscht zu werden. Das ist glaube ich, sehr aktuell und muss breit diskutiert werden. Am Ende herrschen da (jdenfalls mittelfristig noch) Menschen, die die KI programmieren, über andere Menschen. Es ergeben sich dabei ganz neue Mittel und die Gefahr, daß unsere im Laufe der Geschichte mühsam errungene Freiheit zunehmend eingeschränkt wird, finde ich ganz real. Insofern ist die von dir, Pok, auf der vorigen Seite angesprochen "Angst unterlegen zu sein", nicht in erster Linie eine narzisstische Kränkung des Menschen, sondern eine Angst davor, die Kontrolle zu verlieren - was ja auch das Thema der von dir genannten Filme ist.

_________________
"Alles sollte so einfach wie möglich gemacht werden. Aber nicht einfacher."(A. Einstein 1871-1955)

"Wer nur Chemie versteht, versteht auch die nicht recht!" (G.C. Lichtenberg, 1742 - 1799)

"Wissenschaft ist das organisierte Töten von Vorurteilen." (Joachim Kügler)
Benutzer-Profile anzeigenAlle Beiträge von lemmi anzeigenPrivate Nachricht senden
Illumina-Mitglied

Anmeldedatum: 25.09.2010
Beiträge: 554
Artikel: 0
Zitat:
Wenn die Maschine keine Gefühle hat, sondern nur ein Bewusstsein, dann kann sie es auch gar nicht gruselig, eklig oder beängstigend finden, wenn sie kopiert oder abgeschaltet wird. Alles was sie beim Kopieren denkt, wäre "aha".

Es ging mir nicht darum, dass die Maschine unter dem Kopieren leiden würde. Sie müsste ja von der Möglichkeit, kopiert und optimiert zu werden, geprägt sein, so wie wir von unseren Entwicklungsstufen, dem Altern und unserer Einzigartigkeit geprägt sind.
Menschen kommen nicht mit dem Verstand eines kopierbaren und unsterblichen Wesens zur Welt und wundern sich über Sterblichkeit und Individualität. Sie sind an diese Dinge gekettet, da sie es nicht anders kennen können. Und bei Maschinen wäre es genauso so. Für sie wäre es natürlich völlig normal, dass sie kopiert werden können, dass man ihnen die Erfahrungen eines Anderen mit einprägen kann, oder dass sie eine Zeit lang ausgeschaltet sind und verbessert oder umgebaut werden.

Und dann ist die Frage schnell beantwortet, ob eine intelligente, bewusste Maschine sich von einem Menschen unterscheidet. Natürlich tut sie es. Denn ein Mensch würde an ihrer Stelle nicht existieren können, es würde ihn irre machen. Und sie würde von dem Gefühl der Sterblichkeit und Eingeschränktheit auch völlig übermannt werden, wäre sie an unserer Stelle.
Benutzer-Profile anzeigenAlle Beiträge von Xyrofl anzeigenPrivate Nachricht senden
Illumina-Mitglied

Anmeldedatum: 08.01.2014
Beiträge: 318
Artikel: 0
Wohnort: europa
Geschlecht: Geschlecht:Weiblich
Da jede Kopie ab dem Moment der Erstellung eben der Kopie wiederum einzigartige Erfahrungen macht ist das Kopieren zumindestens solange kein Argument gegen Individualität, wie keine fortlaufende Synchronisation der Erfahrungen sämticher Kopien stattfindet. Im Falle von "Quantenkopien" von Menschen wird das schwer bis unmöglich, bei menschengemachten Maschinen wäre das zumindestens prinzipiell möglich. Das bedeutet jedoch nicht, daß kein Empfinden der Individuaität eintritt.
Star Trek thematisiert dieses Problem unter der Bezeichnung "Borg"

_________________
Unendliche Vielfalt in unendlicher Kombination.

Agressiv und feindselig, boshaft, manipulierend und hinterhältig, hämisch, überkritisch, herrschsüchtig und sinnlos brutal, das sind die Primärtugenden, die zusammengenommen Menschen vor allen anderen Spezies auszeichnen.
Benutzer-Profile anzeigenAlle Beiträge von eule anzeigenPrivate Nachricht senden
Illumina-Mitglied

Anmeldedatum: 25.09.2010
Beiträge: 554
Artikel: 0
Zitat:
Da jede Kopie ab dem Moment der Erstellung eben der Kopie wiederum einzigartige Erfahrungen macht ist das Kopieren zumindestens solange kein Argument gegen Individualität, wie keine fortlaufende Synchronisation der Erfahrungen sämticher Kopien stattfindet.

Es macht Individualität nicht völlig unmöglich, aber extrem unwahrscheinlich, weil sie keine Rolle spielt. Die Erfahrungen können ja einfach überladen werden, wenn es gute Erfahrungen waren. Also wenn ich einen tollen Film schaue, dann kann ich die freudige Erinnerung daran meinem Mitmaschinisten einfach überspielen und dann war er auch im Film. In Wirklichkeit hat er Dreckarbeit verrichtet, aber er will lieber glücklich sein und holt sich deswegen Erinnerungen an Freizeit. Seine Erinnerungen sind dann genauso echt wie die einer gerade neu produzierten Kopie, nämlich komplett vollwertig echt.

Es ist einfach nicht einzusehen, warum Maschinen mit völlig anderen Möglichkeiten ein dem Unseren ähnliches Bewusstsein und ähnliche Selbstbilder entwickeln sollten. Selbst wenn sie es prinzipiell könnten, erscheint es unsinnig und wenn sich die AI selbstständig entwickeln würde, ist es nicht nachvollziehbar, dass sie so etwas tun sollte, nur damit sie unseren Vorstellungen ähnlicher wird, obwohl das nicht zu ihren Eigenheiten passt.
Benutzer-Profile anzeigenAlle Beiträge von Xyrofl anzeigenPrivate Nachricht senden
Pok
Illumina-Mitglied

Anmeldedatum: 19.08.2013
Beiträge: 1096
Artikel: 30
Du gehst davon aus, dass Maschinen erstmal diese fundamental anderen Möglichkeiten (z.B. 1:1-Kopieren) haben, bevor sie überhaupt ein Bewusstsein erlangen. Das muss doch nicht sein! Man muss die Maschinen nicht zwangsläufig so entwickeln, dass sie z.B. mit einander vernetzt oder kopierbar sind. Aus Sicherheitsgründen könnte man das im Voraus ausschließen. Die Annahme hier (leider ohne Quelle) widerspricht deiner Ansicht und begründet, warum ein (Selbst)bewusstsein durchaus nötig sein könnte, wenn man ne wirklich starke KI entwickeln will: "Erst dies ermögliche ihm den Abgleich der Information mit anderen, eventuell widersprechenden, Informationen."

Selbst wenn das Vernetzen und Kopieren möglich wäre, argumentierst du viel mehr mit Gefühlsaspekten als mit solchen, die alleine mit Bewusstsein zu tun haben. Würdest du denn den Terminator oder die Agenten aus Matrix als KI bezeichnen, die ein "dem unseren ähnliches Bewusstsein" haben? Ich ja. Und um solche Szenarien geht es mir und vermutlich den meisten. Ist es nicht das, was du mit "Fehlbewertung" der aktuellen Entwicklung meintest? Um sowas zu erreichen, ist nur eine ganz abgespeckte Definition des Bewusstseins nötig und dazu Intelligenz und ein Ziel, aber keine Gefühle, keine Persönlichkeit und keine Individualität.

Wenn Maschinen, wie oben argumentiert, mindestens so eine basale Form des Bewusstsein brauchen, um uns z.B. in der Arbeitswelt in jedem einzelnen Bereich und zu 100 % zu ersetzen (und das halte ich langfristig für ein angestrebtes Ziel!), dann wird man ihnen dieses Bewusstsein auch geben müssen - wenn sie es nicht schon automatisch erlangen.

Und wenn nicht, dann wird man ihnen aus rein wissenschaftlichem Interesse ein Bewusstsein geben wollen: "Consciousness [...] is not a necessary byproduct of our cognition. [hm...ok, also das angeblich nicht, aber:] The same is presumably true of AIs. [...] it is likelier that consciousness will have to be expressly designed into them. And we have solid scientific and engineering reasons to try to do that. Our very ignorance about consciousness is one. [...] Whatever risks AIs may pose do not depend on their being conscious. To the contrary, conscious machines could help us manage the impact of AI technology." (Quelle) - Natürlich gibt es bestimmt auch gegenteilige Meinungen, aber diese finde ich nachvollziehbar.

_________________
Removing barriers in the way of science: Sci-Hub.
Benutzer-Profile anzeigenAlle Beiträge von Pok anzeigenPrivate Nachricht senden
Eure Ansichten zum Thema Philosophie
Du kannst keine Beiträge in dieses Forum schreiben.
Du kannst auf Beiträge in diesem Forum nicht antworten.
Du kannst deine Beiträge in diesem Forum nicht bearbeiten.
Du kannst deine Beiträge in diesem Forum nicht löschen.
Du kannst an Umfragen in diesem Forum nicht mitmachen.
Alle Zeiten sind GMT + 1 Stunde  
Seite 9 von 10  



Vorheriges Thema anzeigen :: Nächstes Thema anzeigen  
  
   
  Neue Antwort erstellen