SSL (?): an | aus

Bitte die Forenregeln und die Hinweise zu den Versuchen lesen!

Neue Antwort erstellen
Illumina-Mitglied

Anmeldedatum: 25.09.2010
Beiträge: 554
Artikel: 0
Zitat:
Du gehst davon aus, dass Maschinen erstmal diese fundamental anderen Möglichkeiten (z.B. 1:1-Kopieren) haben, bevor sie überhaupt ein Bewusstsein erlangen.
Ich gehe davon aus, dass diese Möglichkeit nicht verloren geht. Denn, das hat Software nun mal so an sich, dass man sie kopieren kann.
Wären die Maschinen analog oder am Ende sogar (biologische) Wetware, dann wären sie uns natürlich ähnlicher. Software ist viel freier und flexibler als an ihren jeweiligen Körper gekettete Verstände von Menschen und das muss sich auf das Bewusstsein aufprägen, sofern es denn wirklich intelligent ist und begreift, in was für einer Lage es sich befindet.

Zitat:
Selbst wenn das Vernetzen und Kopieren möglich wäre, argumentierst du viel mehr mit Gefühlsaspekten als mit solchen, die alleine mit Bewusstsein zu tun haben.
Ja, das tue ich, da es um die Frage ging, was Menschen von Maschinen unterscheiden würden. Das Bewusstsein im ganz primitiven Sinne zu erlangen, ist ja nichts, das sie dem Menschen nennenswert ähnlich macht. Iterative Verfahren wissen, wann die Arbeit fertig ist. Und ein Mensch weiß, wann er mit der Arbeit fertig ist. Beide haben wenn man es so nennen will "Einsicht über ihren Arbeitsprozess und ihren Erfolg" und sind sich "ihrer Arbeit bewusst", aber auf völlig verschiedenen Ebenen.
Eine Datenbank kann ihre Information mit neuen Informationen vergleichen. Oder ein Auto kann die Information seines an die Drehzahl gekoppelten Tachometers mit der GPS-Geschwindigkeit abgleichen und schließen, dass seine Achse frei dreht. Das ist nicht wirklich vergleichbar mit menschenähnlicher Selbsterkenntnis.

Zitat:
Um sowas zu erreichen, ist nur eine ganz abgespeckte Definition des Bewusstseins nötig und dazu Intelligenz und ein Ziel, aber keine Gefühle, keine Persönlichkeit und keine Individualität.

Und somit sind wir vermutlich einer Meinung. Sie müssen uns nicht notwendigerweise so ähnlich sein, dass man sich fragen muss "was macht überhaupt noch den Menschen aus".
Benutzer-Profile anzeigenAlle Beiträge von Xyrofl anzeigenPrivate Nachricht senden
Pok
Illumina-Mitglied

Anmeldedatum: 19.08.2013
Beiträge: 1096
Artikel: 30
Na gut, das würde dann erstmal die SciFi-Szenarien ausschließen, in denen die Maschinen Gefühle haben. In dem link wurde die Notwendigkeit eines Bewusstseins damit begründet, dass die Maschinen uns dadurch auf menschlichem Sprachniveau erklären können, wie sie z.B. zu einer Entscheidung gekommen sind. Das ist einer der Punkte, die ich spannend finde und die über das von dir genannte Bewusstseins-Level hinausgehen. Eine KI, mit der man richtig diskutieren könnte und die gegenseitigen Erkenntnisgewinn bringt (dem Menschen wohl deutlich mehr).

Es gibt so ein Modell von verschiedenen Bewusstseinsstufen ("ConScale"), in das man eine KI einordnen kann. Und wenn man sich die "Machine Examples" aus dem SciFi-Genre bei den ganz hohen Stufen ansieht (s.u.), könnte es doch einen Markt für solche Maschinen geben, also auch welche, die echte Emotionen haben. Zum Beispiel die KI im Film "Her" (den ich nur als Trailer kenne). Und wenn es eine Nachfrage gibt, finde ich es auch nicht abwegig anzunehmen, dass ein Angebot entsteht - also auch die Entwicklung einer KI mit einem sehr menschenähnlichen Bewusstsein. Wenn die Handlungsmöglichkeiten dieser KI genug eingeschränkt wären (wie es in diesem Film den Anschein hat), würde man davor vermutlich auch nicht zurückschrecken, es zu tun.


(Quelle)

_________________
Removing barriers in the way of science: Sci-Hub.
Benutzer-Profile anzeigenAlle Beiträge von Pok anzeigenPrivate Nachricht senden
Illumina-Mitglied

Anmeldedatum: 25.09.2010
Beiträge: 554
Artikel: 0
Mit deinem letzten Link hast du mich überzeugt. Dort wird in den späteren Absätzen Bewusstsein mit Integration erklärt. Das ist diese IIT, die im Artikel angesprochen wird und die mir wesentlich mehr zusagt als das Stufenmodell ConScale, auch wenn der Computertheoretiker Scott Aaronson anscheinend schon ein Gegenbeispiel gefunden hat, wo IIT anscheinend falsch positive Ergebnisse gibt. Aber da muss man gegen halten, dass die fehlertoleranten Codes, die er anführt, zwar diese Integration und Abhängigkeit besitzen, aber erstens keinen realweltlichen Input verarbeiten und zweitens jegliche Form von "Wiederhall" vermissen lassen.

Und das bringt mich wieder zurück zu meiner ersten Kritik, die noch immer bestehen bleibt. Routinen zur Gesichtserkennung oder Klassifikation sind Funktionen und selbst wenn man sie alle zusammen koppelt, sind die Schnittstellen nichts weiter als eine Parameter-Übergabe. Das ist zu wenig. Sowas ist super um damit zu arbeiten und weltliche Probleme zu lösen, aber es geht meinem Verständnis von Bewusstsein zuwider und auch dem der IIT. Codes bestehend aus Regeln und Funktionen sind viel zu modular und lose für IIT und im Artikel steht auch, dass jede AI, die auf logischen Regeln und Inferenz basiert, sehr unwahrscheinlich irgend eine Form von Bewusstsein haben kann, egal wie mächtig sie auch sein mag.
Etwas völlig Anderes sind die mir vorher nicht bekannten Ansätze, die scheinbar direkt auf der IIT basieren und explizit stark integrierte Reizverarbeitung und biologisch inspirierte Lernregeln implementieren wie die Haikonen-Architektur. Das Ganze scheint für die Wirtschaft zur Zeit nahezu keine Rolle zu spielen und man findet wenig dazu, aber es scheint schon viel mehr in die Richtung zu gehen, die mir für das Erreichen bewusster Systeme erfolgversprechend aussieht (Was nicht viel bedeuten muss, ich bin ja Laie). Die Tatsache, dass andere, wesentlich leblosere Systeme eine größere Rolle spielen, zeigt wohl, dass entweder die Zeit für sowas noch nicht reif ist, oder aber Bewusstsein generell nicht nötig/erwünscht ist.
Ich würde selber sagen, dass ich diverse Formen von logischen und inferenzbasierten Systemen sicher irgendwann mal gebrauchen können werde. Aber einen Roboter mit Emotionen brauche ich eher nicht. Er ist faszinierender, ohne Frage, aber er scheint mir etwas unpraktisch und man läuft da schnell in ethische Probleme.
Benutzer-Profile anzeigenAlle Beiträge von Xyrofl anzeigenPrivate Nachricht senden
Pok
Illumina-Mitglied

Anmeldedatum: 19.08.2013
Beiträge: 1096
Artikel: 30
Wenn du sagst, dass etwas dir bisher nicht Bekanntes dir schon eher in die Richtung der Entwicklung bewusster Systeme geht (als bisher), dann reicht mir das. Mr. Green

Dann geht es offenbar weniger um die Frage, ob es machbar ist, sondern eher darum, ob es auch ein Interesse dafür gibt, also gemacht wird. Jedenfalls lesen sich deine letzten zwei Absätze so. Das ist ne Glaubensfrage. Ich glaube jedenfalls and die Faulheit der Menschen (nicht arbeiten zu wollen), aber vor allem an die Macht des Marktes, der jede Arbeit noch billiger haben will. Um dieses Ziel vollumfänglich zu erreichen, sind m.E. Intelligenz- und Bewusstseinsstufen auf dem Niveau des Menschen erforderlich, weshalb es auch dazu kommen wird.

_________________
Removing barriers in the way of science: Sci-Hub.
Benutzer-Profile anzeigenAlle Beiträge von Pok anzeigenPrivate Nachricht senden
Illumina-Mitglied

Anmeldedatum: 25.09.2010
Beiträge: 554
Artikel: 0
Machbar muss ich es finden, weil ich davon ausgehe, dass digitale Systeme letzten Endes analoge Systeme immer simulieren können, sogar besser als andersherum. Nicht exakt, aber mit immer mehr Aufwand in immer besserer Näherung, also muss eine vollständige Simulation unseres Gehirns auf einem Cluster auch Bewusstsein haben. Mir sind auch keine Monte-Carlo-Versuche bekannt, wo es einen Unterschied macht, ob man echten Zufall oder Pseudozufallszahlen, sprich deterministisches Chaos nutzt.
Und selbst wenn man das nicht glaubt, kann man ja noch analog arbeiten. Das wäre natürlich eine Schelle für alle, die von digitaler Revolution sprechen. Wenn dann auf einmal nach dieser ewig langen Zeit, wo wir Datenverarbeitung natürlich nur digital kennen (länger als ich lebe) auf einmal auf Analog umschwenken um die ganzen richtig abgefahrenen Zukunftsvisionen umzusetzen. Das wäre eine echte Revolution, aber vielleicht nicht zum Guten, denn Digital hat viele Vorteile.

In den neuronalen Architekturen wie ich sie kenne, die man direkt mittel Backpropagation und ähnlichen Verfahren trainiert, hat man all das nicht. Und die sind alles andere als unbeliebt, eben weil sie weniger Zicken machen und nach dem Training einfach wie Funktionen verwendet werden können.
Wenn man erwähnt, wie leistungsfähig auf einmal etwas geworden ist, dann sind es meistens solche Dinge. Leider kommt das Wort "Neuron" darin vor und deswegen denkt man, diese Techniken seien uns notwendigerweise sehr ähnlich. Man kann aber auch aus künstlichen Neuronen etwas bauen, dass uns sehr, sehr fremd ist und meistens ist es das.

Gegen eine prinzipielle Machbarkeit sage ich aber nichts. Ich meine nur, dass das was wir jetzt einsetzen eher wenig damit gemein hat und nicht in die Richtung geht. Auch Haikonen ist nur eine Randnotiz und bisher hat er nicht viel von seinen Konzepten umsetzen können, weil das wirklich sehr schwer ist. Aber auf jeden Fall geht das in die Richtung, die mir einleuchtet und mich beeindruckt. Das soll nicht heißen, dass ich etwas gegen Perzeptrone, Clusteralgorithmen und Inferenzsysteme habe. Im Gegenteil! Aber sie tragen zu dieser philosophischen Debatte wohl viel weniger bei.
Benutzer-Profile anzeigenAlle Beiträge von Xyrofl anzeigenPrivate Nachricht senden
Illumina-Mitglied

Anmeldedatum: 07.05.2010
Beiträge: 303
Artikel: 1
Wohnort: Leipzig
Geschlecht: Geschlecht:Männlich
Alter: 23
Zitat:
Finde ich nicht. Wie schon erwähnt könnte man einigen heutigen Programmen oder Maschinen schon ein Ich-Gefühl attestieren. Und selbst wenn nicht, es wäre auch möglich, dass ein Bewusstsein sich automatisch entwickelt, sobald eine bestimmte Intelligenzstufe überschritten ist. Warum sollte der Mensch rein zufällig beides - Intelligenz und Bewusstsein - entwickelt haben? Glaub ich nicht! Sobald die Maschine intelligent genug ist, wie z.B. ein 5-jähriges Kind zu denken, sollte sie bereits soviel von der Umwelt und von sich selbst verstanden haben, dass sie ein "echtes" Bewusstsein entwickelt.


Damit hast du einen interessanten Aspekt aufgerufen, nämlich die Frage, ob die Intelligenz allein ein Bewusstseinskriterum ist. Ich fände es zielführend, sich in diesem Zusammenhang mal um die genauen Unterschiede und Gemeinsamkeiten Gedanken zu machen, die eine Maschine mit KI von einem Gehirn unterscheiden. Aber nur durchs Überlegen - jedenfalls komme ich da gerade nicht zu einer Anwort. Klar. die Maschine ist aus völlig anderen Bausteinen aufgebaut, aber vom Prozess her? Was ist sozusagen das Bewusstseinserzeugende? Die Informationsübertragung zwischen Zellen? Wieso findest du denn die Gegensätzlichen Positionen nicht nachvollziehbar? Wie lauten sie?

Um nochmal auf die Gefühle zurückzukommen, die es auslöst: Wenn ich mir jetzt vorstelle, dass dort in der Bibliothek ein Roboter stehen würde, der die Buchhaltung betreibt, okay. Ein wenig ängstlich würde ich meinen, passt. Aber das ist Gewohnheitssache, denn einen rationalen Grund der Angst gibt es nicht, wenn sich die Maschine nicht negativ selbst organisieren kann. Und die Sorge um die Unbrauchbarkeit des Menschen, naja, das gab es doch schon immer. Die Technik hat ohnehin schon einen erheblichen Platz in der Wirtschaft. Wenn es weniger manuelle Arbeit gibt, dann eben umso mehr Freizeitbeschäftigung - auch eine Form der Arbeit Wink Unserer Wirtschaft ginge es sicherlich nicht schlechter, wir brächten halt weniger Arbeit. Und in Anbetracht dessen, dass eine Maschine kein Mensch ist, kann man sie auch nicht miteinander vergleichen. Wenn ich bei einem Wettkampf teilnehme, treten entweder nur Roboter gegen Roboter oder Mann gegen Mann an - dass die Maschine etwas besser kann ist wurscht.

Noch bin ich nicht davon überzeugt, dass KI überhaupt eine Form des Bewusstseins besitzen kann (die Argumente würden mich wirklich interessieren). Jedenfalls wäre doch ein Gegenargument, dass Bewusstsein bei der Lösung von Problemen nicht immer vorhanden ist - denn wir nehmen ohnehin ja nur einen sehr kleinen Teil bewusst war, vieles spielt sich im Unterbewusstsein ab. Ich habe mir den Artikel in deinem Link mal durchgelesen. Aber da wird Informationsverarbeitung zwangsläufig mit Bewusstsein in Verbindung gebracht. So lange KI kein Empfinden besitzt, hat der Mensch hier eine ganz klare Einzigartigkeit, die KI ist somit an sich wertlos und stellt nur für den Menschen einen Nutzen dar.

Unsinnig finde ich dieses Gedankenexperiment:
Zitat:
Imagine you replaced every neuron in your brain with a conscious bug, which has its own inner subjective experience but behaves outwardly just like a neuron. Would those critters usurp your consciousness and leave you an empty shell of a person? How could they possibly do that if nothing measurable about your brain activity has changed? It seems more straightforward to assume that the critters are conscious and so are you, in which case consciousness can emerge at multiple levels. How to identify and measure consciousness at the group level, let alone communicate with such entities, is a truly open problem.


Wenn man tatsächlich von einer Art Bewusstsein die durch Individuengruppen entsteht ausgeht, ist die Informationsübertragung aber eine völlig andere als in einem Gehirn in dem jede Zelle ein Individuum wäre. Murks.

_________________
...the question is not, Can they reason? nor, Can they talk? but, Can they suffer? (Jeremy Bentham)


Chemiker haben für alles eine Lösung
Benutzer-Profile anzeigenAlle Beiträge von dihydrogenmonooxid anzeigenPrivate Nachricht sendenWebsite dieses Benutzers besuchen
Illumina-Mitglied

Anmeldedatum: 25.09.2010
Beiträge: 554
Artikel: 0
Zitat:
Damit hast du einen interessanten Aspekt aufgerufen, nämlich die Frage, ob die Intelligenz allein ein Bewusstseinskriterum ist. Ich fände es zielführend, sich in diesem Zusammenhang mal um die genauen Unterschiede und Gemeinsamkeiten Gedanken zu machen, die eine Maschine mit KI von einem Gehirn unterscheiden.

Intelligenz lässt sich praktisch immer auf Optimierungsprobleme herunter brechen, die absolut nicht notwendigerweise mit Bewusstsein verbunden sein müssen, sondern sehr primitive, mathematische Problemstellungen sind, die man mit brute force abarbeiten könnte, wenn man genug Ressourcen hätte.
Man muss unterscheiden zwischen einer künstlichen Intelligenz und einem künstlichen Bewusstsein. Im Allgemeinen hat eine künstliche Intelligenz nicht notwendigerweise ein Bewusstsein, sondern nur die Fähigkeit zu Adaption und Optimierung, oft auch Inferenz und Deduktion. Es gibt schon lange "automated reasoning", aber was nach tiefen Gedanken klingt, ist am Ende nur ein automatisiertes Abarbeiten von logischen Regeln. Niemand würde glauben, dass dabei mehr Bewusstsein generiert wird als bei jedem anderen Programm. Durch seine sehr rigide Systematik ist automated reasoning natürlich in gut formalisierten Bereichen unserem Denken um Welten überlegen, aber bewusst ist es dadurch noch lange nicht.
Bewusstsein entsteht anscheinend durch Feedback. Dadurch sind alle Programme, die Regeln verarbeiten, aber nicht reflektieren, die numerischen Optimierungsverfahren und alle neuronalen feed forward Netze raus. Auch deep learning mit seinen gigantischen, tiefen Perzeptronen ist raus. Die Konstruktion kennt nur einen Weg durch das Netz, nämlich von Input zu output. Das ist eine Funktion und kein Organismus. Übrig bleiben natürlich rekursive Netze.

Alle diese Verfahren haben niemals das Ziel gehabt, ein Bewusstsein zu erschaffen, sondern mehr oder minder scharf umrissene Probleme zu lösen. Etwas völlig anderes sind Architekturen, die ein künstliches Bewusstsein ermöglichen sollen. Da ich bis vor Kurzem nicht einmal wusste, dass nennenswert daran gearbeitet wird (wenn auch mit sehr sehr wenig Geldmitteln verglichen mit dem gigantischen big data und deep learning Zeugs), kann ich dir dazu nicht all zu viel sagen. Das müssten wir uns hier wohl zusammen erarbeiten, oder in über einem Monat nochmal darüber sprechen.

Zitat:
Noch bin ich nicht davon überzeugt, dass KI überhaupt eine Form des Bewusstseins besitzen kann (die Argumente würden mich wirklich interessieren). Jedenfalls wäre doch ein Gegenargument, dass Bewusstsein bei der Lösung von Problemen nicht immer vorhanden ist - denn wir nehmen ohnehin ja nur einen sehr kleinen Teil bewusst war, vieles spielt sich im Unterbewusstsein ab.

Dein Gegenargument belegt nur, dass Informationsverarbeitung nicht notwendigerweise bewusst abläuft. Das ist trivial. Ich kann mit Wolfram Alpha deine Mathematikhausaufgaben lösen und es gibt nicht nur eine Lösung, sondern sogar einen menschenlesbaren Lösungsweg aus. Von der Funktionalität her sieht das aus als hätten sich sehr intelligente Wesen eine Zeit lang mit dem Problem befasst. Aber das ist eine Illusion. Das Bewusstsein ist dabei nicht nur nicht nötig, es wäre geradezu schädlich, da alle mir bekannten, bewussten Wesen dazu neigen, bei langen Rechenaufgaben abgelenkt zu sein und dann und wann einen Fehler zu machen. Eine automatische Funktionalität tut sowas niemals, sie gibt nicht einmal ein Feedback dazu, es wird einfach alles abgearbeitet.
Beim deep learning ist es das gleiche. Egal wie groß ein mehrlagiges Perzeptron ist, man kann es immer als eine Funktion auffassen. Und eine Funktion hat kein Bewusstsein. Sie kennt nur einen Weg. Das ist eine Abbildung, eine Projektion. Das menschliche Gehirn hat keine Ähnlichkeit damit, weil es sehr viel Rückkopplung hat.
Benutzer-Profile anzeigenAlle Beiträge von Xyrofl anzeigenPrivate Nachricht senden
Illumina-Mitglied

Anmeldedatum: 07.05.2010
Beiträge: 303
Artikel: 1
Wohnort: Leipzig
Geschlecht: Geschlecht:Männlich
Alter: 23
Das klingt ja soweit alles verständlich. Aber wenn Bewusstsein durch Feedback entsteht, mal blöd gefragt, wie kann ich mir das vorstellen? Feedback von/zu? Man könnte ja schlecht sagen, Feedback vom Unterbewusstsein zum Bewusstsein. Und man kann ja auch nicht sagen, dass alles was "automatisiert", also unterbewusst passiert, sich von dem Bewussten unterscheidet in der Form dessen, was es tut. Es ist nur nicht bewusst. Und wenn man es könnte, dann wäre man der Lösung der Frage schon ein ganzes Stück näher, glaub ich. Denn dann könnte man dem Bewusstsein auch eine notwendige Funktion zuschreiben mglw.

_________________
...the question is not, Can they reason? nor, Can they talk? but, Can they suffer? (Jeremy Bentham)


Chemiker haben für alles eine Lösung
Benutzer-Profile anzeigenAlle Beiträge von dihydrogenmonooxid anzeigenPrivate Nachricht sendenWebsite dieses Benutzers besuchen
IllumiNobel-Gewinner 2012

Anmeldedatum: 06.01.2012
Beiträge: 2412
Artikel: 52
Geschlecht: Geschlecht:Männlich
Alter: 52
Zu diesem Thema gibt es in der aktuellen ZEIT einen Artikel, der das ganze ziemlich gelassen sieht.

_________________
"Alles sollte so einfach wie möglich gemacht werden. Aber nicht einfacher."(A. Einstein 1871-1955)

"Wer nur Chemie versteht, versteht auch die nicht recht!" (G.C. Lichtenberg, 1742 - 1799)

"Wissenschaft ist das organisierte Töten von Vorurteilen." (Joachim Kügler)
Benutzer-Profile anzeigenAlle Beiträge von lemmi anzeigenPrivate Nachricht senden
Illumina-Mitglied

Anmeldedatum: 25.09.2010
Beiträge: 554
Artikel: 0
Zitat:
Das klingt ja soweit alles verständlich. Aber wenn Bewusstsein durch Feedback entsteht, mal blöd gefragt, wie kann ich mir das vorstellen? Feedback von/zu?
Von einem Teil der Maschinerie in die anderen Teile. In der Haikonen-Architektur wird das so modelliert, dass bei jedem Anprechen einer Mustererkennungseinheit die anderen Einheiten den Reiz wiederholen, obwohl er real gar nicht da ist. Wenn das System etwas Blaues sieht, dann hört die Stimmerkennungseinheit das Wort "blau". Wenn das System eine Stimme "blau" sagen hört, dann sieht die visuelle Einheit die Farbe blau. Das ist so wie wenn ich ein Wort höre und mir dann ein Bild dazu vorstelle, oder ein Bild von etwas sehe und mir dabei den Namen denke.

In der Form ist es noch primitiv, aber diese Verknüpfung der Sinne zu einer Gesamteinheit unterscheidet den Ansatz eben von allen anderen Verfahren. Und es muss eine Rückkopplung der jeweiligen Reizerkennung in die anderen Systeme geben, damit man etwas bewusst nennen kann. Wenn ich über etwas nachdenke, dann tue ich das ja auch visuell indem ich mir vorstelle oder akustisch indem meine Gedanken im Kopf hörbar sind. Alles, das von solcher Vorstellung entkoppelt ist, erscheint mir unbewusst, es sind ja keine inneren Reize da, mit denen es sich mir bemerkbar macht.
Benutzer-Profile anzeigenAlle Beiträge von Xyrofl anzeigenPrivate Nachricht senden
Pok
Illumina-Mitglied

Anmeldedatum: 19.08.2013
Beiträge: 1096
Artikel: 30
@lemmi: der Artikel ist nur für Abonnenten sichtbar. Aber wenn ich im Untertitel schon von Elon Musk lese, ist mir klar, dass jeder vernünftige Artikel da entwarnt. Der palabert ja bei dem Thema immer gleich vom 3. Weltkrieg. Es gibt aber auch (echte) Philosophen, die eine Gefahr sehen, Nick Bostrom zum Beispiel (Video).

Und zum Thema Bewusstsein: da scheint es so zu sein, wie Xyrofl gesagt hat, nämlich dass sich nur sehr wenige Leute aktuell damit beschäftigen. Aber es gibt sie (siehe Video unten). Und begründet wird die Forschung auch damit, dass man dadurch mehr über das Funktionieren unseres eigenen Bewusstseins lernen könnte. Das ist Grundlagenforschung, d.h. die wird auch gemacht, wenn es keine kommerziellen Interessen gibt. Und alleine zum Zweck einige Hypothesen zu testen, könnte man durchaus das Ziel haben, eine KI mit echtem Bewusstsein zu schaffen.



Das Bewusstsein zu entschlüsseln könnte alleine darin bestehen, ein relativ einfaches Modell zu entwickeln, in welchem vielleicht 100 simulierte Gehirnareale "irgendwie" zusammenarbeiten (mit Rückkopplung usw.). Das Problem zu lösen, könnte deshalb (trotz der extrem vielen Möglichkeiten bei nur 100 Verknüpfungspunkten) viel einfacher sein als die Probleme der schwachen KI (z.B. Gesichtserkennung usw.) zu lösen. Dann wäre es auch egal, ob diese Forschung nur mit ein paar Mio. Euro gefördert wird statt die Mrd., welche in die Entwicklung schwacher KI fließen.

_________________
Removing barriers in the way of science: Sci-Hub.
Benutzer-Profile anzeigenAlle Beiträge von Pok anzeigenPrivate Nachricht senden
Eure Ansichten zum Thema Philosophie
Du kannst keine Beiträge in dieses Forum schreiben.
Du kannst auf Beiträge in diesem Forum nicht antworten.
Du kannst deine Beiträge in diesem Forum nicht bearbeiten.
Du kannst deine Beiträge in diesem Forum nicht löschen.
Du kannst an Umfragen in diesem Forum nicht mitmachen.
Alle Zeiten sind GMT + 1 Stunde  
Seite 10 von 10  



Vorheriges Thema anzeigen :: Nächstes Thema anzeigen  
  
   
  Neue Antwort erstellen