Künstliche Intelligenz

  • Die (und was daraus entstehen kann in Form von Super KI) flößt mir durchaus Angst ein. Trotzdem nutze ich sie ja schon als „schwache“ KI.

  • Alexa, soll ich?

    Das erste was ich zu Alexa gesagt habe war: "Alexa, geh und fick dich selber", als Antwort kam die Frage: "Soll ich den Song '... fick ...' spielen?" Also irgendwas mit dem Wort 'fick' im Satz.

  • Hat Jemand Lust über künstliche Intelligenz zu diskutieren?

    Gibt es die denn wirklich schon? Welche aktuellen Anwendungen würdest du denn als intelligent bezeichnen? CNNs zur semantischen Instanzsegmentierung von Bildern oder RNNs für NLP halte ich derzeit noch nicht für intelligent. Durch adversarial attacks lassen die sich noch auf einer Ebene verwirren, die eigentlich kaum jemand intelligent nennen würde. Spannender finde ich da den Bereich des reinforcement learnings - wobei man hier auch noch in den Kinderschuhen steckt und ich kein Produkt kenne (bis auf ein paar Bots für Spiele), die dieses Lernverfahren nutzen.

  • Hat Jemand Lust über künstliche Intelligenz zu diskutieren?

    Gibt es die denn wirklich schon? Welche aktuellen Anwendungen würdest du denn als intelligent bezeichnen? CNNs zur semantischen Instanzsegmentierung von Bildern oder RNNs für NLP halte ich derzeit noch nicht für intelligent. Durch adversarial attacks lassen die sich noch auf einer Ebene verwirren, die eigentlich kaum jemand intelligent nennen würde. Spannender finde ich da den Bereich des reinforcement learnings - wobei man hier auch noch in den Kinderschuhen steckt und ich kein Produkt kenne (bis auf ein paar Bots für Spiele), die dieses Lernverfahren nutzen.

    Hallo, ja gibt KI Ansätze überall. Einerseits wissenschaftliche Experimente, bei denen ich den jeweiligen Stand nicht im Einzelnen kenne. Jedoch durchaus so, wie Du es auch beschreibst. Nämlich im eigentlichen Sinne einer KI, bei der nicht Menschen einen "intelligenten" Algorithmus schreiben. Sondern die KI sich selbst entwickelt. So dass Menschen die Entscheidungen der Maschine nicht mehr nachvollziehen können. Beispielsweise bei dem Go Programm. Oder so etwas wie "Sinnesorgane" selbst entwickeln. Es gab mal ein KI Experiment wo die KI ausschließlich youtube Videos geguckt hat. Diese KI hat ohne fremden Einfluss zwei "Sinnesorgane" entwickelt. Eines zur Beobachtung menschlicher Gesichter, das andere zur Identifizierung von Katzen... Bei einem anderen Experiment sollte die KI eine bestimmte Aufgabe lösen und hat dann völlig unerwartet "geschummelt", indem sie die Reaktionen der Menschen beobachtet hat. Auch gibt es Berichte darüber, dass KI ihrer eigenen Existenz bewusst ist inkl. der Möglichkeit der Abschaltung. Infolgedessen produziert und versteckt diese KI Backups von sich selbst.


    Insgesamt würde ich schon sagen, daß es bereits so etwas wie KI gibt. In diversen kleineren segnentierten Experimenten. Aber auch im Einsatz in der "freien Welt". Beispielsweise beim autonomen Fahren. Und vor allem im Internet. Meiner Meinung nach sind Amazon und Google (ggf. noch einige andere) KI. Noch nie bemerkt, dass die Vervolkverständigung als auch die Werbeabzeigen kontextsensitiv zu Sachen sind, die man vorher gemacht hat. Und das oft alles andere als trivial verknüpft.


    Problemaufriss: Hmmm, nahezu alle Fassungen von "do you trust this computer" sind bei Facebook verschwunden, hier scheint noch eine da zu sein.

    Externer Inhalt youtu.be
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Eine (noch) kritischere Position hier:

    Externer Inhalt youtu.be
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

  • Für mich ergeb sich drei Themen, die eigentlich einer intensiven politischen bzw. sogar gesellschaftlichen Diskussion bedürfen.


    A) Erforschung und Verwendung einer mit - potentiell erheblichen - Risiken verbundenen Technologie. Das Militär erforscht sowieso was es will. Im Zweifel ohne dass die Öffentlichkeit davon erfährt. Roboter oder Waffen, bei denen die KI Tötungsentscheidungen trifft, werden sich nicht verhindern lassen, wenn sie das (bzw. auch nur ein einziges) Militär nützlich findet. Auch abseits des Militärs hat sich die Menschheit noch nie von einer Technologie bewusst ferngehalten (nach dem kölschen Motto: et hätt noch emmer joot jejange), auch wenn man technische Risiken nicht abschließend einschätzen konnte, z.B. Atomspaltung, Gentechnik, Teilchenbeschleuniger. Und selbst dann wenn man staatlicherseits reglementieren würde, ist wahrscheinlich das (seitens einzelner Personen und Unternehmen) alles gemacht wird, was technisch möglich ist. Aus Neugier und ebenso aus Gewinnstreben. Was bei KI neu ist: Hier muss gar nichts technisch (unerwartet) schief laufen. Schon das Angestrebte schafft nämlich eine quasi Lebensform, die den Menschen überlegen ist und wird dadurch dramatische Auswirkungen auf diese haben.


    B) Auswirkungen auf die Menschheit als Solches. Gemäß dem (m.E. eher nicht tauglichen) Vorschlag von Elon Musk soll der Mensch mit der KI und ggf. weiteren kybernetischer Komponenten verschmelzen. Quasi zu einer neuer Art von Mensch. Diese Vorstellung lässt mich gruseln. Noch noch mehr als schon diese Vorstellung als solches der Gedanke daran, wie oder für wen das realisiert und eben nicht realisiert wird. Einige (wenige) werden sich die (bestmögliche) Technologie leisten können, die allermeisten nicht. Das zementiert die schon verhandeln Spaltung der Gesellschaft bzw. vertieft sie noch dramatisch. Denn die Wenigen und ihre Nachkommen sind dann nicht nur reicher und mächtiger, sondern auch (objektiv) intelligenter, stärker, schöner, etc. Das könnte man nur verhindern, indem man politisch und/oder gesellschaftlich festlegen würde, dass Niemand oder Alle gleichen Zugang erhalten. Was mit Blick auf das Hier und Heute extrem unwahrscheinlich erscheint.


    C) Auswirkungen auf Arbeitsmarkt und Gesellschaft. Selbst wenn man A) und B) irgendwie in den Griff bekommen sollte bzw. bei der Betrachtung außen vor lässt und KI so wie erhofft (als ein Werkzeug zur Erweiterung der menschlichen Intelligenz) funktioniert, sind die Auswirkungen auf den Arbeitsmarkt extrem. Beispiel autonomes Fahren. Aber auch Dateneingabe (im weitesten Sinne). Oder alle Arten von Analyse. Auch Servicebereiche, im Kundenkontakt. Und noch ganz viele andere Bereiche, wenn man genau hinschaut. Kurz gesagt wird überall Arbeitskraft durch "Kapital" ersetzt. Und das in einem zuvor noch nie auch nur annähernd in diesem Umfang vorhandenen Maße. Nicht nur wird dadurch die vorhandene Ungleichverteilung zementiert und sogar noch vertieft, ein Großteil der Bevölkerung wird - ökonomisch - überflüssig. Klingt für mich - in Verbindung mit der Klimahysterie - nach dem Rezept für ein Desaster.

  • Ich wollte nicht in Frage stellen, ob es überhaupt schon machine learning Verfahren gibt, die man häufig in die Kategorie "künstliche Intelligenz" einordnet. Die kenne ich aus dem Alltag sehr gut und kann auch ganz gut einschätzen, was die Dinger können und was nicht. Und genau darauf zielte meine Frage ab: Sind die wirklich schon intelligent? Das wird sicherlich auch eine philosophische Frage sein, da man für die Antwort eine Definition von "Intelligenz" benötigt.


    Du schreibst:

    Zitat

    Nämlich im eigentlichen Sinne einer KI, bei der nicht Menschen einen "intelligenten" Algorithmus schreiben. Sondern die KI sich selbst entwickelt. So dass Menschen die Entscheidungen der Maschine nicht mehr nachvollziehen können.

    Das ist eine Fehlinterpretation, die ich hier gerne einmal korrigieren möchte: Der Mensch schreibt immer noch den Algorithmus, nicht die Maschine. Es wird vom Menschen klar vorgegeben, wie bspw. die Netzstruktur für eine Gesichtserkennung aussieht (2D Convolutions, Max Pooling, einzelne network heads für die Bounding Boxen und die Klassifikation, Cross-Entropy als loss-Funktion, Adam als Optimizier und ab gehts). Das macht nicht die Maschine(*), sondern der Mensch. Entsprechend ist auch einiges darüber bekannt, warum die Dinger so gut funktionieren und vor allem auch an welchen Stellen sie nicht gut funktionieren. Diese künstlichen Netze sind keinesfalls Black Boxes in die niemand reingucken kann und keiner weiß, warum die überhaupt funktionieren. Auch gibt es Möglichkeiten, die Entscheidungen eines Netzes in einem gewissen Rahmen nachzuvollziehen (https://www.sciencedirect.com/…cle/pii/S1051200417302385).


    Das eben geschriebene gilt im Prinzip für alle Algorithmen aus der Kiste "supervised learning". Ein bisschen anders ist die Geschichte beim Reinforcement learning, da man hier nicht tonnenweise Daten in den Algo kippt und ihm sagt: "Bitte lern jetzt das richtige daraus und ich sage dir jedes Mal, ob du richtig oder falsch lagst". Beim reinforcement learning wird tatsächlich die Strategie zum Lösen des Problems offener gelassen. So entstehen dann ganz interessante Spielchen: Go oder auch Hide and Seek

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
    .

    Aber ist das nun wirklich Intelligenz oder sind das Algos, die für ein spezielles Problem toll funktionieren, aber bei kleinsten Veränderungen aufwendig neu trainiert werden müssen? Da kann man sicherlich drüber diskutieren und Hinweise/Argumente gibt es in/für beide Richtungen https://towardsdatascience.com…applications-2de4c975bbbc und https://deepmind.com/research/…ep-reinforcement-learning


    Zitat

    Auch gibt es Berichte darüber, dass KI ihrer eigenen Existenz bewusst ist inkl. der Möglichkeit der Abschaltung. Infolgedessen produziert und versteckt diese KI Backups von sich selbst.

    Hier hätte ich gerne mal eine Quelle zu (kein Youtube Video).




    (*) Na gut, google überlässt es teilweise auch neuronalen Netze die Hyperparameter der eigentlichen Netze zu suchen: https://arxiv.org/pdf/1707.07012.pdf Aber der Grundsatz bleibt: Der Mensch bestimmt, welche Blöcke verwendet werden. Ob die nun ein Mensch zusammen steckt, oder ob man das zusammenstecken automatisiert ist für mich kein großer Unterschied.

  • Danke für die Antwort. Wirklich Danke. Aber das ist leider so in etwa das, was ich hier meistens bekomme. Kein Einstieg in die Diskussion, sondern das Herauspicken eines technischen Details verbunden mit der Aufforderung dieses erst einmal zu belegen. Und zwar nach wissenschaftlichen Standards (und ohne youtube).


    Deine Position ist also, dass es per heute keine KI gibt und auf absehbare Sicht auch nicht geben wird? Denn ansonsten macht Dein Post als Antwort auf meinen keinen Sinn. Es überrascht mich wirklich, dass ich das belegen soll. Es gibt diverse Experimente bei denen a) die Entscheidungen der KI nicht mehr nachvollzogen werden konnten und b) die KI unerwartete Dinge getan hat. Wie die Chatbots, die rassistisch wurden oder sich in Geheimsprache unterhielten. Oder das Katzenbeobachtungsneuron. Das hat doch niemand programmiert. Oder die ATARI Spiele. Da wurde nicht einmal programmiert, dass die KI spielen soll. Teilweise wird nur das Ziel vorgegeben wie “lerne laufen“. Ich sehe es insofern an dir zu belegen, dass es keine KI gibt und auch nicht geben wird.


    Was wir per heute (wahrscheinlich) noch nicht haben, ist die eine Super KI, welche die gesamte Menschheit in die Tasche steckt. Google, Facebook und Co. arbeiten aber daran (“global brains“) und sind vermutlich auch nicht weit davon entfernt. Jedenfalls nah genug, dass zahlreiche Experten aus dem Feld vor einer Militarisierung (Automatisierung der kill decision) gewarnt, die Einführung von moralischen Standards sowie die Demokratisierung der Technologie gefordert haben.

    Einmal editiert, zuletzt von Giftzwerg ()

  • Vielleicht habe ich mich in meinen Punkten sehr unklar ausgedrückt, dafür bitte ich um Entschuldigung.

    Ich finde es für diese Diskussion aber immens wichtig zu sagen, was man unter KI versteht. Wenn es für dich "Intelligenz" ist, wenn ein Programm besser Go spielen kann als ein Mensch, dann haben wir KI. Für mich braucht es für Intelligenz aber mehr.

    Konkret wollte ich eigentlich nur eine Quelle von dir, nämlich die dafür, dass sich die KI ihrer Existenz bewusst ist und Backups anlegt. Das habe ich vorher nämlich noch nicht gehört und wüsste einfach gerne, wo das jetzt plötzlich herkommt (insb. wie der Algo aufgebaut ist, auf dem die KI beruht).

    Der rassistische Chatbot, den du ansprichst ist wahrscheinlich Tay, oder? https://en.wikipedia.org/wiki/Tay_(bot)

    Für mich ist es kein Zeichen von Intelligenz, wenn ein schlecht programmierter Bot innerhalb kurzer Zeit von Usern gehackt wird, in dem durch gezielt formulierte Fragen der "Charakter" komplett umgebogen wird. Das ist eher das Gegenteil davon.


    Dass es keine KI geben wird, habe ich übrigens nirgendwo geschrieben und behaupte es auch nicht.

  • Das Problem könnte hier sein, dass KI von Marketingabteilungen entdeckt wurde :) Daher ist das irgendwie verbrannt, weil es anscheinend mitlerweile alles und nichts bedeutet ...


    Vielleicht hilft eine dreiteilige Einordnung für eine Diskussion?


    ANI - Artificial Narrow Intelligence :

    Siri, Alexa, die Go spielende "KI".


    AGI - Artificial General Intelligence :

    Eine Maschine, die eine intellektuelle Aufgabe lernt und ausführen kann. Hier wird aktuell viel geforscht. Echte selbstfahrende Autos (nicht der Tesla Autopilot etc.) wäre ein Beispiel. Es gab wohl schon ein paar Nachweise laut Wikipedia, aber der breite Einsatz dürfte (wenn man mich fragt) noch Jahrzehnte dauern. Ein besonders schönes Beispiel fand ich bei Wikipedia:

    Zitat

    The Coffee Test (Wozniak)
    A machine is required to enter an average American home and figure out how to make coffee: find the coffee machine, find the coffee, add water, find a mug, and brew the coffee by pushing the proper buttons.

    Das dürfte den aktuellen Stand der Forschung immer noch ganz gut und plakativ repräsentieren?! So wirklich eine Maschine hierfür gibt es noch nicht und wäre das auch wirklich beeindruckend? Oder habt Ihr hier schon was anderes gelesen?


    ASI - Aritificaal Superintelligence :

    Die Maschine die besser funktioniert als wir. Das dürfte alles noch Sci-Fi und ganz ganz weit weg sein. Ich persönlich glaube nicht, dass das wir oder unsere Enkel noch erleben.


    Giftzwerg:

    Ich habe mich gefragt wie man überhaupt Bewußtsein einer Maschine nachweisen möchte und bin beim googeln auf den Turing test gestoßen. Da sieht man dann aber auch wieder die unterschiedliche Auffassungen (vom Nachweis) von Bewußtsein. Eine Maschine die den Turing Test besteht würde von sich selbst keine Backups machen wie H96Ole das verstehen würde :( Da kommt man dann auch schnell an philosophische Fragen ... wie will man Bewußtsein bei einer Maschine nachweisen, wenn wir dafür (aktuell?) keine empirischen Verfahren zur Bewußtseinsmessung haben?


    Wenn Du da mehr hast gerne her damit, das finde ich spannend.

  • Die Frage, ob eine "wirkliche" K.I. - also im Sinn, wie wir uns für intelligent halten, inklusive der Annahme, dass wir über Bewußtsein verfügen - möglich ist, ist für mich klar zu verneinen. Die Begründung wäre auf verschiedenem Weg möglich, aber in keinem Fall irgendwie einfach vermittelbar, weil man zunächst Bewußtsein und Intelligenz bei uns diskutieren müsste, was, ernst genommen, ein sehr schwieriges Thema ist.


    Es bliebe also eine K.I., die in etwa das reproduzieren kann, was wir als "Intelligenz" definieren, in etwa über das verfügt, was wir unter "Bewußtsein" (von einer Welt, in einer Welt zu sein) verstehen und welche autonom nicht nur Probleme lösen, sondern auch Entscheidungen treffen kann.


    In Bezug auf letzterem, was meiner Ansicht nach einzig als K.I. gemeint sein kann, liegt aber immer noch extrem viel gefährliches Potenzial. Aber ich mache an dieser Stelle mal einen Strich, weil ich gerade Feierabend und jetzt noch Freizeitverpflichtungen habe.


    Aber eine Anregung zu dem, was wir Maschinen bislang noch nicht im Ansatz beibringen konnten: Die Unterscheidung von phämenologischen und von "Access"-Bewußtsein. (Also in etwa: Bewußtsein, auf welches wir kognitiven Zugriff haben.) Ein Vortrag zum Thema von einem Philosophen, der sich mit Bewußtsein beschäftigt, den ich nur empfehlen kann. Natürlich - leider - englisch:

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

  • Dann bin ich nicht sehr anspruchsvoll. Für mich ist das schon KI.

    Externer Inhalt youtu.be
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Allgemein gesprochen wenn ich keine Lösung vorgebe, sondern nur ein Ziel.

  • Für mich, wie gesagt, auch.


    Aber die Unterscheidung zwischen (grob sowas) wie "strong" und "weak" K.I. ist schon sinnvoll. Genau deswegen, weil die beiden Konzepte oft nicht getrennt werden, bzw. die Diskussion um K.I. durch positive und negative K.I. durch teilweise überzogene Erwartungen und Ängste überfrachtet sind.


    An sowas wie die Kurzweil'sche Singularität, so faszinierend der Gedanke auch sein mag, glaube ich definitiv nicht.

  • Eine leichte Form der ki haben wir für's Unternehmen auch entwickelt. Das macht auch aus Sicht des Entwicklungsteam wirklich Spaß sich damit zu beschäftigen. In unserem Fall wird eine Absatzprognose errechnet. Wenn das Programm den tatsächlichen Abverkauf der einzelnen Artikel trifft, wird sie belohnt. Das Ziel ist also definiert, der Weg nicht. Wobei sich das natürlich in einem geschlossenen Rahmen befindet, also begrenzte Daten und nicht das volle Netz...

  • Danke für Eure Einschätzungen.


    Ich würde durchaus erwarten, dass der Übergang zur "strong" KI schlagartig erfolgt und damit auch überraschend. Und ich sehe wirklich nicht warum es eine solche nie geben sollte.


    Die Fortschritte in die Richtung sind doch gewaltig. Gerade in den letzten Jahren. Es ist ja nicht nur so, dass AlphaGo gegen die besten Gospieled gewonnen hat. Sondern Google hat mit Alpha Zero nachgelegt, dass neben Go noch weitere Brettspiele (u.a. Schach) spielt, nur die Regeln programmiert hat und trotzdem schon nach vier Stunden Spiel ausschließlich gegen sich selbst alles andere schlägt. Und das mit einer viel geringeren Rechenleistung.

    Externer Inhalt youtu.be
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

  • Die Leistungsfähigkeit bei begrenzten Aufgaben, zumal, dass Computertechnik da überlegen ist, ist aber kein Kriterium. (Für "strong A.I.".)


    Das gilt auch für neuronale Netzwerke, würde ich sagen, auch dann, wenn wir - wie für diese betont wird - nicht mehr nachvollziehen können, wie genau sie auf ihre Entscheidungen gekommen sind. Vielmehr ist dieses Problem ein Problem schon von schwacher K.I.


    Die Go-Spiele damals habe ich eng verfolgt, ich meine, auch ein oder zweimal im Forum erwähnt. Das war faszinierend und unheimlich gleichermaßen. Und, ja: Der Computer hat vereinzelt Züge gespielt, die tatsächlich von echter Schönheit waren. (Aber auch ganz viel stupides Defensivspiel.)


    Aber er kann diese Schönheit nicht empfinden. Sie ist auch kein Kriterium für ihn. Sie entsteht aus einem kalkülhaften Verständnis des Spiels jenseits unseres Levels, und sie ensteht nur durch unsere Wertschätzung für das Spiel. Sie ist im Auge des Betrachters, in unserem Auge.

  • [...]

    Ich würde durchaus erwarten, dass der Übergang zur "strong" KI schlagartig erfolgt und damit auch überraschend. Und ich sehe wirklich nicht warum es eine solche nie geben sollte.

    [...]


    Magst Du konkretisieren was Du mit dem überraschendem Übergang zur strong KI meinst? Die Vorstellung, dass der Entwicklungssprung für uns "Normalos" überraschend kommt oder der, dass der auch für die Forscher überraschend kommt. Dass jemand also noch ein paar Zeilen programmiert und damit bekommt das Programm eine Art Bewußtsein mit Selbsterhaltungstrieb, eigener Evolution oder Ähnlichem?