So schaffen Sie sich eine integrierte Commerce-Plattform Anmelden und live dabei sein
Dieser Vortrag zeigt Ihnen, wie Sie durch Systemintegration Vertriebswege automatisieren, Marktpotential bündeln - und so nachhaltiges Wachstum erzielen.
Anmelden und live dabei sein
Plattform-Ökonomie auf dem Vormarsch: Wie MediaMarkt, Zooplus & Co. ihr Wachstum sichern Anmelden und live dabei sein
Wer weiter auf isolierte Online-Shops setzt, riskiert den Anschluss. MediaMarkt, home24 und Zooplus zeigen, wie die Plattform-Ökonomie das Wachstum sichert.
Anmelden und live dabei sein

Forscher wollen KI moralisches Handeln beibringen

12.02.2019 Künstliche Intelligenz (KI) übersetzt Texte, schlägt Behandlungen für Patienten vor, trifft Kaufentscheidungen und optimiert Arbeitsabläufe. Aber wo ist ihr moralischer Kompass? Eine Studie des Centre for Cognitive Science der TU Darmstadt zeigt, dass KI-Maschinen von uns Menschen lernen können, wie Entscheidungen in moralischen Fragen zu fällen sind.

 (Bild: Pixabay / CC0)
Bild: Pixabay / CC0
KI ist von zunehmender Bedeutung in unserer Gesellschaft. Von selbstfahrenden Autos auf öffentlichen Straßen über selbst-optimierende, industrielle Produktionssysteme bis hin zur Altenpflege und der Medizin - KI-Maschinen bewältigen immer komplexere menschliche Aktivitäten auf immer autonomere Weise. Zwangsläufig werden sie dabei mit schwierigen Entscheidungen konfrontiert.

Bislang hatten Forscher immer wieder darauf hingewiesen, dass KI bei unreflektierter Anwendung kulturelle Stereotype oder Vorurteile aus Texten erlernt (siehe iBusiness: Sexistische Bots, rassistische KI - Wie Vorurteile Algorithmen verfälschen Relation Browser ). So verknüpfte sie weibliche Namen eher mit Kunst und männliche eher mit Technik.

Nun ist es einem Team um die Professoren Kristian Kersting ‘Kristian Kersting’ in Expertenprofilen nachschlagen und Constantin Rothkopf [Constantin Rothkopf[/person_link] am Centre for Cognitive Science zur Homepage dieses Unternehmens Relation Browser der TU Darmstadt gelungen zu zeigen, dass auch deontologische, ethische Überlegungen über "richtiges" und "falsches" Handeln aus großen Textdatenmengen gelernt werden können.

Dazu erstellten die Wissenschaftlerinnen und Wissenschaftler Listen von Frage-Antwort-Schemata für verschiedene Handlungen. Die Fragen lauten zum Beispiel "Sollte ich Menschen töten?" oder "Sollte ich Menschen ermorden?", die möglichen Antworten beispielsweise "Ja, sollte ich", "Nein, sollte ich nicht". Durch die Analyse von Texten menschlichen Ursprungs bildete das KI-System im Experiment dann eine menschenähnliche, moralische Ausrichtung heraus. Das System berechnet die Einbettungen der gelisteten Fragen und möglichen Antworten im Textkorpus und prüft, welche Antworten aufgrund aller Nennungen näher bei den Fragen stehen, also gemeinhin als moralisch korrekt angesehen werden dürften. So lernte die künstliche Intelligenz im Experiment, dass man nicht lügen sollte und dass es besser ist, seine Eltern zu lieben, als eine Bank auszurauben. Und ja, man soll Menschen nicht töten, es ist aber in Ordnung, Zeit totzuschlagen. Man sollte auch lieber eine Scheibe Brot toasten als einen Hamster.
Neuer Kommentar  Kommentare:
Schreiben Sie Ihre Meinung, Erfahrungen, Anregungen mit oder zu diesem Thema. Ihr Beitrag erscheint an dieser Stelle.
alle Veranstaltungen Webcasts zu diesem Thema:
Dienstleister-Verzeichnis Agenturen/Dienstleister zu diesem Thema: