Skat für Freunde

Skat-Forum

Unterhaltung: Selbst fahrende Autos

Habe heute im Spiegel - keine Ahnung welche Ausgabe, soll auch egal sein - einen hochinteressanten Artikel gelesen, welche Probleme auftreten können, wenn Autos selbständig fahren, während der Fahrer z. B. Zeitung lesen kann. Ist ja nur eine Frage der Zeit, bis das kommt. Erst mal ganz allgemein: Was haltet ihr von dieser Technik?

Könnte mal was werden,aber die E-Autos sollten ja auch schon lange präsent sein...

Nichts! Wobei es für manche besser wäre, wenn sie nicht selber lenken würden! 😉

Die Freude am Fahren geht verloren. Technik kann versagen. Wer hat dann Schuld?

Das kommt aber...

Ich glaube der Mensch versagt öfters als die Technik, Joe!

Ist ja auch heute in vielen Bereichen so!
Mensch ist eben Mensch,zum Glück!

Die Entwicklung der Technik von selbstfahrenden Autos ist der Beginn einer Mega-Perversion der Menschheit.

Schon dass sich heute die Hälfte der Berufe in Fitness-Center bewegen muss, um den Körper beweglich zu halten, währenddessen Computer langsam die Überhand der Menschen zu bekommen, sollte aufhorchen lassen.

Mag dies für Jüngere, die sich eine Welt ohne Handys nicht mehr vorstellen können (obwohl es Handys und Internet erst seit etwa 20 Jahren für die Allgemeinheit gibt) als etwas spießig erscheinen, sollten auch diese vorsichtig werden.

Wenn technische Entwicklungen nur noch wegen Geld-Erwirtschaftung immer schneller werden, ist dies der Beginn des Wahnsinns und der Perversion der Menschheit, Fazit beginnende Selbstvernichtung dieser Art!

Allein darüber habe ich vor ca. 10 Jahren schon 2 Bücher herausgebracht...

Sinds Bestseller geworden?

ja

Hast Grass abgehängt?

Ein interessanter Aspekt in diesem Artikel war, dass der Computer, bzw. das Programm ethische Entscheidungen über Menschenleben zu treffen hat. Beispiel: Ein Kind läuft über die Straße und das Programm muss und kann, bzw. kann und muss, in Sekundenbruchteilen abwägen, ob der Fahrer dadurch in den Tod geschickt wird, dass das Auto gegen einen Baum gelenkt wird, oder ob das Kind überfahren wird.

Die Überlegungen in dem Artikel dazu unterstreichen den Gedanken der Megaperversion von Mark Twain.

genau deshalb, John

Na dann mal die ISBN dazu.
Ich setze es auf meine amazon wishlist...

Extrem spannendes Thema, John2.

Ich glaube nicht, dass jemand ersthaft bestreitet, dass eine komplette Umstellung auf autonome Fahrzeuge die Welt im Sinne von Anzahl Verkehrstote/Verletzte sicherer machen würde.

Was ich aber für höchst problematisch halte, sind die moralischen Implikationen. Während ist ein KFZ steuere treffe ich dauernd moralische Entscheidungen.

Viele von diesen sind relativ harmlos. Zum Beispiel "Halte ich an und lasse die Frau mit dem Kinderwagen über die Strasse, obwohl ich den Vorrang habe? (auch dann, wenn es die 20. auf den letzten 2 km ist?; auch dann, wenn hinter mir alles frei ist? auch wenn 2,3,4,5... Wagen hinter mir sind und sie dann gehen könnte?; Was wenn es kein Kinderwagen ist, sondern ein Kleinkind an der Hand? Wie alt darf das Kind maximal sein? Oder ist es eine alte Frau? Wie alt mindestens?. Darf die Tatsache, dass ich es gerade fürchterlich eilig habe, eine Rolle spielen?"

Es gibt aber auch moralische Entscheidungen, wo es um Leben und Tod geht. Oft ist ein Unfall nicht mehr zu verhindern (es gibt auch noch Fußgänger und Radfahrer sowie Naturereignisse, die sich nicht beeinflussen lassen) aber der Ausgang für die einzelnen Unfallbeteiligten lässt sich noch beeinflussen. Für einen Menschen ist hier "Entscheidung" oft nur theoretisch. "Es geht alles so schnell" und man handelt "intuitiv". Bei einem autonomen System sieht das ganz anders - aufgrund seines schnelleren Informationsflusses hat es viel Zeit, seine Handlungen nach seinen Zielen auszurichten. Aber welche Ziele? Angenommen die Sitationseinschätzung ergibt korrekt, dass 2 der 3 Unfallbeteiligten sterben werden. Es ist aber noch beeinflussbar, WELCHE 2. Soll das System dann den Menschen Wertigkeiten geben? Ok, das machen Menschen auch. Aber kann man dies wirklich formalisieren?

Wie ein Kollege auf Youtube vor einigen Jahren sagte: "Ich hoffe nicht, dass die Leute in 20 Jahren ihr Auto danach auswählen, dass es bei Unfällen am seltensten von allen den eigenen Fahrer umbringt."

Ich selbst glaube grundsätzlich nicht, dass man Maschinen moralische Entscheidungen überlassen darf. Sie können Anweisungen super umsetzen. Wir sind aber nicht gut genug in der Lage zu definieren, was moralisches Verhalten in allen denkbaren Situationen überhaupt ist.

Gruss,
MM

ps: Ging es in dem Spiegel-Artikel um ähnliche Fragestellungen? Ich hab den nicht gefunden. Haste vielleicht soch noch irgendwo eine Quelle?

Huch, ich ahnte, dass es ums gleiche Thema ging :)

Hagenstein,
ich kaufs Dir, wenn Du es mich danach lesen lässt und keine Popel reinmachst.

http://cre.fm/cre208-neuronale-netze

Ich weiß nicht ob sich das aufhalten lässt,bzw, ob wir das wollen.

Ich korrigiere...natürlich wollen wir das,weil wir es können werden.

...und der letzte gesprochne satz der menschheit wird dann sein."technisch ist das gar nicht möglich!"...bumms.....und stille.

bin dafür, autofahren langweilt mich.
wenn ich stattdessen, in der zeit online
skatspielen kann, super.

moraliche probleme seh ich nicht,
wenn die zahl der unfälle sinkt.

wenn hacker in die electronic der fahrzeuge eingreifen koennen ist alle moral fuer die katz.

sprachlos,

das kann man sicher so sehen.

Ich finde es nur nicht richtig, den Informatikern die Implementation einer auf Logik basierenden Ethik zu überlassen - das versuchen die Philosophen dieser Welt schon tausende von Jahren vergeblich.

Mangels kodierbarer Alternativen wird daraus ein krudes utilitaristisches Modell werden, dass aufgrund seiner Unvollständigkeit immer unmenschlich bleibt.

Erklärt der Informatikern den Eltern des toten Kindes dann auch persönlich die objektiven Gründe dafür, warum in einer nicht alternativlosen Situation ihr Kind leider dazu ausgewählt wurde, nicht zu überleben und warum das richtig und "am nützlichsten" war? Bis auf die letzte Nachkommastelle?

Konstruierter Fall? Nee, davon wird es im Minimum Dutzende pro Jahr geben. Wenn die Details solcher Fälle in die Presse kommen (man wird sich hüten), sage ich einen Aufschrei der Öffentlichkeit voraus.

Übrigens traue ich Rechnern in grossem Masse und habe keine Angst vor ihnen. Wir sollten sie aber nicht mit Aufgaben betrauen, die wir selbst nicht vollständig verstehen.

Oder werden die Rechner am Ende eine Ethik entwickeln, von der dann _wir_ lernen können? ;)

MM

Ich sehe ausser den schon angesprochenen moeglichen Problemen, noch die Versicherungsfrage.
Wer muss dann den Wagen versichern?
Der Hersteller, der Besitzer, und wenn es der Besitzer ist, wie soll er dann Schuld an einem Unfall sein, welche die Versicherung bezahlen soll, er ist ja nicht, nie, gefahren.
Oder der Programmierer muss sich versichern, oder die Firma fuer welche er arbeitet.
Wenn ein Sensor falsch funktioniert, wer kommt fuer den Unfall Schaden auf?
Der Sensor Hersteller?
Wahrscheinlich muss der Besitzer die Versicherung abschliessen. Aber wenn er durch einen vom ihn unverschuldeten Unfall, hochgestuft wird, ist der dann zufrieden?
Ich waere es nicht.
Ich fahr lieber selber.

und die ganzen vorteile,
die sowas mit sich bringt.

blinde, kinder, menschen ohne führerschein,
alte menschen.

sie alle erhalten eigene mobilität,
ohne auf dritte angewiesen zu sein.