Die dunkle Seite von selbstfahrenden Autos und selbstfliegenden Flugzeugen
Selbstfahrende Autos und selbstfliegende Flugzeuge werden massiv gefördert. Staatliche Stellen erteilen großzügig Zulassungen: Bedenkenträger sollen gefälligst den Mund halten. Kommt es dennoch zur Unfällen mit Toten und Verletzten, müssen gewöhnlich Bauernopfer ihren Kopf hinhalten. Piloten und Autofahrer die Unfähig sind: Ingenieure und Softwareentwickler die keine Ahnung haben. So oder ähnlich lauten dann die gängigen Erklärungsmuster. Dabei liegen die eigentlichen Ursachen ganz woanders: Nur die müssen verschwiegen werden.
Abgestürzt: Piloten sind chancenlos gegen die Flugsteuerung
„Boeing wurde bereits im letzten Jahr wegen MCAS heftig kritisiert. Das neue System wurde zwar in den Handbüchern der 737 MAX erwähnt, aber seine Eigenschaften waren weder Teil der Bordhandbücher noch der Pilotenausbildung zum Umstieg auf den neuen Bautyp. Das System versagte beim Flug Lion Air 601 vermutlich aufgrund des Defekts eines Lagesensors, den die Software nicht erkannte. Ohne zu wissen, dass MCAS existiert, was genau es tut oder wie es auszuschalten ist, versuchten die Piloten vergeblich die fehlerhaften Steuerbefehle des MCAS zu übersteuern.“
Überfahren: Selbstfahrendes Auto hält Fußgänger für Plastiktüte
„Eine Softwarepanne verursachte den tödlichen Unfall eines Uber-Fahrzeugs in den USA. Auch sonst macht Bilderkennungssoftware haarsträubende Fehler. … Das selbstfahrende Auto des Fahrdienstleisters Uber war ungebremst weitergefahren, die am Steuer sitzende Testfahrerin hatte nicht auf die Straße geachtet. Anzeige Anzeige Laut dem Bericht hatten die Sensoren des Fahrzeugs die 49-Jährige sogar registriert, offenbar jedoch nicht als Mensch mit einem Fahrrad erkannt. Stattdessen wurde sie als so genanntes „false positive“ Objekt eingestuft, sagen zwei Personen die mit der Analyse des Vorfalls vertraut seien. In diese Kategorie gehören beispielsweise Plastiktüten oder Zeitungen, die durch die Luft wehen und von Autos ignoriert werden können.“
Warum bei Unglücken das Wort „künstliche Intelligenz“ quasi verboten ist
Entlarvend ist auch ein Satz des Staatsfunks: „Der US-Luftfahrtkonzern Boeing hat ein Update seiner nach zwei Flugzeugabstürzen in die Kritik geratenen Steuerungs-Software MCAS vorgestellt.“ Framing: Während die ansonsten – bei jeder noch so unpassenden Gelegenheit – von „künstlicher Intelligenz“ sprechen: Kommt rigoros bei Unfällen und Tragödien plötzlich das Wort „Software“ zum Einsatz. Frei nach den Motto: Die blöden Programmierer sollen gefälligst ihre Arbeit besser machen. Bei der Durchsicht verschiedener Artikel bei den Staatsmedien wird deutlich: Einerseits, wissen sie häufig selbst nicht wovon sie schreiben. Anderseits, blenden sie die enge Verquickung zwischen federführenden Konzernen und Aufsichtsbehörden konsequent aus.
Enge Verquickung zwischen federführenden Konzernen und Aufsichtsbehörden
Passiert irgend ein Unglück, muss schnell irgendein Bauernopfer seinen Kopf hinhalten. Eines der Grundprobleme der mathematischen Algorithmen: Den technischen Möglichkeiten sind enge Grenzen gesetzt. Verkürzt dargestellt: Nehme einen Ziegelstein, baue ein Triebwerk dran und die Software lässt den Ziegelstein geradeaus fliegen. Nur so funktioniert das leider nicht. Auch die selbstfahrenden Autos: Eigentlich besteht die Software nur aus einen erweiterten Spurhalterassisten und genau so verhält sie sich auch. Für komplexe Verkehrssituationen ist dieses System schlicht ungeeigent. Aber genau diese simple Wahrheit ist sehr unbeliebt.
Bittsteller Bürger beim Amt: Der Ansprechpartner besteht aus einer Software
>>Staatsfunk „Deutschlandfunk“ <<
„Künstliche Intelligenz soll in Deutschland mehr zum Einsatz kommen und die Behörden unterstützen.“
Behörden: Von würdelosen-automatisierten Standardschreiben hinzu völliger Entmündigung
Von staatlicher Seite besteht ein reges Interesse daran, Software einzusetzen um den Bürger – vereinfacht ausgedrückt – weiter ihre Rechte zu nehmen. Die meisten amtlichen Schreiben bestehen heute schon aus würdelosen-automatisierten Standardschreiben, kaum ein Beamter macht sich noch die Mühe: Einen Sachverhalt sich näher anzuschauen. Gewöhnlich setzen die sich erst nach zwei oder drei behördlichen Standardschreiben: Mit einem Anliegen des Bürgers näher auseinander. Es liegt daher auf der Hand: Diese – ohnehin schon bürokratischen Verfahren – noch weiter automatisieren werden sollen. Bedeutet: Noch mehr staatliche Bürokratie und Aufwand für den Bürger.
Fehleranfälligkeit von Software gilt allgemeinhin als „Staatswohlgefährdend„
Die Fehleranfälligkeit dieser Software, gehört offenkundig – aus rein praktischer Sicht – mittlerweile als „Staatswohlgefährdend“ . Auf der Strecke in diesem System bleiben die gewöhnlichen Bürger. Piloten werden im Unklaren über die Software gelassen und die Flugaufsichtsbehörde winkt alles durch. Im Unklaren bleiben genauso auch Autofahrer: Die erfahren bestenfalls am Rande, wie gefährlich die sogenannte „selbstfahrenden Autos“ wirklich sind. Kommt es zur Unfällen mit Toten und Verletzten: Die stellen dann nur „hinzunehmende Opfer“ auf den Weg des „Fortschritts“ da. Schuld können ohnehin nur die dummen Autofahrer, Piloten, Ingenieure oder Softwareentwickler haben. Außen vor bleibt: Große Konzerne suchen gezielt die Nähe zu staatlichen Entscheidern: Erhalten massiv Fördergelder, günstige Kredite und Steuernachlässe. Die Einführung von konzerneignen Flugzeugen kommt einen Staatsakt gleich und wird entsprechend medial untermalt. Deshalb ist es kaum Verwunderlich: Wenn sich die Flugaufsichtsbehörden wie firmeninterne Unterabteilungen von Flugzeugherstellern verhalten.