Risiken der AI

Elon Musk versus Mark Zuckerberg

Regulierung

01-08-2017
 

Platt gesprochen finden Diskussionen über ziemlich egal welchen Gegenstand auf drei Levels statt:

es werden oberflächliche Gemeinplätze ausgetauscht,
es finden tiefenscharfe Haarspaltereien statt oder
es toben Schlammschlachten im Graubereich zwischen Ahnen, Wissen und Spekulieren. Gelegentlich stellt sich die Frage: warum eigentlich überhaupt reden?

Ja, wo laufen sie denn?

Average: 2 (1 Bewertung)

0.

    Aufklärung dagegen ist ein Prozess, der versucht, die rationalen Strukturen der in Frage stehenden Sachverhalte offenzulegen und Bewertungsgrundlagen jenseits von vorurteilsbehaftetem Blindstellen, Ping-Pong, strategisch kurzsichtigem Klein-Klein und halbgar suppigem Nebelwurf zu entwickeln. 

    Aufklärung ist ein anstrengendes Geschäft!

     

    I.

    Wie jede andere Technologie auch birgt die AI Risiken. Wie bei jeder anderen Technologie auch wird über diese Frage seit langen Jahren diskutiert. Im jüngsten „Peak“ dieser Diskussion, die von Elon Musk und Marc Zuckerberg auf einem (zumindest öffentlich) eher mittleren Niveau ausgetragen wurde, kristallisieren die antagonistischen Positionen. 

    „I’m in Team Marc“, habe ich kürzlich gelesen. Was für ein Unsinn: Weder hat Mark Zuckerberg ein Team um sich geschart, um seine Positionen zu vertreten, noch hätte er es nötig, und die Frage ist, ob der Bekenner zu einem solchen Team einen Beitrag würde leisten können! Hybris. Aber gut, das ist jetzt auch nur  Polemik. Mir scheint einigermassen offensichtlich, dass die Herren je eigene Teilthemen der AI-Diskussion (nämlich deren Potentiale und deren Folgen) adressieren, die weitgehend distinkt sind, wenig miteinander zu tun haben und vor allem in den Schnittmengen die argumentativen Voraussetzungen des jeweiligen Gegenübers ignorieren. Das muss schief gehen: Alle Diskussionen, deren Prüfbarkeit in der Zukunft liegt, machen eine Reihe von wenn-dann-Kausalitäten zur Voraussetzung, und These und Antithese finden genau dann in parallelen Universen statt, wenn sie die jeweiligen „Wenns“ nicht zur Kenntnis nehmen.

     

    II.

    Grob zusammengefasst und auch verkürzt warnt „Team Elon“ (das, wie „Team Marc“ aus genau einer Person besteht) vor den Risiken einer sich verselbständigenden AI. Diese Risiken werden derzeit medial ausgebreitet, so, um nur ein Beispiel zu nennen, in der jüngsten TR („Was denkt sich die KI?“)(1)

    Zwei Argumente bestimmen diese Analyse: Die Technologien des „Deep Learning“ sind dazu übergegangen, von der herkömmlichen Methode der Regelvorgabe (ein System möge nach dem folgenden „Set of Rules“ agieren) zu einer Methode der Beispiel-Vorgabe zu wechseln (ein System möge aus einem grossen Katalog von Beispielen die Gesetzmässigkeiten „selbst“ ableiten und danach handeln). Natürlich sind die Algorithmen dieser Analyse selbst Regelvorgaben, ebenso wie die Auswahl der Beispiele; grundlegend anders ist jedoch die Tatsache, dass mit diesen Vor-Vorgaben das System zu einem eigenen, und zwar ggf. nicht mehr nachvollziehbaren UND gelegentlich sogar nicht mehr erkennbaren Regelgerüst gelangt. Beispielhaft dafür steht eine Tagesmeldung vom 29-VII-2017, wonach facebook eine AI abgeschaltet habe, nachdem diese eine eigene Sprache entwickelt hat(2). Aus diesem ersten Argument folgt notwendig das zweite, nämlich die Frage, nach

    • welchen und
    • wem zurechenbaren

    Verantwortlichkeiten AI-Systeme und Menschen interagieren. Im Falle des Autonomen Fahrens wurde bereits die Frage diskutiert, nach welcher Regel oder Moral ein System entscheiden könnte, wen es tötet, wenn es nicht vermeiden kann, den Einen oder den/die Anderen zu töten.

    Selbstverständlich hat Elon Musk alles Recht, davor zu warnen, dass auf dem Pfad dieser Entwicklungen gewaltige Risiken lauern. Denn natürlich werden AI-Systeme in hochkomplexen Umfeldern eingesetzt werden, in denen nicht nur problematische Einzelfälle auftauchen könnten, sondern auch regelrecht gesellschaftsgefährdende Risiken, sagen wir in der Medizin, in der Eneergieversorgung, bei der Verkehrssteuerung etc.. Nicht gesprochen von dem Risiko, und das ist sozusagen das „Zielrisiko“ in der Musk’schen Analyse, dass Autonome Systeme möglicherweise zu dem (nicht wirklich überraschenden) Schluss gelangen, dass der Mensch als solcher ein Risiko darstellt, das abgeschafft gehört. 

    Wenn wir dagegen die Argumentation vom „Team Marc“ anschauen, und allzu tiefschürfend ist diese bislang nicht, dann kapriziert sie sich auf ein ebenfalls altes Problem der technologischen Bewertung: Wie können wir Entwicklungen ablehnen, die nachweislich oder wenigstens maximal wahrscheinlich zur Verbesserung von Lebensbedingungen führen, wenn nicht sogar zu Möglichkeiten des (ultimativen?) Lebenserhaltes. Alle Technologie habe zwei Seiten, philosophiert Marc Zuckerberg, was aber nicht dazu führen dürfe, dass wir deswegen auf die UpSide einer Entwicklung verzichten. 

     

    III.

    Zuletzt (wenigstens meines Wissens) hat Yuval Noah Harari darauf hingewiesen, dass es genau diese dem „doktrinären“ (mein Attribut) Humanismus geschuldete Haltung ist, die das Risiko der Selbstauslöschung befördere. So ist es moralisch unmöglich, einem Forscher untersagen zu wollen, ein Mittel gegen (beispielhaft und stellvertretend) Malaria zu entwickeln, auch wenn der Erfolg dieser Entwicklung nachweisbar dazu führen würde (Konjunktiv!), dass die Welt an ihrem Überbevölkerungsproblem kollabiert. Beinahe noch schwerer ist eine Argumentation gegen ein Einzelschicksal, etwa wenn Methoden der Hirnforschung es ermöglichen, dass Locked-In-Patienten über ihre Hirnfunktionen Computer steuern – auch wenn dabei Technologien der Gedankenüberwachung entstehen würden. In dieser argumentativen „Humanismus-Falle“ verortet Harari auch die Entwicklung der AI, nur mit dem ungleich grösseren möglichen Ergebnis, nachdem die Existenz der Menschheit auf dem Spiel steht.

    Soeben verbreitet sich parallel (wieder einmal) die Nachricht von Ray Kurzweil, derzufolge die Singularität für das Jahr 2029 in Aussicht stehe, und Softbank CEO Masayoshi Son lässt sich mit einer Behauptung zitieren, derzufolge in 2045 „the nature of humanity itself“ sich ändern wird. Und dass, jetzt wieder Kurzweil, Google sich genau darauf vorbereite(3).

    Heben wir den Kopf einen Centimeter aus der täglichen Kakophonie heraus, so müssen wir rasch erkennen, dass selbst (oder gerade) die prominenten antagonistischen Positionen (Elon vs. Marc) lediglich ein Scheingefecht austragen, denn es existiert keine Kraft der Welt, keine Instanz, die in der Lage wäre, a) die Diskussion (die sich obendrein an ihrem Grenzverlauf in einem Double Bind verfängt) zu entscheiden und noch weniger b) eine etwaige Entscheidung zum Stop der respektiven Forschungen durchzusetzen. Selbst ein rückwärtsgewandter, zu allem entschlossener US-Präsident wäre, angesichts der globalen Verteilung von Googles Rechen- und Forschungskapazitäten (und sei es durch deren Relocation), dazu nicht in der Lage; und selbst wenn es ihm mit Hilfe der NSA gelingen wollte, genau die richtigen Koriphäen etwa an den Flughäfen abzufangen, wären die Kollegen aus Saarbrücken, Süd-Korea, Japan oder China nur dankbar dafür, dass ihnen namhafte Konkurrenz erspart bliebe.

     

    IV.

    Weil das so ist, müssen wir eine grundsätzlich andere Diskussion führen. Anstelle breitbeiniger und testosteronschwangerer Bekenntnisse für das eine oder andere Team, kann sich eine rest-rationale Diskussion nur um Regulative drehen, um Regulative der Ermöglichung, um Regulative einer anthropologischen Zwecksetzung. 

    Ja, ich ahne schon, dass an dieser Stelle die Freiheit – und besonders die „Freiheiten der Wissenschaften“ ins Feld geführt werden; auch das ist Unsinn. Es gibt kein „Recht“ auf die Entwicklung von Sarin oder Atombomben, es gibt keine Freiheit zu Terror oder Folter – und so gibt auch kein „Recht“ auf die Entwicklung Menschheits-gefährdender Softwares … etc., – und grundsätzlich erscheint mir eine Position, die die Zweckbindung von Technologien an die Freiheitsfrage andocken möchte, dünn gedacht. Jede Anwendung von Technologien findet unter gesellschaftlichen Bedingungen statt, und „riskante“ Technologien können und dürfen nur unter den Bedingungen gesellschaftlicher Regulierung zum Einsatz kommen. (Just eben lese ich eine Ergänzung, nach der sich auch Elon Musk in Bezug auf die AI für „vorausgreifende Regulative“ ausspricht). 

    Nicht diskutiert werden bislang allerdings Fragen, die sich mit einer Abgrenzung grundsätzlich wünschenswerter von unerwünschter Maschinenleistung auseinandersetzen. Das ist im neo-liberalen Grundgeist der westlichen Gesellschaften nicht sonderlich überraschend, denn natürlich bedeutet Abgrenzung auch an dieser Stelle: Regulierung.

    Allerdings habe ich meine politischen Naivitäten im Griff: So glaube schon mal ich nicht daran, dass sich technologische Entwicklungen aufhalten lassen. Wenn es also (meine Meinung) eine sinnvolle und Realitäts-bezogene diskursive Position gegenüber dieser (und eigentlich jeder anstehenden) Entwicklung geben kann, so doch nur die, dass es an dieser Grenze zur Singularität notwendig wird, die anthropologischen Existenzbedingungen wenigsten soweit zu sichern, dass ein „geordnerter evolutionärer Übergang“ ermöglicht wird; etwa in dem die moralischen und juristischen, kulturellen und auch administrativen Umfeldbedingungen auf maschinelle oder humanoide Hybride vorbereitet werden.    

     

    V.

    Zu den Risiken, die aus den Potentialen der AI „freigesetzt werden könn(t)en“, kommen solche, die aus den Wirkungen der AI „resultieren werden“. Es ist wahrscheinlich, dass, ganz im Sinne Marc Zuckerbergs, ausserordentliche, positive Impulse aus den Anwendungen unterschiedlicher Formen der AI zum Tragen kommen; wobei die Bewertung selbstredend eine Frage des Standpunktes bleiben wird. Mindestens ebenso wahrscheinlich ist es, dass es eine massive Downside geben wird. Ich habe an anderer Stelle wiederholt die Bedrohung der Erwerbsarbeit skizziert, mit der sehr grosse gesellschaftliche Verwerfungen einhergehen werden. Und auch hier ist die Diskussion von Dummheit, Falschheit, Vorsatz und Interesse regelrecht vergiftet. Beliebt ist das Argument, dass parallel zu den Verlusten in einem Bereich neue Chancen in anderen Bereichen entstehen würden. Diese Argumentation hat zwei dramatische Schwachstellen: einerseits substituiert die AI den Menschen in, das ist ja das Dumme, nahezu jedem Bereich. Andererseits basieren die bestehenden Gesellschaften auf den bestehenden Finanzströmen.

     

    VI.

    Die Diskussionen um die Automatisierung und die Folgen für den Arbeitsmarkt sind alt und ausgeleiert. Bibliotheken wurden mit dem Argument vollgeschrieben, dass es die Warnungen vor den job-killenden Technologien „immer schon“ gegeben habe, die jedoch, wie man weltweit sehen könne, alle falsch waren. Beinahe ebenso ritualisiert liesse sich diese Art von These, Antithese und Synthese auch für Aktienkurse durchspielen oder auch für Truthähne, die vor Thanksgiving „ein schönes Leben“ haben. Malcolm Gladwell ist mit dem Hinweis berühmt geworden, dass es das Phönomen eines „Tipping Point“, eines „point of no return“ gebe, jenseits dessen eine historisch stabile Entwicklung „plötzlich“ unumkehrbar in ihr Gegenteil kippe, und Nassim Nicholas Taleb hat uns für die Tatsache sensibilisiert, das es allerhöchst unwahrscheinliche Ereignisse gebe, deren Auswirkungen „historische“ Dimensionen annehmen – und diese alles andere als selten seien! 

    Ich fürchte, auch in der aktuellen Debatte um die AI bringt uns diese Diskussionsführung nicht weiter. Ich meine, eine sinnvolle Diskussion müsste sich darum bemühen, zunächst einmal These und Antithese soweit zu qualifizieren, dass wir den Vorhof abstrakter Mutmassungen durchqueren, um zu einer Aufstellung belastbarer Argumente zu gelangen, die möglicherweise die Zukunft nicht beweisen, aber doch klare Indikatoren für die Vektoren bereitstellen, die diese Zukunft bestimmen werden. 

     

    VII.

    Selbstverständlich entstehen NEUE Jobs, wenn sich die technologischen Umfeldbedingungen ändern: Bevor ein Schweissroboter in der Fertigungsstrasse auch nur einen einzigen Arbeitsplatz substituiert, muss dieser Roboter (und zwar all in seinen „1000 Einzelheiten“) erfunden sein, müssen für seine Produktion Fertigungsparameter und möglicherweise eigene fertigende Maschinen entwickelt werden. Darüber hinaus muss seine Herstellung zu wirtschaftlich lohnenden Konditionen detailliert werden. Er muss beworben und verkauft werden, etc.. 

    Schauen wir beispielhaft auf das Unternehmen Kuka, das es seit 1898 gibt; bekannt ist es heute für die Fertigung von ziemlich eleganten Robotern. Neben anderen Produktsparten positionierte sich das Unternehmen spätestens seit 1956 im Bereich der Automatisierung, zunächst in der Schweisstechnik. Im Bereich der Industrieroboter entwickelte Kuka 1973 den Prototypen „Famulus“, der fünf Jahre später in Serie ging. Im Jahr 2016 lieferte Kuka 40 bis 50 Tsd. Roboter an seine Kunden aus; von den für 2019 prognostizierten weltweit im Einsatz befindlichen 2,9 Mio Robotern werden vermutlich 400 bis 500 Tsd von Kuka gefertigt worden sein(4). Bis heute waren dafür viele (und sind 2017 13.188) Arbeitskräfte von Nöten gewesen, die sich mit all ihrer Energie für diese/s Produkt/e eingesetzt haben.

    Kuka schafft hochqualifizierte und sichere Arbeitsplätze; durchschnittlich(!) verbleiben Mitarbeiter über acht Jahre im Unternehmen. Ebenso selbstverständlich gehen jedoch durch Kuka-Roboter alte Berufsbilder oder "Job-Descriptions" verloren. Allein die für 2019 aufsummierten Kuka-Roboter substituieren im 24/7-Betrieb > 1.000.000 Arbeitsplätze (Effizienzzugewinne, Ausfallzeiten, Urlaube etc. nicht einbezogen). Damit entsteht eine Arbeitsplatzbestands-Relation von ungefähr 1:60 bis 1:70 oder anders ausgedrückt: jeder Arbeitsplatz, der Kuka-Roboter schafft, substituiert (historisch aufsummiert) circa 60 bis 70 Arbeitsplätze in der Produktion (in dieser Überschlagsrechnung gibt es grobe Ungenauigkeiten; dennoch meine ich, dass damit eine hinreichend aussagefähige, und sei es nur Richtung weisende Schätzung vorliegt).

    Nun steht Kuka ja lediglich für bestimmte Robotsysteme. Die substitutive softwaregesteuerte, automatische Fertigung umfasst ja plus/minus den gesamten Produktionsraum, plus/minus alle Produktionsprozesse. Beispielhaft nenne ich nur das Verteilzentrum von Amazon in Tracy(5), Califonia, in dem 15.000 Roboter das „picking“ übernommen haben. In der Chipfertigung, der Werkzeugmaschinen-Fertigung etc. sind Roboter am Werk, und natürlich sind auch ganze Fertigungsstrassen in diesem Sinne Roboter, auch wenn ihre physiomotorischen Fähigkeiten die Analogie zum Menschen nicht augenscheinlich machen. 

    Die für Amazon genannte Quelle(5) KSL.com führt uns in dankenswerter Art und Weise die Verlogenheit der Debatte vor Augen: Durch diese Roboter, heisst es im Artikel sinngemäss, würden keine Arbeitsplätze vernichtet, im Gegenteil! Amazon wachse kontinuierlich. Das ist in einem Ausmass von Zynismus gesättigt, dass ich mich frage, ob vielleicht das US-Publikum (aber diese Form der Sachverhaltsvernebelung findet ja weltweit statt) dumm genug ist, zu übersehen, dass natürlich Arbeitsplätze vernichtet werden: nämlich ausserhalb von Amazon, im Retail, massenhaft, und zwar weltweit.

    Wer heute das beliebte Märchen von den neuen Jobs erzählt, die durch neue Technologien geschaffen werden, ignoriert, und ich meine: mit Vorsatz, diese innewohnende, exponentiale Arbeitsplatzdynamik neuer Technologien. Denn, flapsig gesprochen: "dat is ja der Sinn vons Janze".

     

    VIII.

    Das gegenüber der zurückliegenden Automatisierungs- und Rationalisierungs-Debatte entscheidende Argument heute ist jedoch, dass die AI das Potential hat, genau all jene Lücken automatisiert zu schliessen, für die bislang menschliche Flexibilität gebraucht wurde, sei es auf Grund der „massiven Parallelverabreitung“ der menschlichen Wahrnehmung oder der Beurteilungskompetenz bei der Auswertung. Das Zusammenspiel von Robotern und Computern substituiert tendentiell JEDEN Arbeitsplatz. Längst wissen wir, dass diese Entwicklung vor den Dienstleistungen nicht Halt machen wird. Dabei entstehen temporär selbstverständlich neue Arbeitsplätze, nur in einem exponential geringeren Umfang als parallel herkömmliche Arbeitsplätze vernichtet werden.

    Mit exponentialen Entwicklungen tun wir uns immer schwer.

     

    IX.

    Immer wieder werden in diesen Diskussionen aber auch humanoide Jobs in „anderen“ Bereichen „geschaffen“; solche, die zum Beispiel kein Geschäftsmodell kennen, etwa bei der Beseitigung von Umweltschäden, im „Creativ“-Bereich, bei Pflege-, Wellness- oder in im weitesten Sinne medizinischen Berufen. Für eine gern auch längere Periode von 10 und vielleicht sogar 50 Jahren (?), in denen Maschinenleistungen im Finetuning noch hinter Menschenleistungen hinterherhinken, mag ein solcher Beschäftigungsshift als eine denkbare Alternative erscheinen. Abgesehen jedoch von der (in der Regel ungelösten) Frage nach dem Geschäftsmodell, ist in diesen und ähnlichen Szenarien nicht berücksichtigt, dass jegliche Tätigkeit bezahlt werden will. Derzeit stammen die Mittel dafür weit überwiegend aus den Erwerbseinkommen selbst oder aus den steuerlichen Umlagen auf diese Einkommen. 

    Ähnlich der Rentenbelastung in den überalternden Gesellschaften verlagern sich in der oben skizzierten Entwicklung jedoch die Umlagen auf zunehmend weniger übrig gebliebene, "produktive“ Jobs, und das in fragwürdigen bis hin zu absurden Dimensionen, die dann jenes Gesamteinkommen erzielen sollen, das nachfolgend (auf welcher rechtlichen Grundlage? und aufgrund welcher gesellschaftlichen Legitimation?) in den gesellschaftlichen Beschäftigungssektor kaskadiert. 

     

    X.

    In diesem Teilbereich der Diskussion wird jetzt in der Regel das bedingungslose Grundeinkommen BGE eingeführt. Verschiedene volkswirtschaftliche Analysen haben dargelegt, dass sich das BGE cum grano salis aus den bestehenden Umlagesystemen ableiten liesse, wobei es überdies zu einer grundlegenden Vereinfachung der gesamten sozialen Transferleistungen kommen würde. So weit ich sehe, werden diese Überlegungen in Abwesenheit von mindestens zwei Faktoren angestellt: 

    1. Die aktuellen Umlagesysteme basieren überwiegend auf der Erwerbsarbeit. Wo die entfällt, müssten die damit auch ausfallenden Umlagen im gleichen Ausmass anderwärts erhoben werden; angeboten werden in der Diskussion etwa Maschinensteuern. Diese Maschinenleistungen jedoch bedienen globale Märkte, eine globale Konsumption; das heisst, sie stehen im Wettbewerb zu anderen Maschinenleistungen, die – die grundsätzliche Ungleichzeitigkeit von Allem – anderwärts nicht besteuert werden. Angeboten werden darüber hinaus „Reichensteuern“; das EinMalEins dieser Steuerkategorie wird gemeinhin in den Kapiteln „Kapitalflucht und Steueroasen“ verhandelt. Der notwendige globale Konsens, den es braucht, um diese Thematik auch nur einzudämmen, ist nicht in Sicht.
    2. Das Durchschnittsnettoeinkommen der Haushalte in Deutschland beträgt derzeit 3.132 Euro. Bei einer durschnittlichen Haushaltsgrösse von 2,1 Personen entfallen damit auf jede Person ca. 1.450 Euro. Es genügen die Grundrechenarten, um zu erkennen, dass ein bedingungsloses Grundeinkommen von 1.000 Euro im Zielbild eine bis zu 30% grosse Lücke in die volkswirtschaftliche Gesamtbilanz reissen würde. Nicht berücksichtigt sind nach meinem Kenntnisstand die Fragen der Renten- und Krankenversicherung, die Entwicklung der Immobilien-, Energie- oder Wasserpreise, etc., die jeweils und erst recht in Summe geeignet sind, die ganze BGE-Debatte zu konterkarieren. Natürlich wird das Zielbild nie erreicht werden, und/aber es ist völlig unklar, über welchen Zeitraum sich das BGE durch „Neben- oder auch weniger werdende Haupttätigkeiten“ ergänzen liesse. Ebenso unklar ist überdies, für welchen Zeitraum welche Massnahmen die Mittel für des BGE überhaupt bereitstellen. 
    3. Einen dritten Faktor würde ich lieber leugnen, kann es aber nicht: die Diskussion, die an der Schnittstelle des BGE mit der Migration entstehen wird, ist schon für sich Sprengstoff. 

     

    XI.

    Wir tun häufig so, als liessen sich diese Diskussionen isoliert führen, reden wir erst über dies und dann über das. Aber natürlich stehen andere, ebenfalls krisenhafte Entwicklungen regelrecht im Wettbewerb: Klima, Ressourcen, Verschuldung und Finanzströme, Migration habe ich schon genannt … In einigen dieser Krisen werden technologische Entwicklungen zur Lösung beitragen können. Müssen.Team Marc hat da natürlich einen Punkt! Die Büchse der Pandora steht offen. Es wäre absurd und verantwortungslos, auf „überlebenswichtige“ Systemleistungen zu verzichten, zu denen Menschen zudem gar nicht mehr in der Lage sind. Ebenso verantwortungslos wäre es, Team Elon hat mindesten einen genauso guten Punkt, die Augen davor zu verschliessen, dass die Risiken neuer Technologien ungefähr in dem Ausmass steigen, wie sie zur Schadensbegrenzen beitragen. 

    Zu einer vorauslaufenden Regulierung sehe ich keine Alternative.

     

    1 - Technology Review, deutsche Ausgabe, August 2017, S. 31 ff

    -  https://www.independent.co.uk/life-style/gadgets-and-tech/news/facebook…

    -  https://metro-co-uk.cdn.ampproject.org/c/metro.co.uk/2017/07/27/the-end…

    -  Im Markt von weltweit 290.000 – Quelle: Kuka GeschäftsBericht 2017 – hält das Unternehmen einen Marktanteil von ca. 15 % – Quelle FAZ 23.02.2016 –, das entspricht einer Jahresproduktion von 43.500 Einheiten 2017; grob hochgerechnet auf die Prognose 2019 von 2.900.000 ausgelieferten Systemen – Quelle Kuka Geschäftsbericht 2017 – hätte Kuka "historisch" demnach mit in der Spitze 13.200 Mitarbeitern ca. 400 bis 500 Tsd Robotersysteme ausgeliefert (15% von 2.9 Mio; Ungenauigkeiten rühren u.a. aus den historisch sehr viel weniger Mitarbeitern, schwankenden Marktanteilen etc.)

    -  https://www.ksl.com/?sid=32565054

    20-10-2017

    Respekt und Dank, in Niveau und Tiefgang den üblichen KI-Abhandlungen um Längen voraus ...