Die Geschichte des 1924 gegründeten Verbands für Arbeitsgestaltung, Betriebsorganisation und Unternehmensentwicklung (REFA) und seiner Methodenlehre (REFA 2015) geht auf die Anfänge der industriellen Revolution zurück, während Industrie 4.0 seit etwa 2011 zur High-tech-Strategie der Bundesregierung gehört. Wenn Vergangenheit auf Zukunft trifft, hat die Ver-gangenheit zumeist das Nachsehen. Und so scheint es, als würde die REFA-Methodenlehre schon bald Geschichte sein. Dies gilt umso mehr, als die Versionsnummer 4.0 suggerieren soll, dass inzwischen nicht einmal mehr die zweite oder dritte, sondern sogar schon die vierte in-dustrielle Revolution in vollem Gange ist (Abbildung 1). Wer eine Revolution ausruft, hat Umsturz im Sinn. Da soll kein Platz mehr sein für Bisheriges, da sieht die Zukunft ganz anders aus, und vor allem sieht sie besser aus1. Also muss man sich entscheiden, ob man zu den Guten gehören möchte, die mit großen Schritten in ein glorreiches Zeitalter marschieren, oder zu den Rückwärtsgewandten, die am Überholten festhalten und dem Fortschritt im Wege stehen. Beides ist nicht zu haben.
Allerdings sei die Frage erlaubt, ob es überhaupt zutrifft, dass aktuell eine Revolution stattfin-det. Wählt man die Produktivität als Maßstab, was sich im technisch-ökonomischen Kontext anbietet, so lässt sich dies trefflich bestreiten (Ahrens 2012, 30 f.). Ein deutlicher Produktivi-tätszuwachs, wie er im Zuge einer Revolution anzunehmen ist, wird zur Folge haben, dass eine sehr viel größere Zahl an Menschen versorgt werden kann. Und tatsächlich hat es in der Ge-schichte der Menschheit zweimal einen solchen signifikanten Anstieg der Bevölkerungszahl gegeben: vor etwa 12.000 Jahren im Zuge der neolithischen Revolution, als sich Jäger und Sammler zu Ackerbauern und Viehzüchtern weiterentwickelten, und seit der Mitte des 18. Jahr-hunderts mit dem Einsetzen der industriellen Revolution.
Abbildung 2 zeigt, dass der Zuwachs der Bevölke-rungszahl stetig verläuft. Eine Aufeinanderfolge von vier Revolutionen hätte da-gegen Unstetigkeiten be-wirken müssen. Dass solche nicht erkennbar sind, kann als Beleg dafür ver-standen werden, dass noch immer die zweite, die eine industrielle Revolution in vollem Gange ist. Doch nicht nur das spricht gegen das Ausrufen immer neuer Revolutionen. Hinzu kommt, dass sowohl die jungsteinzeitliche als auch die gegenwärtige Revolution sehr viel mehr mitbrachten als nur technische Entwicklungen. So erklärt z. B. Hahn (2011, 1), dass die industrielle Revolution ermöglicht wurde „von einer Fülle von qualitativen Veränderungen wirtschaftlicher, sozialer, kultureller und politi-scher Art, die untereinander wiederum in einem engen Wirkungszusammenhang standen“. Ins-gesamt sei sie „nicht nur als technische Umwälzung, sondern […] als grundlegende Verände-rung der gesamten gesellschaftlichen Verhältnisse“ zu verstehen. In technischer Hinsicht wur-den Privathaus und Manufaktur als vorindustrielle Produktionsstätten durch die Fabrik abge-löst, in ökonomischer Hinsicht ermöglichte sie „die volle Entfaltung des modernen kapitalistischen Wirtschafts- und Gesellschaftssystems, in dem der Markt zur zentralen regulierenden Instanz wurde“, und in politischer Hinsicht resultierte daraus schließlich die Demokratie.
Keine der in Abbildung 1 benannten Revolutionen hat dagegen etwas anderes als eine Weiter-entwicklung technischer Möglichkeiten mit sich gebracht. Und gerade die aktuellen und noch zu erwartenden Entwicklungen der Datenverarbeitungs- und Kommunikationstechnik scheinen den gesamtgesellschaftlichen Fortschritt sogar eher zu bedrohen als zu befördern. So weist z. B. die internationale Anonymous-Bewegung2 darauf hin, dass durch die weitgehende Rechtsfrei-heit des virtuellen Raums der moderne Rechtspositivismus bedroht sei, so dass ein Rückfall in das Naturrecht bevorstehe, wenn es nicht gelänge, Persönlichkeitsrechte wie Datenschutz und Datensicherheit wirkungsvoll durchzusetzen. In diesem Sinne kann sich die aktuelle Entwick-lung, wenn man denn den Revolutionsbegriff überhaut anwenden wollte, letztlich sogar als Konterrevolution erweisen.
Zusammenfassend lässt sich aber feststellen, dass es sich bei der aktuellen Entwicklung gar nicht um eine Revolution, sondern um eine Evolution handelt (Ahrens 2012, 30 f.), in deren Zuge die jeweiligen technischen Weiterentwicklungen aufgegriffen und ebenso wie für alle an-deren Lebensbereiche auch für Produktion und Logistik nutzbar gemacht werden. Dass dabei zurzeit vor allem die Datenverarbeitungs- und Kommunikationstechnik einen großen Fort-schritt ermöglicht, ist gar nicht zu bestreiten, begründet aber kein neues Zeitalter.
Der Vorteil einer solchen Einschätzung besteht darin, dass die Errungenschaften der Vergan-genheit dadurch nicht über Bord geworfen werden müssen. Sie werden nicht etwa durch neue und ganz andersartige Entwicklungen vollständig abgelöst, sondern durch diese ergänzt und unterstützt. Dies gilt auch für die REFA-Methodenlehre: sie ist mitnichten überholt, sondern zeitgemäß wie seit Beginn der industriellen Revolution, und sie hat die Chance, durch neue Technologien weiter verbessert und ergänzt zu werden. Zugleich erlaubt die Einschätzung der aktuellen Entwicklung als Evolution, neue Chancen aus der technischen Entwicklung zu nut-zen, gebietet allerdings auch, Risiken im Blick zu behalten und ihnen beizeigen mit wirksamen Maßnahmen zu begegnen.
Industrie 4.0 setzt vor allem auf den technologischen Fortschritt. Als aktueller Treiber dieses Fortschritts gilt die digitale Datenverarbeitungs- und Kommunikationstechnik – kurz: Digitalisierung. Das ist nicht neu. Bereits in den 1980er Jahren galt der Computer als Heilsbringer: Computer Integrated Manufacturing (CIM) hieß seinerzeit das Zauberwort. In menschenleeren Fabriken sollten nur noch Roboter die Arbeit verrichten. In den 1990er Jahren folgte dann die Ernüchterung. Plötzlich war von CIM-Ruinen die Rede (Scheer 1991, 1 ff.; Ulrich 1993, 29 ff.). Dabei zeigte sich in der Folge, dass tatsächlich immer mehr Computertechnologie Einzug in die Fabrikhallen hielt. Der Fehler bestand seinerzeit also lediglich darin, zu schnell zu viel ver-sprochen zu haben.
Aus diesem Fehler hat man nicht gelernt. Mit dem Ausrufen einer Revolution, mit einem Ver-sprechen disruptiver Entwicklungen (Demont/Paulus-Rohmer 2015, 108 f.) wird auch heute wieder viel versprochen, was angeblich sehr schnell, nämlich in Form eines radikalen Um-bruchs, eintreten wird. Und in diesem Zusammenhang findet man ausdrückliche Bezüge zum CIM-Versprechen der 1980er Jahre. So sah zum Beispiel Spur (2013, 7 f.) in Industrie 4.0 eine Neuauflage von CIM: „Die rechnerintegrierte Produktionsfabrik ist im Sinne der bekannten ‚CIM-Vision‘ nunmehr ein tatsächlich erreichbares Ziel geworden“. Simon (2013, 38 ff.) empfiehlt, sich unter Industrie 4.0 eine fast menschenleere Fabrik vorzustellen, „in der Fahrroboter wie von Geisterhand gesteuert Fertigungsanlagen und Abfüllstationen anfahren, um Rohlinge, Halb- oder Fertigprodukte abzuliefern oder abzuholen“. Und Soder (2014, 85 ff.) versteht Lean Production als Weiterentwicklung der CIM-Vision und Industrie 4.0 wiederum als Konsequenz aus der Idee einer schlanken Produktion.
Tatsächlich stehen Lean Production und CIM bzw. Industrie 4.0 für geradezu gegensätzliche Konzepte (Abbildung 3):
Aus dieser Gegenüberstellung ließe sich leicht die Schlussfolgerung ziehen, dass der technologie-getriebene Ansatz dem ökonomischen Ansatz wirtschaftlich unterlegen ist. Das aber wäre vor allem aus deutscher Sicht zu kurz gegriffen, denn gerade deutsche Unternehmen und damit die Abbildung 3: Technologiegetriebene versus wertschöpfungsorientierte deutsche Wirtschaft leben Ansätze von der Entwicklung und vom weltweiten Verkauf von Hightech-Produkten. Insofern wäre es falsch, das Bemühen um Industrie 4.0 pauschal zu kritisieren. Wollen deutsche Unternehmen ihren technologischen Vor-sprung halten, müssen sie neue Technologien erschließen. Allerdings dürfen sie einen Fehler nicht machen: sie dürfen nicht alles das, was dabei an Innovationen herauskommt, selbst flä-chendeckend zum Einsatz bringen. Vielmehr gilt es auch zukünftig, für jede Investition in Tech-nologie eine nüchterne Investitionsrechnung anzustellen und nur das zu automatisieren, was sich rechnet. In dieser Hinsicht behält der ökonomische Imperativ seinen Vorrang vor dem technologischen Imperativ4. Den Fehler, der Technologie zu viel zuzutrauen und nun statt CIM-Ruinen Industrie 4.0-Ruinen zu errichten, sollte man nicht ein zweites Mal machen.
Protagonisten von Industrie 4.0 sehen das oft anders. Wenn sie beobachten, dass ihre Idee in der Praxis nicht im erwarteten Ausmaß Wirkung entfaltet, führen sie dies in der Regel nicht auf die gerade genannten Grenzen der Wirtschaftlichkeit von Automatisierung zurück, sondern auf einen Mangel an Kenntnis und Einsicht bei denjenigen, die sie als Zielgruppe ausgemacht ha-ben. Daraus leiten sie als Maßnahme ab, noch mehr Überzeugungsarbeit zu leisten. Tatsächlich dürfte es aber oft eine nüchterne Investitionsrechnung sein, die Unternehmerinnen und Unter-nehmer davon abhält, schlanke Lösungen durch Hightech zu ersetzen.
Der REFA-Methodenlehre als Vertreterin des ökonomischen Imperativs kommt damit eine wichtige Rolle zu, nämlich die, zur Balance zwischen der Automatisierung auf der einen Seite und der von Menschen gelenkten und durchgeführten Arbeit auf der anderen Seite beizutragen. REFA steht nicht auf der Seite des Vertriebs von Hightech-Lösungen, sondern auf der Seite potenzieller Anwender, die entscheiden müssen, wieviel Hightech sich für sie rechnet. Und nach wie vor sind es oft eher die einfachen Lösungen, die wirtschaftlicher sind. Das ist die Lehre, die sich in den 1990er Jahren nach der Bauchlandung der seinerzeit vorausgegangenen Digitalisierungskampagne aus der Analyse des Toyota-Produktionssystems ziehen ließ (Womack et al. 1994).
Für eine Positions- und Potenzialbestimmung der REFA-Methodenlehre ist weiterhin von Be-deutung, was von Industrie 4.0 erwartet werden kann und was nicht. Vor allem sollen die daraus hervorgehenden Technologien nämlich eines sein: intelligent und in der Folge autonom (Auerbach et al. 2013, 561 ff.). Sie sollen also selbst Entscheidungen treffen.
Allerdings bleibt in der aktuellen Diskussion zumeist unscharf, was genau Intelligenz in diesem Zusammenhang bedeutet. So wird der Intelligenz-Begriff beispielsweise in der Forschungsa-genda der Deutschen Akademie der Technikwissenschaften zu cyberphysikalischen Systemen (Geisberger/Broy 2012) etwa 200 Mal verwendet, jedoch kein einziges Mal definiert. In seinem Fachbuch zur Industrie 4.0 gesteht Sendler (2013, 9 f.) zwar ein, dass die Bezeichnung techni-scher Systeme als intelligent durchaus gewagt ist, hält dies aber dennoch für berechtigt. Oft werden sogar Smartphones als intelligente Endgeräte bezeichnet. Dies findet sich nicht nur bei Sendler (ebd.), sondern beispielsweise auch im Abschlussbericht des Arbeitskreises Industrie 4.0 (Kagemann et al. 2013, 17), in der oben bereits erwähnten Forschungsagenda (Geisber-ger/Broy 2012, 53) und in wissenschaftlichen Aufsätzen wie dem von Auerbach et al. (2013, 561). Vor diesem Hintergrund erscheinen Versuche wie der von Bretschneider-Hagemes (2013, 182), den Intelligenz-Begriff im Zusammenhang mit technischen Systemen genauer zu definie-ren, auf den ersten Blick durchaus weiterführend. Allerdings zeigt ein zweiter Blick in einschlä-gige Lehrbücher (z. B. Ertel 2013, 1 ff.; Russel/Norvig 2012, 22 ff.), dass dies alles gar nicht mehr notwendig ist, denn eigentlich ist das schon seit Jahrzehnten bestens bekannt.
Das wird besonders deutlich, wenn man heute verbreitete Schlagwörter wie „Smarte (intelli-gent) Technologien (künstlich)“ zurück übersetzt in bereits seit mehr als 60 Jahren eingeführte Begriffe wie „Künstliche Intelligenz“ (KI). Denn tatsächlich geht es in der aktuellen Diskussion genau darum. Doch Hinweise darauf finden sich, wenn überhaupt, nur am Rande. So wird die KI in dem oben erwähnten Abschlussbericht auf 112 Seiten gerade einmal unter zwei Spiegel-strichen erwähnt (Kagemann et al. 2013, 94 f.), was auch deshalb bemerkenswert erscheint, weil das Deutsche Institut für Künstliche Intelligenz (sic) an der Herausgabe beteiligt war. Die oben ebenfalls schon erwähnte, insgesamt 296 Seiten umfassende Forschungsagenda widmet der KI gerade einmal zwei Seiten (0,7 %) und erwähnt sie darüber hinaus nur noch an einigen weiteren Stellen. Viele wissenschaftliche Aufsätze wie z. B. der von Auerbach et al. (2013, 561 ff.) verzichten ganz auf explizite Bezüge zur KI-Forschung, andere Aufsätze wie der von Spur et al. (2012, 882) beschränken sich auf beiläufige Erwähnungen ohne Quellenangaben.
Mit anderen Begriffen wie zum Beispiel Autonomie oder Selbstorganisation verhält es sich ähnlich. Insgesamt betroffen sind vor allem Begriffe, die ihren Ursprung in geistes- und sozial-wissenschaftlichen Disziplinen wie Soziologie oder Psychologie haben und nun auf technische Disziplinen übertragen werden. Ansätze, die darauf abzielen, lassen sich in zwei Kategorien einteilen:
Der erstgenannte Ansatz folgt dem technologischen Imperativ. Allerdings versuchen Vertreter dieses Ansatzes, diesen Verdacht zu zerstreuen. So erklärt zum Beispiel Bauernhansl (2013, 573) in einem Interview, der Mensch stehe weiterhin im Mittelpunkt. Das wäre durchaus als Humanorientierung interpretierbar, wenn nicht sogleich betont würde, dass der Mensch ange-sichts der beabsichtigten technischen Entwicklungen eine neue Rolle finden müsse (ebd.), weil andere Anforderungen an ihn gestellt würden (Russwurm 2013, 33). Solche Äußerungen kön-nen leicht dahingehend verstanden werden, dass sich der Mensch der Technik zu unterwerfen hat. Dem steht allerdings die verbreitete Auffassung entgegen, dass Technik dem Menschen dienen soll und nicht umgekehrt. Analog zur Forderung von Ulrich (2008) nach einer lebens-dienlichen Ökonomie geht es hier um eine lebensdienliche Technologie und nicht um ein tech-nologiedienliches Leben.
In diesem Sinne wird im Folgenden ein systemtheoretischer Ansatz vorgestellt, der einen Bei-trag dazu leisten soll, das Verhältnis zwischen Mensch und Technik zu klären und auf diese Weise zu zeigen, wie technische Systeme im Sinne des zweitgenannten, humanzentrierten An-satzes gestaltet werden müssen, damit sie Menschen dabei unterstützen, ihre Intelligenz zur vollen Geltung zu bringen.
Ropohl (2009, 43 f.) zeigt auf der Grundlage seiner Systemtheorie der Technik, dass diese kein isoliertes Eigenleben führt, sondern immer in soziotechnische Entstehungs- und Verwendungszusammenhänge eingebunden ist. Daher kann Technik nicht in dem Sinne autonom sein, wie Verweise auf einen soziologischen oder psychologischen Ursprung dieses Begriffs nahelegen. Beispielsweise kann Technik nicht losgelöst vom Menschen Verantwortung für die Folgen ih-res Einsatzes übernehmen. Vor diesem Hintergrund erscheint es sinnvoller, Spur et al. (2012, 879) zu folgen, die den Kern der zukünftigen Entwicklung als weiter zunehmende Automatisierung beschreiben. Damit ändert sich dann auch die Rolle des Menschen nicht wesentlich: so haben Produktionsmitarbeiterinnen und -mitarbeiter schon seit langer Zeit und nicht, wie Russ-wurm (2013, 33) vorhersagt, erst in Zukunft weniger die Aufgabe, Maschinen zu bedienen, sondern mehr die Aufgabe, diese zu überwachen und nur in Ausnahmesituationen einzugreifen. Es werden allenfalls mehr Menschen davon betroffen sein.
Um den Unterschied zwischen Automation und Autonomie deutlich zu machen, ist eine Erweiterung der üblicherweise zugrundeliegenden Modellvorstellung erforderlich. Bis heute weit verbreitet ist das EVA-Modell, nach dem ein System Eingangsgrößen (E) zu Ausgangsgrößen (A) verarbeitet (V). Auf dieser Grundlage werden oft auch soziotechnische Systeme modelliert, also Systeme, die neben Technik auch soziales Handeln umfassen. Abbildung 4 zeigt exemplarisch, wie auf diese Weise ein ganzes Unternehmen modelliert wird (Wiendahl 2010, 10). Dem liegt die Maschinenmetapher zugrunde, also die Vorstellung, dass ein Unternehmen ebenso zu funktionieren hat wie eine gut geölte Maschine (Kieser/Ebers 2006, 97).
Das EVA-Modell beschreibt Systeme, die in jeder relevanten Hinsicht offen sind. Dies ist im Umgang mit technischen Systemen zwingend erforderlich, denn diese sollen – jedenfalls nach bisheriger Auffassung – stets beherrschbar sein, was voraus-setzt, dass die Verarbeitungsprozesse (V), nach denen Eingangsgrößen (E) in Ausgangsgrößen (A) transformiert werden, im Sinne von Foersters (1994, 207) trivial sind. Insofern sind technische Systeme heteronome, also fremdbestimmte, nämlich durch Menschen beherrschte Systeme und damit das genaue Gegenteil von autonomen Systemen.
Soziale Systeme werden dagegen inzwischen nicht mehr als offene Systeme aufgefasst. Viel-mehr hat sich in der Soziologie die Einsicht durchgesetzt, dass solche Systeme infolge ihres autopoietischen Charakters weitgehend geschlossen sind und Offenheit erstens selbst und nicht etwa von außen quasi erzwingbar, zweitens nur unter bestimmten Bedingungen und drittens nur in bestimmten Hinsichten herstellen (Luhmann 1996, 24 f.).
Die Abbildung soziotechnischer Systeme erfordert daher ein Modell, das das EVA-Modell zur Abbildung rein technischer Systeme in soziale Entstehungs- und Verwendungszusammenhänge einbindet und dabei der operativen Geschlossenheit sozialer Systeme Rechnung trägt. Dazu kann das von Ropohl (1979, 131) vorgeschlagene Modell soziotechnischer Handlungssysteme herangezogen werden. Allerdings bedarf dieses Modell gerade in Bezug auf die Autonomie einer anderen Interpretation (Ahrens 1996, 93 ff.; Ahrens 1998, 53 ff.), denn Ropohl behandelt diese lediglich als Option (Ropohl 1979, 115) und lehnt anderslautende Erkenntnisse der soziologischen Forschung strikt, ja geradezu rüpelhaft ab (ebd., 49).
In seiner Außensicht gleicht das Modell soziotechnischer Handlungssysteme (Abbildung 5) dem EVA-Modell. Wie dieses verarbeitet es Energie, Masse und Information. Intern ist es je-doch funktional in drei Subsysteme ausdifferenziert: Im Ausführungssystem finden alle stofflichen und energetischen Prozesse statt. Daten und Befehle werden vom Informationssystem verarbeitet und das Entscheidungssystem gibt die Ziele des Handelns vor.
In Bezug auf die Autonomie soziotechnischer Systeme ist von besonderer Bedeutung, dass das Entscheidungssystem über keine direkte Verbindung zur Umwelt verfügt. Stattdessen kommuniziert es mit der Umwelt über den Umweg des Informations- und des Ausführungssystems, wobei diese bei-den Subsysteme quasi als Filter wirken.
Dies stellt gegenüber der ursprünglichen Fassung von Ropohl (1979, 130 ff.) insofern eine modifizierte Interpretation dar, als dieser Handlungssysteme als prinzipiell offen betrachtet und ihre relative Isoliertheit lediglich als Maßnahme zur Modellvereinfachung versteht (ebd., 110). In späteren Ausgaben des zitierten Werks (1998, 2009) ist diese Aussage zwar ohne Angabe von Gründen entfallen, doch die Konsequenz daraus wird aufrechterhalten. So erklärt Ropohl sowohl in der ersten (1979, 115) als auch in der jüngsten (2009, 98) Ausgabe, dass Handlungssysteme sowohl aufgrund vorgegebener als auch aufgrund selbst gesetzter Ziele handeln. Autonomie im Sinne von Selbstbestimmung, Unabhängigkeit und Entscheidungsfreiheit wird dadurch lediglich zur Option.
Tatsächlich sind soziale Systeme jedoch immer autonom. Um dies zu demonstrieren, sei angenommen, dass das Modell soziotechnischer Handlungssysteme auf der untersten Ebene menschliche Individuen als personale Handlungssysteme abbildet (Abbildung 5). Ferner sollen an dieser Stelle die Funktionsträger eingeführt werden, die im Informations- und im Ausführungssystem bestimmte Aufgaben erledigen. So kann der Mensch Handlungen mit oder ohne technische Hilfe durchführen. Lediglich Entscheidungen sind stets dem Menschen vorbehalten und können nicht an Technik delegiert werden. Auf diese Weise bleibt die Verantwortung für die Folgen von Handlungen, insbesondere auch für den Einsatz von Technik zur Unterstützung von Handlungen, an den Menschen gebunden. Das bedeutet, dass die Ausführung von Funktionen automatisiert werden kann, jedoch nie autonom erfolgt.
Eine noch weitere Zerlegung des Modells, beispielsweise in einzelne technische Systeme, ist in diesem Kontext nicht sinnvoll, weil als Element eines Systems nur behandelt werden kann, „was für ein System als nicht weiter auflösbare Einheit fungiert (obwohl es, mikroskopisch betrachtet, ein hochkomplexes Zusammengesetztes ist)“ (Luhmann 1984, 43). In diesem Sinne lassen sich Handlungsaspekte stets nur auf andere Handlungsaspekte beziehen. Ropohl (2009, 44) meint das Gleiche, wenn er Technik stets als Bestandteil soziotechnischer Entstehungs- und Verwendungszusammenhänge betrachtet.
Eine Anwendung des Modells auf höheren Ebenen ist dagegen möglich und sinnvoll. Bildet man damit beispielsweise ein Unternehmen ab, so kann man das Entscheidungssystem verein-fachend als Unternehmensführung, das Informationssystem als mittleres Management und das Ausführungssystem als operative Unternehmensebene interpretieren (ebd., 111 f.). Legt man nun die Deutung von Ropohl zugrunde, so lässt sich daraus zwar nicht zwingend eine hierarchische Weisungskette ableiten, aber eine solche ist durchaus möglich. Anders verhält es sich jedoch, wenn man das Modell konsequent beibehält. Dann ergibt sich für die Unternehmens-ebene eine Struktur, wie sie in Abbildung 6 dargestellt ist. Darin wird deutlich, dass Befehle der hierarchisch übergeordneten Instanzen nicht direkt an die Entscheidungssysteme der unter-geordneten Instanzen adressiert werden können, sondern diese nur über den Umweg und Filter der Informationssysteme erreichen, so dass die Befehle für die untergeordneten Instanzen lediglich einen Teil der Randbedingungen bilden, unter denen Entscheidungen autonom getroffen werden.
Autonomie bedeutet nicht, dass Handlungssysteme autistisch sind in dem Sinne, dass sie sich von ihrer Umwelt vollkommen abkoppeln. Allerdings werden Vorgaben nicht strikt befolgt, sondern selektiv zur Kenntnis genommen, interpretieret und mit eigenen Vorstellungen korreliert. Das Ergebnis dieses komplexen Verarbeitungsprozesses kann, muss aber nicht mehr viel mit dem zu tun haben, was externe (weisungsbefugte) Instanzen erwarten. Praktisch lässt sich dies in Unternehmen beispielsweise an den informellen Strukturen beobachten, die regelmäßig neben der formalen Organisation existieren und oft einen erheblichen Einfluss auf das betriebliche Geschehen nehmen (Krohn/Küppers 1990, 121).
Auf der Grundlage dieses Modells lässt sich nun klären, wie technische Systeme gestaltet wer-den müssen, die im Sinne des humanzentrierten Ansatzes intelligente, autonome und sich selbst organisierende Menschen dabei unterstützen, ihre Fähigkeiten zu entfalten. Dabei ist es unerheblich, ob die Technik künstlich intelligent ist oder nicht. Entscheidend ist, dass sie sich dem Menschen unterordnet, dessen Autonomie respektiert und seine daraus resultierende Fähigkeit zur Selbstorganisation stärkt. Zwei konkrete Beispiele sollen zeigen, wie sich auf dieser Grundlage geeignete von weniger geeigneter Technik unterscheiden lässt.
Ein Beispiel für Technik, die den neuen Erkenntnissen der soziologischen Forschung nicht gerecht wird, sind Manufacturing Execution Systems (MES) (Kletti 2013, 36 ff.). Sie unterstellen, dass Kopf- und Handarbeit im tayloristischen Sinne noch immer streng getrennt sind, so dass der Führung alle Informationen verfügbar gemacht werden müssen, die für notwendig erachtet werden, um die ausführenden Instanzen zu lenken. Betriebs- und Maschinendatenerfassung sollen dazu maximale Transparenz schaffen. Die oft geringe Akzeptanz dieser Datenerfassungssysteme bei den Betroffenen und der große Einfluss informeller Strukturen zeigen exemplarisch die praktischen Grenzen dieses Ansatzes.
Ein Beispiel für Technik, die das Potenzial hat, den humanzentrierten Ansatz zu fördern, sind sogenannte Assistenzsysteme (Ahrens 1998, 92). Solche Systeme sollen im Sinne eines Beistands Unterstützung bieten, wenn und soweit diese gewünscht wird, jedoch keine Vertretungsvollmacht haben und insoweit auch nicht von sich aus tätig werden. Dafür ist es allerdings erforderlich, die Autonomie der soziotechnischen Handlungssysteme zu wahren und nicht etwa durch das inzwischen weit verbreitete Ausspähen von Daten zu unterlaufen. Zugleich ist es möglich und notwendig, Verantwortung an diejenigen zu delegieren, die autonom handeln. Diese müssen in dem Maße für die Folgen ihres Handelns einstehen, in dem sie Autonomie darüber erlangen.
Die konkreten Funktionen, die in Assistenzsystemen automatisiert werden können und sollten, unterscheiden sich gar nicht wesentlich von denen üblicher MES, denn im Kern geht es in Produktion und Logistik immer um die gleichen Aufgaben: Allokation von Ressourcen, Distribution von Waren und Bereitstellung von Daten. Lediglich die Art der Ausführung ändert sich teilweise, wenn Funktionen wie diese dezentralisiert werden. Abbildung 7 zeigt dazu das Bei-spiel einer Unterstützung einer manuellen Kommissionierung durch eine Datenbrille und durch ein Headset (Günthner et al. 2009, 111).
Die Allokation von Ressourcen erfordert im Einzelnen die Lösung von Zuordnungs- und Reihenfolgeoptimierungsproblemen. Bei einer Dezentralisierung ändert sich nur die Art der Zuordnungsoptimierung, da diese nicht mehr von zentraler Stelle aus erfolgt, sondern unter autonomen Arbeitssystemen ausgehandelt wird, beispielsweise auf der Basis von Marktmechanismen (Ahrens 1998, 70 ff.).
Die Art der Reihenfolgeoptimierung kann dagegen weitgehend beibehalten werden (ebd., 131 ff.). Die Distribution von Waren erfordert im Einzelnen die Standortwahl und die Routenplanung, und auch dabei ist nur die Standortoptimierung zu dezentralisieren, da es für eine dezentrale Routenoptimierung schon heute brauchbare Lösungen wie z. B. Navigationssysteme gibt. Schließlich müssen nutzungsspezifische Daten in Echtzeit bereitgestellt und aufbereitet wer-den. Dabei ist nur die Zielgruppe der ausführenden Instanzen zu ergänzen und die Informationsversorgung des Managements ist so umzugestalten, dass sie die Autonomie der untergeordneten Instanzen respektiert.
Folgt man dem humanzentrierten Ansatz, so liegt die eigentliche Herausforderung nicht in der Technik, denn viele technische Lösungsansätze, die im Rahmen des Forschungsprogramms Industrie 4.0 gefordert werden, liegen längst vor und müssen nur noch zur Marktreife gebracht werden. Beispiele dafür sind Anwendungen der Künstlichen Intelligenz wie Agentensysteme (Göhner 2013, 3 ff.) oder Algorithmen zur Aufbereitung großer Datenmengen (Ertel 2013, 177 ff).
Die eigentliche Herausforderung liegt darin, die tayloristische Trennung von Kopf- und Handarbeit zu überwinden und operativ tätigen Menschen zuzutrauen, dass sie unter geeigneten Bedingungen auch und gerade dann einen guten Job machen, wenn sie sich selbst organisieren. Dies ist vor allem in Systemen erforderlich, deren Komplexität das Maß übersteigt, das hierarchisch beherrschbar ist (Ahrens 2015). Beispiele dafür sind große Unternehmen sowie Unter-nehmen, die komplexe Produkte herstellen oder Produkte mit Hilfe komplexer Fertigungstechnologien produzieren. Und dass es solche Unternehmen gibt, wird zur Begründung der Notwendigkeit des Forschungsprogramms Industrie 4.0 immer wieder betont (inklusive der in diesem Kontext üblichen Übertreibungen): „Die größte Herausforderung der technologischen Entwicklung der letzten Jahrzehnte ist die ins Unendliche wachsende Komplexität der Produkte beziehungsweise Systeme, die zugleich zu einer ebenso ins Unendliche tendierenden Komple-xität der industriellen Prozesse zu ihrer Entwicklung und Fertigung geführt hat“ (Sendler 2013, 16).
Die Schwierigkeit, sich Lenkung ohne Hierarchie vorzustellen, hat vermutlich zwei Ursachen: Erstens ist Hierarchie sehr erfolgreich. Das verleitet zu der Annahme, dass ein Mehr des Guten zu noch Besserem führt (Willke 2014, 68). Zweitens sind mögliche Alternativen weder hinreichend bekannt noch ausgereift. Mit der interventionistischen, der experimentellen und der transformatorischen Lenkung haben Krohn und Küppers (1990) allerdings schon in den 1990er Jahren vielversprechende Ansätze vorgestellt (Ahrens 1998, 63 ff), die in die gleiche Richtung gehen wie die von Willke (2014, 99 f.) so genannte Kontextsteuerung.