Markus Dohm

TÜV Rheinland

Kontaktdaten

Titelthema

Künstliche Intelligenz
in der Industrie

Bis 2030 werden 70 Prozent der Industrieunternehmen eine Anwendung mit künstlicher Intelligenz (KI) einsetzen, meint McKinsey und vergleicht KI bereits mit der Einführung der Dampfmaschine im 18. Jahrhundert. Algorithmen steigern die Produktivität und helfen dabei, die Instandhaltung planbarer zu gestalten, wobei ethische Fragen bislang weniger beachtet wurden. Es gilt, KI ohne menschliche Intelligenz ist (noch) nicht möglich.

Der Branchenverband Bitkom hat 555 Unternehmen mit mehr als 100 Mitarbeitern befragt und festgestellt, dass bisher nur zwölf Prozent der deutschen Industrieunternehmen KI im Zusammenhang mit Industrie 4.0 nutzen. Die Erwartungen sind jedoch so groß, dass der Einsatz exponentiell zunehmen dürfte.

Vor allem erwarten Industrieunternehmen, ihre Produktivität zu steigern, die vorausschauende Wartung und Instandhaltung zu verbessern sowie eine Optimierung ihrer Produktions- und Fertigungsprozesse. Die Befragten gaben zudem an, dass sie 2019 etwa fünf Prozent ihres Umsatzes in die Digitalisierung investieren wollen. Die Hoffnungen richten sich auf die Realisierung von Smart Factories, in denen autonome Roboter Hand in Hand mit Menschen arbeiten, dabei niemals müde werden und sogar die Fehler ihrer menschlichen Kollegen rechtzeitig erkennen und für Korrekturen sorgen.

Künstliche Intelligenz in Robotern soll wie im Auto von morgen – zusammen mit einer Unzahl von Sensoren und Aktoren – für eine autonome Aktion und Interaktion zwischen Menschen und Maschinen sorgen. Um dieses Ziel zu erreichen, müssen solche Systeme in Echtzeit große Datenmengen verarbeiten, Muster erkennen, Handlungsoptionen ableiten und umsetzen. - -Ähnlich wie dies bei der KI heutzutage in Wissenschaft, Medizin, Marketing und selbst für Juristen der Fall ist, müssen die Systeme zu vorgegebenen, vorgefundenen oder gerade entstehenden Problemen Lösungen finden.

Wie funktioniert KI?

KI orientiert sich am menschlichen Intelligenzbegriff und versucht, die Erkenntnis- und Entscheidungsfähigkeit des Menschen zu imitieren. KI-Systeme erscheinen durchaus intelligent und sind in der Lage, große Datenmengen in kurzer Zeit mit von Menschen geschriebenen Algorithmen auf Muster hin zu analysieren.

Den Algorithmen kommt eine Schlüsselfunktion zu. Darin sind Anweisungen definiert, um ein Problem systematisch zu lösen. Wie nach Bauplan oder Gebrauchsanweisung verfolgt der Algorithmus diesen vorgegebenen Weg und führt zu einem eindeutigen Ergebnis.

Um die Leistungsfähigkeit von KI zu steigern, entwickelten Neurowissenschaftler und Informatiker künstliche neuronale Netze, die sich am biologischen Vorbild der Vernetzung von Neuronen im Gehirn orientieren. KNN sind in der Lage, sich jederzeit durch neue Informationen, die sie bei Lernprozessen ähnlich wie das Gehirn verarbeiten, neu zu vernetzen oder alte Verbindungen höher oder geringer zu gewichten oder vollständig aufzulösen. Durch die neuronalen Netze sind auch KI-Algorithmen dazu in der Lage, bei ihrer Anwendung zu lernenund sich selbstständig weiterzuentwickeln.

Künstliche Intelligenz versucht, die Erkenntnisfähigkeit des Menschen zu imitieren. Foto: iStock

Dieser Prozess wird als Machine Learning bezeichnet. Was der Mensch als Erkenntnis speichertund jederzeit erinnern oder wieder anwenden kann, bedeutet bei den Maschinen, dass sie ihren Algorithmus umschreiben, um die ihnen gestellten Aufgaben besser lösen zu können. Hierbei verlassen sie nicht den vorgezeichneten Weg der Algorithmen ihrer Aufgabe.

Dies ist jedoch nur selten zu beobachten, wie das Beispiel aus dem Forschungslabor von Facebook zeigte. 2017 mussten die Facebook-Programmierer ein KI-System aus zwei Bots abschalten, als sie bemerkten, dass sich diese in einer selbsterfundenen Sprache unterhielten. Die Programmierer hatten vergessen, den Bots vorzuschreiben, in Englisch zu kommunizieren. Diese wollten ihre Kommunikation mutmaßlich effektiver gestalten und sprachen ein Kauderwelsch, das sie untereinander verstehen konnten. Den KI-Experten war dies nicht mehr geheuer, woraufhin sie die Bob und Alice getauften Bots kurzerhand abschalteten.

Dhruv Batra, Gastwissenschaftler von Georgia Tech bei Facebook AI Research (FAIR), gab danach zu: „Es ist wichtig, sich daran zu erinnern, dass es keine zweisprachigen Sprecher von KI und menschlichen Sprachen gibt. Wir verstehen bereits im Allgemeinen nicht, wie komplexe KI denkt, weil wir uns nicht wirklich in ihren Denkprozess hineinversetzen können. Das Hinzufügen von KI-zu-KI-Gesprächen zu diesem Szenario würde dieses Problem verschärfen.“

Schwache gegen starke KI

Die aktuell verfügbaren KI-Anwendungen sind trotz Machine Learning nicht in der Lage, ihren durch den Algorithmus vorgegebenen Weg zu verlassen und zur Abwechslung einfach mal was anderes zu tun. Eine KI, die Experten für die Tätigkeit eines Roboters in einer Fertigungslinie programmiert haben, ist nicht fähig, einfach mal in einer anderen zu arbeiten. Wissenschaftler bezeichnen diese als schwache KIs – und träumen von starker KI.

Noch ist es niemandem gelungen, eine KI zu programmieren, die die intellektuellen Fähigkeiten des Menschen auch nur annähernd simulieren kann. Eine starke KI müsste in der Lage sein, logisch zu denken, Entscheidungen wie ein Mensch zu fällen, also zwischen zwei gleich schlechten Alternativen abwägen zu können. Sie müsste sich planvoll neue Wissensgebiete erschließen und diese systematisch selbst anlernen. Vor allem aber müsste sie in natürlicher Sprache selbständig Ideen formulieren können und alle ihre Kompetenzen in ein Wertesystem einordnen und einem höheren oder ferneren Ziel unterordnen können. Kurzum: Sie müsste nach ethischen, moralischen und sozialen Kategorien ihr Verhalten und ihre Entscheidungen verantwortungsvoll selbst steuern. Das bedeutet: Ohne den Faktor Mensch wird es bei aller Dynamik der technologischen Entwicklung in der digitalen Transformation auf absehbare Zeit nicht funktionieren.

Wer korrigiert sie bei Irrtümern?

Bereits bei heutigen Anwendungen mit schwacher KI stellen sich ethische Fragen. Was passiert, wenn eine KI durch Machine Learning diskriminierende Entscheidungen fällt? Bei Finanzdienstleistern ist KI im Einsatz, sogar schon länger, als dies bei Chatbots der Fall ist. Mit der falschen Adresse oder einem Schufa-Eintrag kann es passieren, dass eine Versicherung oder ein Kredit verweigert wird.

Und wie soll sich ein autonomer und KI-basierender Roboter in einer Smart Factory verhalten, wenn er vor zwei gleich schlechte Alternativen gestellt - in beiden Fällen einen menschlichen Kollegen verletzen - würde? Mit solchen Fragen beschäftigte sich kürzlich ein Expertengremium der EU, das seine ethischen Leitlinien zur Diskussion stellte und im April seine finale Version veröffentlichte.

KI-Systeme sind in der Lage, große Datenmengen in kurzer Zeit mit von Menschen geschriebenen Algorithmen auf Muster hin zu analysieren. Foto: iStock

Nach allem, was bisher bekannt ist, greifen diese Leitlinien nicht weit genug. Sie beschreiben einen Weg, den größtmöglichen Nutzen aus der KI erzielen und gleichzeitig die geringstmöglichen Risiken eingehen. Um sicherzugehen, dass wir auf dem richtigen Weg bleiben, brauchen wir einen auf den Menschen ausgerichteten (menschenzentrierten) Ansatz für die KI.

Das Gremium hat auch eine Checkliste mit Fragen für Anbieter von KI entwickelt, wie sie ihre Systeme sicher betreiben können. Leider fehlen Empfehlungen an die EU-Kommission, welche Mindestanforderungen und Sicherheitsauflagen sie den KI-Betreibern auferlegen sollten, damit der Mensch als Gestalter und Nutznießer der digitalen Transformation wirklich im Fokus bleibt. Denn eines ist klar: Eine wirtschaftlich erfolgreiche KI werden Betreiber nicht ändern, nur weil sie ein wenig diskriminierend agiert.

Mehr Transparenz

Die EU und internationale Institutionen müssen klare Regeln aufstellen und anordnen, dass externe Institutionen die Einhaltung regelmäßig überprüfen dürfen. Eine notwendige Regel wäre beispielsweise, dass immer dann, wenn eine KI mit einem Menschen interagiert, diese als solche ausgewiesen wird und der menschliche Kollege beispielsweise durch Notausschalter immer am längeren Hebel sitzt.

Oder im Falle, dass eine KI Entscheidungsbefugnisse erhält, muss der Mensch das Recht erhalten, eine natürliche Person wie beispielsweise den Betriebsrat oder eine andere verantwortliche Stelle im Unternehmen mit der Überprüfung einer KI-Entscheidung zu beauftragen. Darüber hinaus müssen die Betreiber bei einer KI mit Machine Learning verpflichtet sein, ihre selbstständig sich umschreibenden Algorithmen durch Testläufe zu überwachen.

Bei einem KI-basierenden Roboter sollten die Unternehmen schon aus Gründen der Betriebssicherheit ihre Algorithmen regelmäßig einer Prüfung unterziehen. Und weil es Menschen sind, die KI-Algorithmen schreiben, sollten diese durch Weiterbildung ihre Kompetenzen als Fachleute regelmäßig vertiefen müssen. Wie dies früher bei der Dampfmaschine der Fall war, können verheerende Unfälle passieren, wenn zu viel Druck auf dem Kessel ist. v

Erst die regelmäßige Überprüfung durch den Vorläufer von TÜV Rheinland, dem früheren Dampfkesselüberwachungsverein DÜV, hat dazu geführt, dass technische Großanlagen, Fahrzeuge und Aufzüge bis hin zu Kraftwerken zu sicheren Einrichtungen wurden. Ohne Überwachung durch unabhängige Dritte und lebenslange Weiterqualifizierung der menschlichen Fachkräfte wird dies auch beim Einsatz von KI kaum gehen.

Kontakt

Markus Dohm

Bereichsvorstand Academy & Life Care
TÜV Rheinland

Tobias Kirchhoff

Business Officer Marketing „Academy & Life Care“
TÜV Rheinland
Tel. +49 221 8061615
E-Mail senden

www.tuv.com