Was ist eigentlich … künstliche Intelligenz?

Image placeholder
Ivonne Bernal 04 Juni 2019 – Lesedauer: 5:45

Was ist eigentlich Intelligenz? Diese Frage zu beantworten ist gar nicht so einfach, umfasst sie doch zahlreiche Aspekte, die es zu bedenken gilt. Vereinfacht dargestellt, versteht man unter diesem Begriff eine Sammelbezeichnung, deren Zweck darin besteht, die kognitiven Leistungsfähigkeiten von Menschen zu beschreiben. Nur ist diese Definition so vage, dass sie der Aufgabe einer genauen Einordnung nicht gerecht wird.

Es gibt unterschiedliche Ansätze, mehr Licht ins Dunkel zu bringen. Anfang des 20. Jahrhunderts unterschied Charles Spearman in seinem Konzept der Faktoranalyse zwischen einer allgemeinen übergeordneten Intelligenz und untergeordneten Einzelausprägungen. Louis Leon Thurstone hingegen lehnte die Vorstellung einer solchen Top-Down-Betrachtung ab und stützte seine Forschung auf sieben zwar unterschiedliche, dennoch aber gleichgestellte Primärfaktoren, die helfen sollten, das geistige Leistungsvermögen von Menschen zu beschreiben (von der Verarbeitung visueller Reize über die Fähigkeit, logische Schlussfolgerungen ziehen zu können, bis zur Wortflüssigkeit des jeweils untersuchten Probanden – um nur drei zu nennen). Beiden Theorien gemein ist, dass sie die menschliche Intelligenz als wesentlichen Differenzierungswert in einer durch das Leistungsprinzip geprägten Gesellschaft verstehen – es also (vereinfacht ausgedrückt) dem Klügeren in der Regel besser geht als dem … na sagen wir mal, weniger Begabten. Wobei mir Thurstones Modell besser gefällt, da es die Fähigkeiten einer Person immer auch abhängig vom jeweiligen Kontext beurteilt – zu beobachten, wenn man z.B. im Fußball von einer hohen Spielintelligenz der Akteure auf dem Feld spricht. Eine solche ist sicher wichtiger als die Fähigkeit, sich nach Spielende im Interview mit den Reportern gut ausdrücken zu können. Wer sich hiermit nähergehend auseinandersetzen will, dem empfehle ich die wissenschaftlichen Abhandlungen von Heinz-Martin Süß.

So spannend diese erste Frage auch ist – eigentlich geht es mir weniger um das „Was“ als um das „Wer“: Wer ist intelligent? Diese Frage zu beantworten, ist heute schwerer als früher, sind doch auch viele Maschinen mittlerweile in der Lage, datengestützte Entscheidungen in einem nichteindeutigen Umfeld zu treffen. Dabei gilt: Je mehr Erfahrungswerte es gibt, desto besser (im Sinne von: logisch korrekter) fallen in der Regel die Entscheidungen aus. Künstliche Intelligenz (KI) ist also dadurch gekennzeichnet, dass sie aus der Vergangenheit lernen kann. Voraussetzung dafür ist eine intensive Auswertung der Ergebnisse einschließlich einer nachgelagerten Anpassung der Strukturen. Als Beispiel hierfür ist die mybiscon GmbH aus Hamburg zu nennen, deren Algorithmus mit einer Genauigkeit von bislang 92 % die Auslastung z.B. von Restaurants und Hotels in den nächsten 10 Tagen vorherzusagen vermag. Genau das unterscheidet auf dem KI-Prinzip basierende Systeme von herkömmlichen Computerprogrammen, die im Wesentlichen nur die im Vorfeld durch einen Programmierer festgelegten Strukturen und Prozesse abbilden können. Wenn diese schlecht oder einfach überholt sind, bleiben sie es auch – bis man sie irgendwann überarbeitet oder entsorgt.

Die wichtigste Ressource einer funktionierenden KI sind Daten – und zwar sehr viele. Während Menschen – selbst kleine Kinder – problemlos einen Hund als solchen erkennen können (und das unabhängig von seiner Rasse, seiner Größe oder der Fellfarbe), muss ein intelligentes Computersystem zunächst mit (wahrscheinlich) mehreren Millionen Informationen, z.B. in Form von Bildern und Geräuschen „gefüttert“ werden, um nachher trennscharf einerseits zwischen Hunden und anderen Tieren und andererseits zwischen unterschiedlichen Hunderassen differenzieren zu können. Hierfür können mehrere Algorithmen erforderlich sein, denen bestimmte Teilaufgaben zugeordnet werden (wie z.B. das Erkennen der Form, der Farbe etc.). Diese liegen an unterschiedlichen Stellen in hierarchisch angeordneten Schichten (hidden layers) eines definierten Systems, wodurch eine Art neuronales Netzwerk entsteht. Wie beim Austausch von Botenstoffen im Gehirn kommunizieren die verschiedenen Schichten miteinander. Wurde auf der ersten Schicht z.B. die Form des Hundes erkannt, wird genau diese Information an die zweite Schicht weitergegeben, damit die dann – ihrem Auftrag entsprechend – die Farbe ermitteln kann. So geht es weiter. Wenn es zu keinem Störereignis kommt und jede Schicht die ihr jeweils zugeordnete Aufgabe erfüllt, kommt das System zum optimalen Ergebnis. Bei mehrmaliger Durchführung und der Eingabe unterschiedlicher Informationen verfestigen sich die Lernstrukturen. Entscheidungspfade, die zum richtigen Ergebnis geführt haben, werden gestärkt – solche, die weniger effektiv waren, geschwächt. Diesen Prozess bezeichnet man als Deep Learning. So hat sich Watson – ein von IBM entwickeltes künstlich intelligentes System – eigenständig in der Erkennung unterschiedlicher Krebszellen „fortgebildet“. Welch immensen Effekt das auf die Tumor-Forschung haben könnte / haben wird, kann sich jeder von uns vorstellen.

Neben der Fähigkeit, Daten überhaupt verarbeiten zu können, spielt das Thema Zeit eine entscheidende Rolle. Niemand wäre bereit, mehrere Stunden zu warten, bis sich die KI entschieden hat, ob auf einem Bild ein Hund oder ein Pottwal zu sehen ist. Die Prozessgeschwindigkeit entscheidet also maßgeblich über die Akzeptanz intelligenter Systeme.

Nun war genau das früher ein Problem – die herkömmlichen Rechner waren oft nicht in der Lage, diese hochkomplexen Prozesse in kurzer Zeit abzubilden und so zu aussagekräftigen Ergebnissen zu kommen. Das dürfte sich mit der Zunahme von Quanten-Computern ändern, die v.a. aufgrund des Superpositionsprinzips und der Quantenverschränkung – zweier quantenmechanischer Prinzipien – sowohl die Suche in großen Datenmengen als auch die Faktorisierung großer Zahlen wesentlich effizienter lösen, als das bislang möglich war.

Das Ziel künstlicher Intelligenzen besteht darin, konkrete Anwendungsprobleme des menschlichen Denkens zu meistern und zu wirksamen Lösungsansätzen zu kommen.

Nun leiten sich hieraus natürlich gewisse Überlegen ab. Werden Roboter zukünftig unsere Arbeit übernehmen? Wäre es dann nicht gerecht, ein bedingungsloses Grundeinkommen einzuführen? Und müssten nicht eigentlich die eingesetzten Systeme Steuern zahlen? Diese und viele weitere Fragen greift Richard David Precht in seinem Buch „Jäger, Hirten, Kritiker: Eine Utopie für die digitale Gesellschaft“ auf.

Noch beschränken sich die meisten intelligenten Systeme auf die ihnen zugewiesenen Aufgaben. Die sich mit diesem Thema auseinandersetzende Literatur bezeichnet diese Art der einseitigen Orientierung als schwache KI. Besteht der Auftrag z.B. darin, Hunde zu erkennen, wird ein Programm nicht gleichzeitig lernen können, ein Musikinstrument zu spielen oder Texte zu schreiben. Ob das aber in Zukunft so bleiben wird, darf bezweifelt werden. Künftige Systeme werden ihre Erkennungsmuster auf unterschiedliche Herausforderungen anzuwenden wissen und ihren Algorithmus ggf. eigenständig abwandeln können. In einem solchen Fall spricht man von starker KI. Auch werden Sie in der Lage sein, Gefühle zu simulieren und diese wahlweise in Entscheidungsprozessen zu berücksichtigen oder zu ignorieren – je nach Situation. Werden die menschlichen Leistungsfähigkeiten weit übertroffen, spricht man in der Theorie von einer Superintelligenz – wobei wir davon noch ein gutes Stück entfernt sind.

So viel ist sicher: Wie mit jeder Innovation gehen auch mit dem Thema der künstlichen Intelligenz Chancen und Risiken einher. Überlegen Sie doch mal, wie Sie durch den Einsatz v.a. schwacher KI-Systeme profitieren könnten?

Als Hilfestellungen finden Sie nachfolgend 3 Beispiele:

Beispiel 1: Pflegeheim

In dem von der Caritas betriebenen Altenheim St. Vinzenz in Garmisch-Patenkirchen werden seit 2018 testweise Pflegeroboter eingesetzt (oder wie es richtig heißt: humanoide Heimassistenten). Diese wurden am Deutschen Zentrum für Luft- und Raumfahrt (DLR) entwickelt und hören auf den Namen Justin. Die Roboter sollen keine Arbeitskräfte ersetzen, sondern sie entlasten – zum Beispiel im Bereich der Medikamentenvergabe. Auch die Pflegebedürftigen profitieren davon, hat man nun doch mehr Zeit, sich um sie zu kümmern. Wenn man überlegt, dass sich die Zahl pflegeabhängiger Menschen bis 2030 verdoppeln und der Betreuungsnotstand ohne ein wirksames Eingreifen durch die Politik noch zunehmen wird, kann man erahnen, wie wichtig Forschungs- und Entwicklungsprojekte im Bereich intelligenter Assistenzsysteme sind.

Beispiel 2: Einzelhandel

Das in den Vereinigten Staaten ansässige Startup DeepMagic hat mit dem Quick Kiosk eine Shop-Lösung im Bereich des Einzelhandels entwickelt, die ganz ohne Personal auskommt. Alle Prozesse sind vollständig automatisiert. Kunden registrieren sich über eine eigens entwickelte App und hinterlegen neben ihrem Namen (und ein paar anderen Angaben) auch ihre Zahlungsinformationen. Entscheidet sich der User eine Ware zu kaufen, braucht er sie nur aus dem Regal zu nehmen. Danach kann er das Geschäft verlassen, ohne vorher an einer Kasse zu bezahlen. Die Entnahme wird durch das System erfasst – das Konto des Kunden entsprechend belastet.

Beispiel 3: Werbung

In der japanischen Niederlassung der Werbeagentur McCann wurde ein Roboter zum Creative Director befördert. Seine Aufgabe besteht vor allem darin, die anderen Kreativschaffenden in der Agentur zu unterstützen, gute Kampagnen zu entwickeln. Dabei bedient er sich konkreter Erfolgsmuster, die den meisten in der Vergangenheit erfolgreich geschalteten Anzeigen und Werbesendungen gemein waren. Diese zu erkennen, wäre für Menschen kaum möglich – für den Roboter hingegen ist das kein Problem. Nach Aussage des CEOs Yasuyuki Katagi will keiner im Team mehr auf die Dienste des neuen CDs verzichten.

Weitere Beispiele - vor allem für KI-basierte Chatbots - finden Sie hier.


Aus einer in 2019 vom MIT und BCG durchgeführten Studie geht hervor, dass 9 von 10 Managern KI als Chance verstehen. Aber auch das Risiko, von innovativeren Konkurrenten überholt zu werden, wurde erkannt. 45 % der Befragten gaben an, dass man hier besonders aufmerksam sein müsse. Ansonsten drohe die Gefahr, im Wettstreit um Marktanteile überholt zu werden. Das ist ein Anstieg von immerhin 8 Prozentpunkten gegenüber einer in 2017 durchgeführten Untersuchung. Auch geht aus dem Bericht hervor, dass 40 % aller Organisation, die in die Umsetzung von KI investieren, noch keine signifikanten betriebswirtschaftlichen Mehrwerte haben verzeichnen können. Das überrascht nicht, wenn man überlegt, dass neue Technologien am Markt oft auf Widerstände treffen, die es zu überwinden gilt. Das braucht Zeit. Trotzdem zeigt sich, dass die in diesem Bereich erfolgreich operierenden Unternehmen ...

  • KI als Teil der Gesamtstrategie begreifen - und nicht als Selbstzweck,
  • in der Ausgestaltung von Maßnahmen v.a. Wachstumsziele, nicht etwa Einsparungspotenziale verfolgen und
  • ihren Personaleinstellungsprozess auf KI abstimmen und entsprechende Talente am Markt (v.a. Data Scientists und Prozess-Modellierungs-Experten) anwerben.

Falls Sie Fragen zu diesem Thema haben und überlegen, wie Sie als Unternehmen von künstlicher Intelligenz profitieren können, kommen Sie jederzeit auf uns zu.

- - - - - - - - - - - - - - - -

Bis bald
Ivonne Bernal
Autor: Ivonne Bernal

Expertin für Bio-Science und Design Thinking

Foto von Markus Spiske auf Unsplash