Künstliche Intelligenz: Definition, KI-Systeme & alle Infos

Was ist eigentlich Künstliche Intelligenz? Was bedeutet Machine Learning? Und wie war das nochmal mit den GANs? Hier findet ihr knackige Definitionen zu häufig verwendeten Fachbegriffen.
Wer über die Zukunft der Computer nachdenkt, kommt an Künstlicher Intelligenz nicht vorbei. Und wer über die Vergangenheit der Computer nachdenkt, eigentlich auch nicht – der Traum von der denkenden Maschine findet sich schon bei den antiken Griechen.
Doch die Zeit der Legenden scheint vorbei: Künstliche Intelligenz ist heute überall. Doch was ist das eigentlich, was wir heute KI nennen? Und wie funktioniert sie?
Was ist Künstliche Intelligenz?
Einer der Gründerväter der Künstlichen Intelligenz, John McCarthy, bezeichnete KI als “die Wissenschaft und Technik der Herstellung intelligenter Maschinen”, also als Betätigungsfeld für Forscher und Ingenieure.
Heute meint der Begriff meist eben diese intelligenten Maschinen: Künstliche Intelligenz steht für Computersysteme, die sich intelligent verhalten. Intelligenz meint hier: Sie lösen Aufgaben, die normalerweise Intelligenz erfordern, etwa Sprache verstehen und von sich geben, Bilderkennung, Entscheidungsfindung oder Übersetzungen.
Laut der Expertengruppe der EU sind KI-Systeme “vom Menschen entwickelte Software- (und möglicherweise auch Hardware-) Systeme, die in Bezug auf ein komplexes Ziel auf physischer oder digitaler Ebene agieren, indem sie ihre Umgebung durch Datenerfassung wahrnehmen, die gesammelten strukturierten oder unstrukturierten Daten interpretieren, Schlussfolgerungen daraus ziehen oder die aus diesen Daten abgeleiteten Informationen verarbeiten und über die geeignete(n) Maßnahme(n) zur Erreichung des vorgegebenen Ziels entscheiden. KI-Systeme können entweder symbolische Regeln verwenden oder ein numerisches Modell erlernen, und sind auch in der Lage, die Auswirkungen ihrer früheren Handlungen auf die Umgebung zu analysieren und ihr Verhalten entsprechend anzupassen.”
Schwache / Enge KI
KIs erlernen und erledigen – anders als der Mensch – meist nur eine Aufgabe auf hohem Niveau. Eine solche KI wird daher schwache oder enge KI (weak oder narrow AI) genannt. Innerhalb ihres Spezialgebiets sind sie mittlerweile häufig dem Menschen überlegen. Alle aktuellen KI-Systeme sind schwache KIs.
Generelle / Starke KI
Eine KI mit menschenähnlicher Intelligenz, die ihren Verstand auf viele unterschiedliche Aufgaben anwenden kann, existiert noch nicht. Sie ist aber das große Ziel der KI-Forschung. Eine solche KI wird generelle Künstliche Intelligenz (Artifcial General Intelligence) genannt. Gebräuchlich, aber auf Grund ihrer philosophischen Ursprünge weniger eindeutig, sind die Bezeichnungen starke oder echte KI (strong oder true AI). Im Deutschen findet sich vereinzelt auch die Übersetzung allgemeine Künstliche Intelligenz.
Super-KI
Entwickelt sich die generelle Künstliche Intelligenz so weit, dass sie den Menschen in allen Belangen übertrifft, entsteht eine Künstliche Super Intelligenz (Artificial Super Intelligence). Für viele KI-Warner markiert die Entstehung einer KSI – Singularität genannt – das wahrscheinliche Ende der Menschheit. Manche KI-Experten hoffen hingegen, dass die Super-KI die großen Probleme der Menschheit löst wie den Klimawandel, Armut und Krankheit.
Anwendungsbereiche Künstlicher Intelligenz
Laut der Unternehmensberatung McKinsey steht uns der Großteil der wirtschaftlichen Auswirkungen der KI-Revolution noch bevor. Doch schon jetzt finden sich KI-Anwendungen in der Industrie und für Endverbraucher, angetrieben von den bereits verfügbaren Fähigkeiten Künstlicher Intelligenz.
Aktuelle KI-Technologie kann grob in vier Felder eingeteilt werden: Grundlagentechnologie, Anwendungen in der Industrie, für Endverbraucher, hier steht die Assistenz im Vordergrund, sowie im Entertainment-Sektor und der Kunst.
Grundlagentechnologien sind maschinelles Sehen und die Verarbeitung natürlicher Sprache, digitale Assistenten, robotergesteuerte Prozessautomatisierung und fortschrittliches Maschinenlernen. In diesem Feld gibt die akademische und industrielle Forschung den Ton an und entwickelt Künstliche Intelligenz weiter.
In der Industrie hilft KI-Software beim Management von Lieferketten, der Instandhaltung, Forschung und Entwicklung sowie im Vertrieb und Marketing. Hochtechnologisierte Industrien wie Online-Handel oder Suchmaschinen nutzen KI-Algorithmen, um ihre Kunden besser zu verstehen und ihnen passende Produkte und Suchergebnisse anzuzeigen. Und Amazon nutzt KI, um komplett kassen- und kassiererlose Lebensmittelläden zu betreiben.
Endverbraucher nutzen täglich digitale Assistenten wie Googles Assistant oder Amazons Alexa und entsperren mit Gesichtserkennung ihr Smartphone. Künstliche Intelligenz verbessert auch bestehende Services wie beispielsweise die Grafikberechnung bei Videospielen oder die Hochskalierung Videos und alter Fotos. Künstler haben derweil die kreativen Kapazitäten Künstlicher Intelligenz entdeckt und arbeiten insbesondere mit Deepfakes und der zugrundliegenden GAN-Technologie für Bildgenerierung und -veränderung.
Wie man eine Künstliche Intelligenz erschafft
Es existieren verschiedene Methoden, um Künstliche Intelligenz zu schaffen. Grundsätzlich können zwei unterschiedliche Ansätze unterschieden werden:
Die sogenannte „Good, Old-Fashioned AI“ (GOFAI) bestimmte die KI-Forschung bis in die späten 1980er und strebte nach einer starken KI. Die Idee: Menschliches Denken besteht aus dem logischen Kombinieren einzelner Begriffe, die unser Wissen über die Welt enthalten.
SHRDLU war eines der ersten KI-Programme, das versuchte, natürliche Sprache zu verstehen. Die zwischen 1968 und 1970 entstandene KI kann nach Aufforderung geometrische Objekte bewegen und Auskünfte über sie geben.
Aus dieser Vorstellung entstanden sogenannte Expertensysteme, die einfache Informationen über die Welt in symbolische Kategorien verpacken und mit diesen in logischen Schlussfolgerungen operieren.
Die GOFAI konnte die großen Erwartungen an KI nicht erfüllen – es brach der erste KI-Winter ein. Forschungsgelder wurden gestrichen und Projekte eingestampft. Heute werden solche KIs etwa in der Prozessautomatisierung eingesetzt.
Maschinelles Lernen / Machine Learning
Der aktuelle Liebling der KI-Forschung ist das Maschinelle Lernen (Machine Learning), hier insbesondere das Deep Learning.
Maschinelles Lernen schafft Computersysteme, die mit Hilfe von Daten lernen, Aufgaben zu erfüllen. Anstatt eines Entwicklers, der Zeile für Zeile Anweisungen in Form von Programmiercode vorgibt, schreibt die Software nach dem ersten Anstoß ihren Code eigenständig fort und optimiert ihn für ein besseres Ergebnis.
Aktueller Favorit der Forschungsdisziplin ist das sogenannte Deep Learning: Maschinelles Lernen mit mehrschichtigen neuronalen Netzen, die mit immer höherer Genauigkeit Muster in Daten erkennen und so menschliche Vorlieben lernen, Gegenstände erkennen oder Sprache verstehen.
Maschinelles Lernen treibt eine große Anzahl aktueller KI-Dienste an. Egal ob Google, Netflix oder Facebook: Lernende Algorithmen sprechen Empfehlungen aus, verbessern Suchmaschinen und lassen Sprachassistenten Antworten geben.
(Künstliche) Neuronale Netze / (Artificial) Neural Networks
Künstliche neuronale Netze sind von einem rudimentären Bild des menschlichen Gehirns inspiriert: Ein Algorithmus schafft verschiedene Schichten verbundener Neuronen oder Knotenpunkte, die Informationen untereinander austauschen. Ihre mathematischen Anfänge haben die neuronalen Netze im Jahr 1943.
Die Architektur besteht im einfachsten Fall aus einer Input-Schicht, einer mittleren, versteckten Schicht (Hidden Layer) und einer Output-Schicht. Das Input-Signal wird durch die anfangs zufällig generierten Werte der mittleren Neuronen modifiziert und an die Output-Schicht weitergegeben.

Ein einfaches künstliches neuronales Netzwerk. Ein Kreis entspricht einem künstlichen Neuron, ein Pfeil zeigt die Verbindung eines Outputs eines Neurons zum Input eines anderen. Bild: Glosser.ca, Colored neural network, CC BY-SA 3.0.
Der Output kann nun mit dem Input verglichen werden – war die Vorhersage richtig oder nicht? Anhand des Ergebnisses werden die Werte der mittleren Neuronen modifiziert und der Vorgang wird mit einem neuen Input wiederholt. Durch viele Wiederholungen wird die Vorhersage immer präziser.
Kurz gesagt: Neuronale Netze sind Algorithmen, die sich selbst optimieren.
Wer tiefer einsteigen will, dem sei die verlinkte hervorragende englischsprachige Videoreihe empfohlen.
Tiefes Lernen / Deep Learning
Tiefes Lernen oder Deep Learning ist Maschinelles Lernen mit Neuronalen Netzen mit mehr als einer versteckten Schicht (Hidden Layer).
Diese komplexen neuronalen Netze traten ihren Siegeszug spätestens 2012 an, als ein solches Netzwerk den ImageNet-Wettbewerb für Bildanalyse haushoch gewann.

Jede Schicht eines tiefen neuronalen Netzes kann eigene Bildinformationen analysieren: Ränder, Texturen und Muster bis hin zu Objekten. | BILD: Distil.
Tiefes Lernen ist verantwortlich für den KI-Boom der letzten Jahre, insbesondere bei der Bilderkennung, dem autonomen Fahren oder für Deepfakes.
Der Durchbruch von Deep Learning wird möglich durch immer schnellere Prozessoren und dedizierte KI-Chips wie Googles TPU sowie riesige Datenmengen, die für das Training der Maschine eingesetzt werden.
Generative Adversarial Network (GAN)
GANs bestehen aus zwei neuronalen Netzen (Agenten), die sich gegenseitig verbessern. Beide werden mit einem gemeinsamen Datensatz, etwa Fotos, trainiert.
Ein Agent erstellt dem Datensatz ähnliche Inhalte, der andere gleicht diese mit dem ursprünglichen Datensatz ab. Erkennt er sie als Fälschung, zwingt das den Fälscher-Agenten, seinen Inhalt zu verbessern – bis er so aussieht als gehöre er zum Trainingsdatensatz.
4.5 years of GAN progress on face generation. https://t.co/kiQkuYULMC https://t.co/S4aBsU536b https://t.co/8di6K6BxVC https://t.co/UEFhewds2M https://t.co/s6hKQz9gLz pic.twitter.com/F9Dkcfrq8l
— Ian Goodfellow (@goodfellow_ian) 15. Januar 2019
In 4,5 Jahren sind die GAN-KIs immer besser darin geworden, menschliche Porträts zu generieren.
Mit genug Wiederholungen entsteht ein Meisterfälscher: GANs erzeugen täuschend echte Menschen, Deepfakes, Straßenzüge oder Fake-Models. Sie dichten, musizieren und erschaffen teure Kunstwerke, machen aus Retro-Games HD-Versionen. Seit ihrer Einführung 2014 sind sie stetig besser geworden.
Blackbox & Erklärbare Künstliche Intelligenz
Maschinelles Lernen hat einen zentralen Nachteil: Wie genau die KI zu ihrem Ergebnis gelangt, ist häufig nicht nachvollziehbar. Die tiefen neuronalen Netze sind so komplex, dass unklar ist, welche Rolle einzelne Schichten und Neuronen im Verarbeitungsprozess der KI spielen.
KI-Systeme werden daher häufig als Blackbox bezeichnet: Ein schwarzer, undurchsichtiger Kasten, der zwischen Ein- und Ausgabe liegt.

Vorne Daten rein, hinten Ergebnisse raus. Was dazwischen passiert ist unklar – das ist die Blackbox. Grafik: Von Krauss – Eigenes Werk, CC-BY-SA 4.0, Link
Forscher im Forschungszweig “Erklärbare KI” versuchen, in diese Blackbox hineinzuschauen. Sie wollen komplette KI-Systeme, oder zumindest einzelne Ergebnisse, für Menschen nachvollziehbar machen.
Tech-Unternehmen wie Microsoft, IBM, Google oder Facebook entwickeln ebenfalls Software-Werkzeuge, die Licht bringen sollen in die Komplexität künstlicher neuronaler Netze. Der KI-Forscher Iyad Rawhan fordert gleich eine neue Disziplin, die das Verhalten intelligenter Maschinen erforscht.
KI-Training: So wird Künstliche Intelligenz trainiert
Das Training gehört zu Künstlicher Intelligenz wie Platzhalter in mathematische Formeln. Doch wie gelernt und trainiert wird, hängt ganz von der KI ab. Ich stelle euch einige Lernmethoden vor, die im KI-Training eingesetzt werden.
Überwachtes Lernen / Supervised Learning
Beim überwachten Lernen wird die KI in dem Sinne überwacht, dass ihre Trainingsdaten vorbereitet werden. Ein Beispiel: Soll eine KI Objekte auf Fotos erkennen, werden vor dem Training alle Katzen, Autos, Bäume usw. auf den Trainingsfotos markiert.

Beispiel für ein von einem Menschen für das KI-Training vorbereitete Bild. Bild: Samasource
Dieser Markierungsprozess (“labeln”) ist zeitaufwendig, aber die Grundlage für erfolgreiches überwachtes Training – die KI weiß dank der intensiven menschlichen Vorarbeit, nach welchen Mustern sie suchen soll.
Überwachtes Lernen steckt hinter einem Großteil aktuell breit eingesetzter KIs, zum Beispiel für das autonome Fahren, die Gesichtserkennung oder die Online-Suche. Die Labels werden oft von Niedriglohnarbeitern gesetzt, in den letzten Jahren ist daraus eine weltweite Industrie geworden.
Unüberwachtes Lernen / Unsupervised Learning
Unüberwachtes Lernen ist der Hoffnungsträger der KI-Forschung. Denn im Gegensatz zum überwachten Lernen werden Daten nicht aufwendig vorbereitet: Die KI bekommt große Datenmengen ohne Labels und sucht eigenständig nach Mustern in den Daten.
Die Methode hat zwei Vorteile: Erstens sind gut aufbereitete, umfangreiche Datensätze selten. Zweitens kann eine KI so Zusammenhänge in Daten aufdecken, die Menschen verborgen bleiben.
In den Worten des KI-Forschers Yann LeCun klingt das so: “Wenn Intelligenz ein Kuchen ist, ist der Großteil des Kuchens unüberwachtes Lernen, das Sahnehäubchen ist überwachtes Lernen und die Kirsche ist bestärkendes Lernen.”

OpenAIs mächtige Text-KI GPT-2 wurde durch selbstüberwachtes Lernen möglich: Der Fortschritt bei der Textgenerierung durch Künstliche Intelligenz bringt auch neue Werkzeuge, um Fake-Texte zu entdecken. | BILD: OpenAI
Mittlerweile hat sich auch der Begriff des selbstüberwachten Lernens (Self-Supervised Learning) verbreitet. Je nach Auffassung ist das eine besondere Variante des unüberwachten Lernens oder ein Synonym. LeCun hat bereits verkündet, er würde fortan nur noch vom selbst- statt vom unüberwachten Lernen sprechen.
Beim selbstüberwachten Lernen wird häufig ein Teil der Trainingsdaten zurückgehalten und die KI muss diese vorhersagen, etwa das nächste Wort in einem Satz. Dadurch wird sie gezwungen, wichtige Details über die Daten zu lernen wie semantische Repräsentationen.
Selbstüberwachtes Lernen wird beispielsweise für KI-Skalierung benutzt und ermöglichte die großen Fortschritte von Sprach-KIs in den letzten 1,5 Jahre. OpenAI setzt die Lernmethode für den mächtigen GPT-2-Algorithmus ein. Und Microsoft hat damit die bisher größte Sprach-KI Turing-NLG trainiert.
Bestärkendes Lernen / Reinforcement Learning
Bestärkendes Lernen setzt auf Zuckerbrot und Peitsche: Immer, wenn die KI ihre Aufgabe erfolgreich ausführt, wird sie belohnt. Verfehlt sie ihr Ziel, bekommt sie entweder nichts oder wird bestraft.
OpenAI bringt mit bestärkendem Lernen KIs Verstecken spielen bei. | BILD: OpenAI
Mit dieser Versuch-und-Irrtum-Methode entwickelt sich die KI in vielen Bereichen durch Ausprobieren vom Anfänger zum Profi, etwa in Go und Schach, Dota 2, Starcraft 2 oder Poker. Alle jüngsten Erfolge setzen auf sogenanntes tiefes bestärkendes Lernen (Deep Reinforcement Learning), einer Kombination aus bestärkendem und tiefem Lernen.
Transferlernen / Transfer Learning
Als Transferlernen werden Trainingsmethoden bezeichnet, bei denen gelernte Fähigkeiten einer KI auf ein neues, aber verwandtes Problem angewandt werden. Ein Beispiel ist Googles Bilderkennungs-KI Inception, die von Forschern zur Erkennung von Lungenkrebs eingesetzt wird.

KI-Startups wie Kheiron trainieren bewährte Bilderkennungs-KIs um zur Krebsdiagnose. | BILD: Kheiron
Auf lange Sicht könnte Transferlernen KIs weg von Inselbegabungen hin zu mehr Flexibilität führen. Die Erforschung des Transferlernens ist daher ein wichtiger Beitrag zu einer generellen Künstlichen Intelligenz.
Imitierendes Lernen / Imitation Learning
Imitierendes Lernen nutzt Demonstrationen als Trainingsmaterial für KIs. Das können etwa in Videospielen Aufzeichnungen menschlicher Spieler sein, die sich durch ein Game kämpfen, oder ein Roboter lernt, indem er menschliche Bewegungen beobachtet.

Den Atari-Klassiker “Montezumas Revenge” konnten KIs lange nicht durchspielen Mittlerweile ist es geschafft, indem sich die KI mit imitierendem Lernen an menschlichen Spielmanövern orientierte.
Ein Vorteil des imitierenden Lernens gegenüber bestärkendem Lernen ist die höhere Flexibilität: In manchen Umgebungen sind Belohnungen schwer zu definieren oder zu erreichen. Eine reine Versuch-und-Irrtum-Methode bringt die KI dann nicht weiter. Hier hilft die menschliche Demonstration, von der die KI den Weg lernen kann.
Few-Shot-Lernen / Few Shot Learning
Oft werden unzählige Beispiele benötigt, bis eine KI erfolgreich Muster in Daten erkennt. Sogenannte One-Shot- und Few-Shot-Lernmethoden helfen KIs, ähnlich wie der Mensch anhand weniger Beispiele oder sogar mit nur einem Beispiel eine neue Fähigkeit zu lernen.
Nvidias KI kann tanzen lassen, Mimik übertragen und Straßenaufnahmen generieren. Dafür braucht das Multitalent nur wenige Beispiele, etwa einige Fotos eines Nachrichtensprechers. | Video: Nvidia
In der Praxis könnten KIs so neue Aufgaben ohne umfangreiches Training lernen. Beispielsweise gelang es Samsung-Forschern mit wenigen Beispielen die Gesichter von Personen auszutauschen. Eine israelische Forschergruppe ging sogar noch einen Schritt weiter und entwickelte eine Methode für Echtzeit-Deepfakes ohne vorheriges Gesichtertraining.
Gegnerisches Lernen / Adversarial Learning
KI-Systeme sind häufig anfällig für Angriffe mit sogenannten „gegnerischen Beispielen“. Auf Bildanalyse spezialisierte KIs können etwa mit minimal manipulierten Bildern getäuscht werden. Häufig reicht dafür eine für das menschliche Auge unsichtbare geringe Pixelverschiebung oder eine Art Wasserzeichen. Visueller Schadcode, wenn man so will.
Eine KI erkennt dann statt einer Schildkröte ein Gewehr, ein T-Shirt mit speziellem Aufdruck schützt vor Gesichtserkennung oder ein autonomes Auto rast plötzlich los, weil es einen gefährlichen Sticker auf einem Straßenschild gescannt hat.

Dank bedruckten T-Shirt ist ein Forscher unsichtbar für eine KI, die Personen erkennt. Bild: Xu et al.
Das Forschungsfeld des gegnerischen Lernens versucht, KI-Systeme robuster gegenüber Pixel-Angriffen zu machen. Häufig werden die Systeme dafür mit den zuvor erwähnten schädlichen gegnerischen Beispielen trainiert. So lernen sie, nicht auf sie hereinzufallen.
Natürlich stellt sich hier wie in vielen anderen Szenarien der Cybersecurity das bekannte Katz-und-Maus-Spiel ein: Ist eine Sicherheitslücke gestopft, wird eine neue aufgerissen.
Die Rolle Künstlicher Intelligenz in der Digitalisierung
Um die Rolle Künstlicher Intelligenz in der Digitalisierung zu verstehen, muss zunächst der Begriff der Digitalisierung geklärt werden. Im Deutschen hat er eine doppelte Bedeutung, die im Englischen durch die Wörter „Digitization“ und „Digitalization“ klarer getrennt sind.
Die „Digitization“ ist die (automatische) Übertragung von analogen Werten/Daten wie etwa Papierdokumenten, Microfilm, Fotos oder Tonaufnahmen in entsprechende digitale Formate.
Damit sind die Daten den Prozessen der „Digitalization“ zugänglich: Der Ermöglichung, Verbesserung oder Umwandlung von Geschäftsmodellen und -prozessen durch die Nutzung digitaler Technologien und digitalisierter Daten, die mit Methoden der Datenverarbeitung in verwertbare Kenntnisse umgesetzt werden. Wer heute im Deutschen von Digitalisierung spricht, meint meist diesen Prozess.
Die Digitalisierung in diesem Sinne führt weiter zu einer digitalen Transformation: Der tiefgreifenden Umgestaltung von geschäftlichen oder anderen organisatorischen Prozessen, Kompetenzen und Modellen, um die Vorteile der neuen digitalen Technologien voll ausschöpfen zu können.
KI-Technologie nimmt in diesem Prozess eine dreifache Rolle ein: Sie hilft heute etwa mit Bild- und Sprachanalyse, analoge Daten zu digitalisieren. Sie kann außerdem riesige Mengen an Daten – also „Big Data“ – analysieren und Muster darin erkennen. Dafür wird sie häufig mit den digitalisierten Daten trainiert, erkennt Bilder, verarbeitet natürliche Sprache, trifft Hervorsagen im Feld der Predictive Analytics, interagiert mit Kunden und Mitarbeitern über Chatbots oder schafft intelligente Maschinen am Rand (Edge) der Cloud.
KI trägt maßgeblich zur digitalen Transformation bei: Neue Märkte werden erschlossen, alte Prozesse verschwinden oder werden grundlegend verändert, etablierte Marktstrukturen zerbrechen. Ohne KI-Algorithmen gäbe es kein Google, kein Facebook, kein Netflix, kein Uber und kein Amazon – jedenfalls nicht in der Form, wie wir die Konzerne kennen.
Digitale Transformation, Künstliche Intelligenz und Industrie 4.0
In der fertigenden Industrie ermöglicht KI-Technologie die zwei Grundlagen für die Industrie 4.0: Das industrielle Internet der Dinge und die Robotik.
Das Internet der Dinge (IoT) gilt als wesentlicher Treiber und Bestandteil der Digitalisierung von Wirtschaft und Gesellschaft. Das IoT erweitert das klassische globale Kommunikationsnetz des Internets etwa durch smarte Geräte für Endverbraucher oder intelligente Sensoren für Industriegeräte, die als „Kommunikationspartner“ in das globale Netz integriert werden. Sie liefern große Mengen bisher unerschlossener Daten und stellen sie KI-Software zur Auswertung und Steuerung bereit.
Mit dem industriellen Internet der Dinge (IIoT) können so alle Maschinen, Produkte und Prozesse vernetzt werden: Fehlendes Material wird automatisch bestellt, Werkstücke wandern fließend zur nächsten Maschine, Fehler werden im Optimalfall erkannt, bevor sie passieren – die Prozesssteuerung wird transparenter, besser kontrollierbar und gleichzeitig dank weitgreifender Automatisierung effizienter. Das soll Kosten senken und schnelle Prozesse mit hoher Flexibilität ermöglichen.
Neben dem IIoT ist in der Produktion vor allem die Robotik gefragt: Zwar funktioniert Automatisierung mit viel Aufwand für Spezifikation und Installation der Roboter in einer Fertigungsstraße. Jeder Roboter ist allerdings ein Spezialist und verfügt über eine stark eingeschränkte Wahrnehmungs-, Bewegungs- und Manipulationsfähigkeit. So ist Automatisierung unflexibel, teuer, muss präzise kalibriert werden und lohnt sich nur für große Unternehmen, die riesige Stückzahlen standardisierter Produkte herstellen.
Künstliche Intelligenz kann schon jetzt Roboter in Betrieb nehmen, die flexibler sind und ihre Umwelt besser wahrnehmen. Das ermöglicht etwa sogenannte Cobots – kleine und günstige Roboterarme, die programmierbar sind und an der Seite von Menschen arbeiten können. Diese Entwicklung ermöglicht mehr Flexibilität in der Fertigung: Die Cobots können temporär an einer Arbeitsstation eingesetzt, dann neu programmiert werden und an einer anderen Stelle weiterarbeiten. Das macht die Technik für Unternehmen interessant, die sich bisher keine klassische Automatisierung leisten konnten.
Das große Ziel der Industrie 4.0 sind jedoch Roboter, die noch intelligenter, noch flexibler und noch aufmerksamer sind. Sie sollen Gegenstände so flexibel erkennen und bearbeiten können wie Menschen – und so alle Stufen eines Fertigungsprozesses automatisieren.
Das soll die „Lights-Out-Fabrik“ für viele Produkte ermöglichen, eine vollautonome Fabrik, die ohne menschliche Intervention funktioniert – und daher auch keine Beleuchtung braucht. Für diese Roboter braucht es Fortschritte in der KI-Forschung, vor allem in der Objekterkennung und dem bestärkenden Lernen, mit dem Roboter schnell neue Aufgaben lernen sollen.
Künstliche Intelligenz: Vorteile & Risiken
Aktuelle KI-Anwendungen sind im Kern statistische Verfahren und lassen sich überall dort einsetzen, wo große Mengen an Daten existieren und eine gewisse Ungenauigkeit keine fatalen Konsequenzen hat. In diesen Fällen kann KI einen großen Mehrwehrt bieten: Für Unternehmen wie Google, Baidu oder Facebook, die mit KI ihre Suchergebnisse oder News-Feeds organisieren oder für Endverbraucher, die mit KI ihr Smartphone entsperren, Fotos sortieren oder Texte übersetzen.
In den Fällen, in denen eine höhere Genauigkeit benötigt wird, kommt die aktuelle KI-Technik an ihre Grenzen: Die Revolution der Mobilität durch autonome Fahrzeuge wurde schon vor einigen Jahren versprochen, doch noch immer gibt es Unfälle, die durch Fehler in niedrigstufigen autonomen Fahrassistenzsystemen verursacht werden.
In anderen Fällen wird die Ungenauigkeit der Systeme schlicht ignoriert: KI-Überwachung ist weltweit auf dem Vormarsch, ungenaue Gesichtserkennungs-KIs werden von Staaten für die Kriminalitätsbekämpfung oder der Überwachung von Demonstrationen eingesetzt. KI-Systeme, die mit rassistisch vorbelasteten Datensätzen trainiert wurden, geben Empfehlungen ab, ob Menschen Kaution gewährt werden sollte. Ähnliche Systeme entscheiden in Banken, wem ein Kredit zusteht.
Dort wo Ungenauigkeit und Vorbelastung ignoriert werden, entsteht der Eindruck einer maschinell begründeten Unfehlbarkeit der Algorithmen. Das macht es für Betroffene mitunter schwer, Entscheidungen anzufechten. Ob genauere KI-Systeme diese Probleme lösen oder nur neue schaffen, habe ich in diesem Artikel über das Für und Wider der KI-Überwachung erörtert.
Deepfakes & Arbeitslosigkeit
KI-gefälschte Videos – sogenannte Deepfakes – breiten sich immer weiter aus. Vorerst scheint die Technologie primär für Unterhaltung und Pornografie genutzt zu werden. Vereinzelt wird die Technologie von Betrügern und Spionen eingesetzt.
US-Politiker warnen dennoch vor eine Deepfake-Schwemme in den US-Wahlen 2020. Große Social-Media-Plattformen wie Facebook oder Twitter wollen politische Deepfakes daher kenntlich machen oder sogar löschen.
Ein weiteres KI-Schreckgespenst ist die großflächige Automatisierung: Der ehemalige US-Präsidentschaftskandidat Andrew Yang forderte gar ein Grundeinkommen, um die amerikanische Gesellschaft gegen die von ihm befürchtete KI-bedingte Massenarbeitslosigkeit zu wappnen.
Aktuell sieht es so aus, als schreite die Automatisierung vorerst langsam voran – allerdings hat die KI-Technologie das Potential, auch diejenigen zu ersetzen, die traditionell von der Automatisierung verschont blieben. Dazu gehören Stellen in der Verwaltung, in Rechtskanzleien, in den Medien und auch in kreativen Bereichen, insbesondere beim Design.
KI: Wirtschaftswunder oder unser Ende?
Eine generelle Künstliche Intelligenz verschiebt die Vorteile und Risiken von KI ins Existenzielle: Sie wäre ein massiver Eingriff in nahezu alle Lebensbereiche und eine Revolution für Gesellschaft, Wirtschaft, Bildung, Medizin und Forschung.
Aus ihr könnte eine Superintelligenz entstehen, die uns jede Arbeit abnimmt, jedes Problem löst und die Demokratie revolutioniert. Diese Potenziale werden KI-Forscher wohl solange antreiben, bis ihre Vision verwirklicht wurde – oder ein Beweis existiert, dass ihr Unterfangen unmöglich ist. KI-Labore wie Deepmind oder OpenAI suchen über den Umweg vieler spezialisierter KI-Einzelprojekte nach einem Weg zur Super-KI, die sich eines Tages aus vielen einzelnen Komponenten zu einem großen neuronalen Netz zusammenfügen könnte.
Diese Versuche beunruhigen diejenigen, die eine GKI – und erst recht eine Superintelligenz – für eine potenziell existenzielle Bedrohung halten. Der Philosoph Nick Bostrom oder der KI-Forscher Stuart Russel warnen etwa vor der Auslöschung der Menschheit durch eine zu intelligente KI. Wer Bostroms Argumentation spielerisch nachvollziehen möchte, sollte sich diesen Büroklammer-Simulator anschauen.
Gelassener sehen das KI-Pionier Yann LeCun und Neurobiologe Anthony Zader: Die beiden Experten meinen, KI fehle es am notwendigen Instinkt, um Menschen zu töten – die übermächtige Maschine hätte schlicht kein Interesse am Ende der Menschheit. Verstärkung bekommen die beiden vom Kognitionsforscher Steven Pinker, der Bostroms Befürchtungen für dystopischen Schwachsinn hält.
- Russell, Stuart (Autor)
Letzte Aktualisierung am 26.09.2020 / Affiliate Links / Bilder von der Amazon Product Advertising API / Preis inkl. MwSt., zzgl. Versandkosten
- Eberl, Ulrich (Autor)
Letzte Aktualisierung am 26.09.2020 / Affiliate Links / Bilder von der Amazon Product Advertising API / Preis inkl. MwSt., zzgl. Versandkosten
Weiterlesen über Künstliche Intelligenz:
- Der Aufstieg der KI: Zehn Jahre Künstliche Intelligenz und ihre Zukunft
- Künstliche Intelligenz: Für eine Revolution braucht es keine Super-KI
- KI: Deepfake selbst erstellen – so geht es, so lange dauert es
steady2
Filed under: Featured,Innovation,Künstliche Intelligenz,OpenAI,Tech - @ 17. November 2019 9:10