Was ist KI?
Künstliche Intelligenz (KI) organisiert vielleicht unsere Social Media Timelines und verbessert automatisch die Bilder auf unseren Smartphones, aber es ist ein Bereich, der weithin missverstanden wird.
KI ist ein unglaublich komplexes Teilgebiet der Informatik, in dem die Spitzenforscher so viel verdienen wie NFL-Quarterbacks. Es tauchen Begriffe auf, die im Alltag kaum verwendet werden, wie Trainingsdaten, neuronale Netze und große Sprachmodelle. Viele betrachten KI durch die Popkultur-Brille und das Verständnis ist geprägt von Figuren wie Lt. Commander Data aus Star Trek.
Gehen wir einen Schritt zurück. In diesem Post werden wir darüber sprechen, was KI wirklich ist. Sie erfahren mehr über die wichtigste Terminologie, darüber, wie KI-Modelle funktionieren und wie KI die Welt von heute und morgen verändert.
Was ist Künstliche Intelligenz?
Laut einer im Januar 2022 von Ipsos Mori für das Weltwirtschaftsforum durchgeführten Studie, gaben nur 64 Prozent der weltweit Befragten an, genau zu wissen, was künstliche Intelligenz ist. Aus einer anderen Umfrage – diesmal vom britischen Centre for Data Ethics and Innovation – geht hervor, dass 63 Prozent der britischen Öffentlichkeit etwas mit KI anfangen, aber nur 13 Prozent KI detailliert erklären konnten.
Auf einer grundlegenden Ebene kann Künstliche Intelligenz als eine von einem Computer getroffene Entscheidung verstanden werden, deren „Intelligenz“ sich nicht von einer von einem Menschen getroffenen Entscheidung unterscheidet – unabhängig davon, wie die Entscheidung zustande kommt. Wie Alan Turing, der legendäre Informatiker und Kryptoanalytiker, es ausdrückte: „Ein Computer würde es verdienen, intelligent genannt zu werden, wenn er einen Menschen glauben machen könnte, er sei ein Mensch.“
Was ist der Unterschied zwischen KI und Machine Learning?
KI und Machine Learning werden oft fälschlicherweise als ein und dasselbe behandelt, aber es gibt Nuancen, die die beiden Konzepte voneinander unterscheiden.
KI wird definiert als ein Computerprogramm, das Entscheidungen trifft, die aufgrund ihrer „Intelligenz“ nicht von menschlichen Entscheidungen zu unterscheiden sind.
Seit den 1960er Jahren hat sich die KI zu einer sehr großen Sammlung von Algorithmen entwickelt, die verschiedene Aufgaben erfüllen können. Eine dieser Aufgaben ist das Entdecken und Erkennen von Mustern – allgemein als Machine Learning bezeichnet.
Machine Learning hat sich in den letzten 15 Jahren dank Fortschritten in einer seiner Algorithmenfamilien, den neuronalen Netzen, rasant verbessert. Mit immer leistungsstärkeren Computern können neuronale Netze „vertieft“ (oder vergrößert) werden – daher der Aufstieg von Deep Learning. Verbesserte mathematische Werkzeuge haben neuronale Netze optimiert – Techniken wie Backpropagation und die ReLU-Aktivierungsfunktion etwa ermöglichen schnelle und genaue Berechnungen.
Die Kombination dieser Fortschritte hat zur generativen KI von heute geführt, wobei die Systeme immer skalierbarer und präziser werden.
Was kann KI leisten?
KI ist ein riesiges Forschungsgebiet innerhalb der Informatik und wir nutzen KI in unserem täglichen Leben – oft ohne es zu merken. Neben den namhaften generativen KI-Tools wie ChatGPT und MidJourney (ein Modell, das aus einer einzigen Eingabeaufforderung lebendige Bilder erzeugen kann) gibt es auch die eher unauffälligen KI-Systeme, die unsere Instagram Bilder aufhübschen und uns vor Online-Bedrohungen schützen. Es würde keinen Sinn machen, alle KI-Anwendungen aufzulisten – nicht einmal die namhaftesten. Sprechen wir stattdessen in groben Zügen über die Fähigkeiten von KI. Eine Möglichkeit, das Feld zu beschreiben, ist, über die Art der Fragen zu sprechen, die KI beantworten kann:
- Was ist am besten? Ein KI-Algorithmus kann eine Reihe von Bedingungen – sowohl aktuelle als auch vorhergesagte – betrachten und daraus die optimale Vorgehensweise ableiten. Beispiele hierfür sind ein Navigationssystem, das auf Grundlage des aktuellen und erwarteten Verkehrsaufkommens die effizienteste Route nach Hause auswählt, oder eine Website, die Traffic auf Server verteilt.
- Was gehört zusammen? KI ist gut im Erkennen und Kategorisieren von Objekten und Trends. Ein selbstfahrendes Auto nutzt KI, um andere Fahrzeuge auf der Straße zu erkennen. Ein Algorithmus zur Spam-Erkennung könnte KI nutzen, um potenzielle Phishing- oder Spam-E-Mails zu identifizieren.
- Was wiederholt sich? KI kann Muster und Zusammenhänge in großen Datenmengen erkennen. Diese Fähigkeit zur Mustererkennung hat unzählige Anwendungsmöglichkeiten: von einem generativen KI-System, das kohärente Antworten auf Fragen gibt, bis hin zu einem Sicherheitssystem, das auf der Grundlage der Handlungen einer Person und ihres zuvor beobachteten Verhaltens eine potenzielle Sicherheitsbedrohung erkennt.
- Was ist der optimale nächste Schritt? KI kann eine Situation betrachten und den optimalen nächsten Schritt auf Grundlage der aktuellen Bedingungen bestimmen. Beispiele könnten ein selbstfahrendes Auto, das seine Geschwindigkeit reduziert, wenn es erkennt, dass beim vorausfahrendem Fahrzeug die Bremslichter aufleuchten, oder NPCs in Videospielen, die ihre Taktik und Position am Spielerverhalten ausrichten, sein.
Eine Anwendung kann mehrere KI-Elemente und -Modelle verwenden. Ein selbstfahrendes Auto verfügt beispielsweise über ein System, das den Verkehr kategorisiert und diese Daten interpretiert, um das Brems-, Beschleunigungs- oder Lenkverhalten des Fahrzeugs zu regeln.
Wie funktionieren KI-Systeme?
Ganz gleich, ob es sich um leistungsstarke generative KI-Chatbots wie ChatGPT oder Googles Bard oder um kleinere, problemspezifische KI-Systeme, etwa zur Bildgebung und Akkuoptimierung von Smartphones, handelt, haben KI-Systeme häufig eine gemeinsame Komponente – Daten.
Daten bilden die Grundlage, auf der ein KI-System automatisch Regeln lernt, die dazu verwendet werden können, den gewünschten Output vorherzusagen, zu generieren und zu identifizieren. Die Daten müssen gegebenenfalls kommentiert werden (siehe unseren Artikel zu Supervised Learning in Was ist ML?). Sie können aus Text-, Video-, Ton- und Bildmaterial, numerischen Werten und so weiter bestehen und vermitteln dem Algorithmus ein bestimmtes Bild der Realität – weshalb die Qualität der Daten die Qualität des Outputs stark beeinflusst.
Um effektiv zu sein, müssen die Daten eine ausreichend hohe Qualität aufweisen. Die Qualität wird durch eine Reihe von Faktoren bestimmt. Gängige Faktoren sind:
- Relevanz: Zeigt das Bild Frühstücksflocken?
- Qualität: Kann ein Mensch Frühstücksflocken auf dem Foto ohne Weiteres erkennen? Sind Lichtverhältnisse, Auflösung und Framing gut genug?
- Varianz: Zeigen die Daten die gleiche Art Frühstücksflocken auf verschiedene Weise?
- Voreingenommenheit: Sind die Daten nicht nur für Sie selbst, sondern für alle potenziellen User Ihres Systems repräsentativ?
Die Zukunft der KI ist starke KI
KI-Anwendungen fallen in eine von zwei Kategorien: Schwache KI und starke KI.
Schwache KI
Schwache KI – manchmal auch als „begrenzte KI“ oder „begrenzte künstliche Intelligenz“ bezeichnet – bezieht sich auf KI-Systeme, die sich auf eine einzige Aufgabe konzentrieren. Beispiele hierfür sind die iPhone-Kamera, die KI verwendet, um die Komposition eines Bildes zu verstehen und entsprechend anzupassen, oder der Empfehlungsalgorithmus Ihrer Liebling-Social-Media-App, der Ihre Vorlieben kennenlernt und Ihnen ähnliche Inhalte anzeigt.
Aber messen Sie den Worten „begrenzt“ oder „schwach“ nicht allzu viel Bedeutung bei. Diese Systeme sind das in den seltensten Fällen. Diese Begriffe bedeuten lediglich, dass sie sich auf eine einzige Aufgabe konzentrieren und daher nicht in der Lage sind, über diese eine Aufgabe hinaus zu lernen und zu arbeiten.
Jedes KI-System, das heute verwendet wird – einschließlich solcher, die in komplexen Use Cases, wie selbstfahrenden Autos, eingesetzt werden – fällt in diese Kategorie. Begrenzte KI-Anwendungen arbeiten, indem sie Muster in Trainingsdaten erkennen und diese dann in der realen Welt anwenden. Das KI- System in der Software des selbstfahrenden Autos von Tesla, zum Beispiel, betrachtet Aufnahmen von realen Fahrbedingungen. Anhand dieser Daten kann das System das Verhalten von Fußgängern, Radfahrern und anderen Verkehrsteilnehmern vorhersagen.
Künstliche (engl. Artificial General Intelligence, AGI)
Der Begriff Künstliche Allgemeine Intelligenz (KAI) – auch bekannt als „starke KI“ – bezieht sich auf eine hypothetische Klasse von KI-Systemen, die, ähnlich wie Menschen, die Fähigkeit besitzen, zu lernen und sich an neue Situationen anzupassen. Forscher bezeichnen diese Fähigkeit als „Generalität“.
Dies ist die künstliche Intelligenz der Science-Fiction – in der Computer, wie Lt. Commander Data, handeln, improvisieren und sich sogar wie Menschen verhalten können. Während schwache KI-Systeme dazu da sind, bestimmte Aufgaben zu erfüllen, würde eine Allgemeine Künstliche Intelligenz so etwas wie Empfindungsvermögen zeigen.
Die Definition von Empfindungsvermögen ist eine schwierige – und oft umstrittene – philosophische Herausforderung. Lassen Sie uns konkret werden. Wir sprechen in diesem Kontext von einer Maschine, die ohne Zuhilfenahme großer Mengen an Trainingsdaten oder mathematischer oder statistischer Modelle in der Lage ist, neue Aufgaben zu erlernen. Eine Maschine wäre in der Lage, die Anpassungsfähigkeit eines Menschen nachzuahmen, insbesondere wenn es um unvorhergesehene oder neue Herausforderungen geht.
Obwohl diese Definition naheliegend zu sein scheint, gibt es keine formale Definition oder Kriterien dafür, was Künstliche Allgemeine Intelligenz ist. Sarah Hooker, Leiterin des Forschungslabors Cohere for AI, beschreibt die Debatte rund um AGI als weniger technisch und vielmehr „werorientiert“.
Es gibt keinen allgemein anerkannten Test, um festzustellen, ob ein KI-System die Schwelle zur KAI erreicht, obwohl Forscher und Informatiker eine Reihe möglicher Lösungen vorgeschlagen haben.
Nils John Nilsson, der die Grundlagenforschung auf dem Gebiet der KI geleistet hat, schlug beschäftigungsorientierte Tests vor, bei denen ein System danach bewertet wird, wie gut es eine neue Aufgabe erlernen und ausführen kann – wie eine Empfangsdame, eine Rechtsanwaltsfachangestellte, ein Tellerwäscher oder ein Eheberater. Steve Wozniak, Mitbegründer von Apple, schlug vor, zu testen, ob eine KAI ein unbekanntes Haus betreten und Kaffee kochen könnte.
Wozniak: Könnte ein Computer Kaffee kochen?
Bis heute gibt es keine AGI-Systeme. Die Frage, ob solche Systeme entwickelt werden könnten – oder vielmehr: entwickelt werden sollten – should – bleibt ein heiß diskutiertes Thema im Bereich der KI.
Einige Forscher sind der Ansicht, dass KAI eine existenzielle Bedrohung für die Menschheit darstellen könnte. In diesem Szenario – das vor allem im Terminator Franchise thematisiert wird – würde eine KAI nicht nur als eine neue Klasse von Lebewesen in Erscheinung treten, sondern auch als eine, die der Menschheit evolutionstechnisch voraus ist.
Wie der Philosoph Ross Graham in einem Paper für AI & Society erklärte könnte es bei einer AGI zu einer „Intelligenzexplosion“ kommen, infolge derer sie die „Fähigkeit erlangt, sich selbst und andere Maschinen zu designen und zu manipulieren“. Wenn die AGI mächtiger wird, könnte sie „die Menschheit auslöschen, wenn sie sie als Belastung wahrnimmt“, oder durch „Gleichgültigkeit oder Zufall“.
Und dann wäre da noch die heikle Frage, ob eine AGI der Empfindung fähig wäre und daher die gleichen unantastbaren Rechte besitzen sollte wie ein auf natürlichem Wege geborener Mensch. Dieser Standpunkt wurde in einem Beitrag für die Los Angeles Times von dem Philosophen Eric Schwitzgebel und dem KI-Forscher Henry Shevlin vertreten, die argumentierten, dass AGIs, wenn sie „so etwas wie ein Bewusstsein“ erlangen sollten, eine ethische Behandlung verlangen könnten.
Sie schrieben: „Sie könnten verlangen, nicht abgeschaltet, umformatiert oder gelöscht zu werden; sie könnten darum bitten, bestimmte Aufgaben ausführen zu dürfen und andere wiederum nicht ausführen zu müssen; sie könnten auf Rechten, Freiheiten und neuen Befugnissen bestehen; sie könnten vielleicht sogar erwarten, als ebenbürtig behandelt zu werden.“ Das käme nichts weniger als dem Menschsein gleich.
Die Grenzen der KI
KI hat das Potenzial, unser Arbeits- und Privatleben zu verbessern, aber sie hat auch Grenzen und birgt Risiken, die minimiert und ausbalanciert werden müssen.
- KI-Modelle können nicht beurteilen, ob das, was sie sagen, tun oder vorhersagen, korrekt ist. Das kann nur ein Mensch. Deshalb bieten viele KI-basierte Anwendungen Nutzern die Möglichkeit, Feedback zur Genauigkeit oder Relevanz eines Ergebnisses oder einer Aktion zu geben.
- KI kann keine Kausalzusammenhänge erkennen, nur Korrelationen. Sie kann Beziehungen zwischen Ereignissen oder Objekten erkennen, aber nicht mit Sicherheit sagen, dass „X zu Y geführt hat“.
- KI kann voreingenommen sein. Ihre Fähigkeit, Schlussfolgerungen zu ziehen, basiert auf den bereitgestellten Trainingsdaten, die von einem Menschen gepflegt werden müssen, ebenso wie der verwendete Algorithmus. Dadurch kann menschliche Voreingenommenheit die Entscheidungsfindung der KI beeinflussen. Ein Beispiel wäre eine Gesichtserkennung, die nur weiße Gesichter erkennt, weil die Trainingsdaten hauptsächlich aus Bildern weißer Menschen bestehen.
- KI halluziniert mitunter. Dieses Problem tritt besonders häufig bei LLM-basierten KI-Systemen auf. Wenn das System die Antwort auf eine Frage nicht kennt, kann es vorkommen, dass es eine generiert, die zwar sinnvoll klingt, mit der Realität jedoch nichts zu tun hat.
- KI ist häufig nicht nachvollziehbar. Dieses Problem betrifft insbesondere – aber nicht ausschließlich – auf Deep Neural Networks basierende Modelle, bei denen es schwierig ist, genau nachzuvollziehen, wie ein Modell zu einer Entscheidung gelangt ist. Ein User hat lediglich Transparenz über den Input (die Trainingsdaten) und den Output (das Ergebnis).
- KI ist teuer. Entwicklung und Training eines ausgereiften Modells kosten Millionen von Dollar. Denn KI ist rechenintensiv und erfordert häufig komplexe Hardware – wie zum Beispiel einen leistungsstarken Grafikprozessor oder KI-Beschleuniger –, um skaliert und schnell zu arbeiten. Einige Unternehmen (insbesondere Tesla und Google) entwickeln sogar ihre eigenen Spezialchips für KI-Aufgaben, was die Kosten weiter in die Höhe treibt.
- Ai is ungerecht. Sie wirkt sich unverhältnismäßig negativ auf vulnerable Bevölkerungsgruppen aus.
Viele dieser Probleme können – und werden vielleicht auch – durch künftige Fortschritte in der KI-Technologie gelöst werden. Andere werden durch die Menschen verursacht, die die Modelle konzipiert haben. Aber auch diese Probleme sind nicht unüberwindbar.
Ein Lösungsansatz besteht darin, KI-Projekte transparenter zu gestalten, sodass externe Stakeholder die Möglichkeit haben, die Zusammensetzung von Trainingsdaten zu überprüfen oder Feedback zu den Zielen, der Entwicklung und den Ergebnissen eines Projekts zu geben.
Ein anderer Ansatz, der von OpenAI, dem Entwickler von ChatGPT, besteht darin, Schutzmaßnahmen in den Trainingsprozess einzubauen. Zu diesen Schutzmaßnahmen gehören die Festlegung von Grenzen für das Standardverhalten eines Modells und die Festlegung von „Werten“, die in groben Zügen definieren, wie eine KI arbeiten und welche Auswirkungen sie auf die Gesellschaft haben sollte. Darüber hinaus möchte OpenAI auch betroffenen Dritten die Möglichkeit geben, Feedback zum Standardverhalten und den Grenzen eines KI-Systems zu geben.
Eine weitere – aus der Security-Welt entlehnte – Strategie sieht vor, dass Unternehmen „Red-Team“-Tests an ihren Algorithmen durchzuführen. Bei diesen Tests wird versucht, den Algorithmus dazu zu bringen, etwas Unangemessenes zu tun oder zu sagen. Indem sie die Schwachstellen eines KI-Systems identifizieren, können Unternehmen das Risiko eines tatsächlichen Schadens minimieren.
Die Zukunft der KI liegt in unser aller Hand
Die meisten Menschen, die zum ersten Mal ein generatives KI-System verwenden, sind schlichtweg verblüfft. Es fällt schwer, sich nicht von der Vorstellung beeindrucken zu lassen, dass ein Computer Gedichte schreibt, komplexe Konzepte erklärt oder surrealistische Kunstwerke erschafft.
Und wir stehen erst am Anfang unserer Reise. Mit immer schnelleren Computern und immer ausgereifteren KI-Modellen wird künstliche Intelligenz mehr und mehr zu einem zentralen Bestandteil unseres Alltags werden. Für viele ist sie das bereits.
KI wird mehr Verantwortung und damit auch mehr Risiken übernehmen. Die Vorstellung, dass ein Computer einen eines Tages von der Arbeit nach Hause fährt oder Röntgenbilder interpretiert klingt nicht mehr nach Science Fiction, sondern wie die Beschreibung einer Welt, die immer näher rückt.
Aber bevor dies geschieht, müssen wir eine Kultur der KI-Governance und Transparenz fördern, in der die Verantwortlichen für den durch ihre KI-Systeme verursachten Schaden geradestehen. Das schiere Potenzial der KI muss von ebenso robusten Schutzmaßnahmen flankiert werden. Die Gesellschaft muss vor dem Missbrauch von KI und vor unbeabsichtigten Schäden, die durch die Voreingenommenheit von KI entstehen können, geschützt werden. Dies lässt sich vielleicht am besten dadurch bewerkstelligen, dass jeder versteht, was KI ist – von der Funktionsweise dieser Modelle bis hin zu ihren Möglichkeiten und Grenzen. Wenn die Menschen die Mechanismen der KI verstehen, können sie beurteilen, ob sie ihr vertrauen können.
Laut der Association for the Advancement of Artificial Intelligence (der weltweit größten wissenschaftlichen Gesellschaft, die sich mit KI-Forschung befasst), ist eine „breite Beteiligung“ aller Teile der Gesellschaft – von Regierungen über Technologieunternehmen bis hin zu zivilgesellschaftlichen Organisationen – Voraussetzung für eine maximal gewinnbringende KI-Nutzung.
„Zivilgesellschaftliche Organisationen und ihre Mitglieder sollten ihre Meinung zu gesellschaftlichen Einflüssen und Ansprüchen äußern. Regierungen und Unternehmen können ebenfalls eine wichtige Rolle spielen [und] sicherstellen, dass Wissenschaftler über ausreichende Ressourcen verfügen, um an großen Modellen zu forschen, die interdisziplinäre soziotechnische Forschung zu KI und ihren breiteren Auswirkungen unterstützen, Risk Assessment Best Practices fördern, Anwendungen mit Augenmaß regulieren und der kriminellen Nutzung von KI einen Riegel vorschieben. Technologieunternehmen sind dazu aufgerufen, Mittel und Wege zu finden, universitären KI-Forschern Zugang zu unternehmenseigenen KI-Modellen, Ressourcen und Expertise ermöglichen.“
Wenn die Gesellschaft als Ganzes KI versteht und sieht, dass sie sowohl gut reguliert als auch verlässlich ist, wird sie ihr vertrauen. Und dieses Vertrauen ist – wie der Scientific American bereits im Jahr 2018 deutlich gemacht hat – entscheidend dafür, dass KI ihr volles Potenzial entfalten kann.