Das A bis Z der künstlichen Intelligenz
Da künstliche Intelligenz ein immer größerer Teil unserer Welt wird, kann es leicht passieren, dass man sich im Meer der Fachsprache verliert. Aber noch nie war es so wichtig, sich zu orientieren wie heute.
KI dürfte in den kommenden Jahren einen großen Einfluss auf den Arbeitsmarkt haben (siehe: Automatisierung). Diskussionen darüber, wie man damit umgehen soll, spielen in unserer politischen Diskussion eine größere Rolle (siehe: Regulierung). Und einige seiner wichtigsten Konzepte sind Dinge, die einem in der Schule nicht beigebracht wurden (siehe: Wettbewerbsdruck).
Es kann schwierig sein, sich auf den neuesten Stand zu bringen. KI-Forschung ist kompliziert und ein Großteil der Sprache ist selbst für die Forscher selbst neu. Aber es gibt keinen Grund, warum sich die Öffentlichkeit nicht mit den großen Problemen auseinandersetzen kann, die auf dem Spiel stehen, so wie wir es mit dem Klimawandel und dem Internet gelernt haben. Um allen dabei zu helfen, sich intensiver mit der KI-Debatte auseinanderzusetzen, hat TIME ein praktisches Glossar der gebräuchlichsten Terminologie zusammengestellt.
Unabhängig davon, ob Sie ein absoluter Anfänger sind oder Ihre AGIs bereits von Ihren GPTs kennen, ist dieses A bis Z als öffentliche Ressource für alle konzipiert, die sich mit der Leistungsfähigkeit, den Versprechen und den Gefahren künstlicher Intelligenz auseinandersetzen.
AGI steht für Artificial General Intelligence – eine hypothetische Zukunftstechnologie, die wirtschaftlich produktivste Aufgaben effektiver erledigen kann als ein Mensch. Eine solche Technologie könnte auch zu neuen wissenschaftlichen Erkenntnissen führen, glauben ihre Befürworter. Unter Forschern herrscht meist Uneinigkeit darüber, ob eine AGI überhaupt möglich ist, und wenn ja, wie weit davon noch entfernt. Aber OpenAI und DeepMind – die beiden weltweit führenden KI-Forschungsorganisationen – engagieren sich beide ausdrücklich für den Aufbau von AGI. Einige Kritiker sagen, AGI sei kaum mehr als ein Marketingbegriff. (Siehe: Hype.)
Das „Ausrichtungsproblem“ ist eine der tiefgreifendsten langfristigen Sicherheitsherausforderungen in der KI. Die heutige KI ist nicht in der Lage, ihre Entwickler zu überwältigen. Aber eines Tages, so erwarten viele Forscher, könnte es soweit sein. In dieser Welt könnten die derzeitigen Methoden zur Ausbildung von KIs dazu führen, dass sie der Menschheit schaden, sei es bei der Verfolgung willkürlicher Ziele oder als Teil einer expliziten Strategie, auf unsere Kosten nach Macht zu streben. Um das Risiko zu verringern, arbeiten einige Forscher daran, die KI an menschlichen Werten auszurichten. Aber dieses Problem ist schwierig, ungelöst und noch nicht einmal vollständig verstanden. Viele Kritiker sagen, dass die Arbeit an der Lösung des Problems in den Hintergrund tritt, da geschäftliche Anreize die führenden KI-Labore dazu verleiten, ihren Fokus und ihre Rechenleistung darauf zu richten, ihre KI leistungsfähiger zu machen. (Siehe: Wettbewerbsdruck.)
Automatisierung ist der historische Prozess, bei dem menschliche Arbeit durch Maschinen ersetzt oder unterstützt wird. Neue Technologien – oder besser gesagt die Menschen, die für ihre Umsetzung verantwortlich sind – haben bereits viele menschliche Arbeiter durch Maschinen ersetzt, die keinen Lohn verlangen, vom Autoarbeiter am Fließband bis zum Verkäufer im Lebensmittelladen. Laut einem aktuellen Papier von OpenAI und einer Studie von Goldman Sachs könnte die neueste Generation von KI-Durchbrüchen dazu führen, dass viel mehr Angestellte ihren Arbeitsplatz verlieren. Fast ein Fünftel der US-Arbeiter könnten mehr als die Hälfte ihrer täglichen Arbeitsaufgaben durch ein großes Sprachmodell automatisieren, prognostizierten die OpenAI-Forscher. Weltweit könnten im nächsten Jahrzehnt 300 Millionen Arbeitsplätze automatisiert werden, prognostizieren Forscher von Goldman Sachs. Ob die Produktivitätsgewinne aus diesem Umbruch zu einem breiten Wirtschaftswachstum führen oder einfach nur zu einem weiteren Anstieg der Vermögensungleichheit führen, hängt davon ab, wie KI besteuert und reguliert wird. (Siehe: Verordnung.)
Maschinelle Lernsysteme werden als „voreingenommen“ bezeichnet, wenn die von ihnen getroffenen Entscheidungen durchweg voreingenommen oder diskriminierend sind. Es wurde festgestellt, dass KI-gestützte Verurteilungssoftware für schwarze Straftäter höhere Haftstrafen empfiehlt als für weiße, selbst bei gleichen Straftaten. Und manche Gesichtserkennungssoftware funktioniert bei weißen Gesichtern besser als bei schwarzen. Diese Fehler treten häufig auf, weil die Daten, auf denen diese Systeme trainiert wurden, soziale Ungleichheiten widerspiegeln. (Siehe: Daten.) Moderne KIs sind im Wesentlichen Musterreplikatoren: Sie nehmen große Datenmengen über ein neuronales Netzwerk auf, das lernt, Muster in diesen Daten zu erkennen. (Siehe: Neuronales Netzwerk). Wenn ein Gesichtserkennungsdatensatz mehr weiße als schwarze Gesichter enthält oder wenn frühere Strafdaten darauf hinweisen, dass schwarze Straftäter zu längeren Haftstrafen verurteilt werden als weiße, können maschinelle Lernsysteme die falschen Lehren ziehen und beginnen, diese Ungerechtigkeiten zu automatisieren.
Chatbots sind verbraucherfreundliche Schnittstellen, die von KI-Unternehmen entwickelt wurden, um Benutzern die Interaktion mit einem LLM oder großen Sprachmodell zu ermöglichen. Mit Chatbots können Benutzer ein Gespräch mit einem LLM simulieren, was oft eine effektive Möglichkeit ist, Antworten auf Fragen einzuholen. Ende 2022 startete OpenAI ChatGPT, das Chatbots in den Mainstream brachte und Google und Microsoft dazu veranlasste, zu versuchen, Chatbots in ihre Websuchangebote zu integrieren. Einige Forscher haben KI-Unternehmen aus mehreren Gründen als unverantwortlich für die überstürzte Einführung von Chatbots bezeichnet. Da sie ein Gespräch simulieren, können Chatbots den Nutzern vorgaukeln, dass sie sich mit einem Lebewesen unterhalten, was zu emotionalem Stress führen kann. Und Chatbots können sowohl falsche Informationen „halluzinieren“ als auch die Vorurteile in ihren Trainingsdaten nachplappern. (Siehe Halluzination und Voreingenommenheit.) „ChatGPT produziert möglicherweise ungenaue Informationen über Personen, Orte oder Fakten“, heißt es in einer Warnung unter dem Texteingabefeld.
Mehrere der größten Technologieunternehmen der Welt sowie eine ganze Reihe von Start-ups kämpfen darum, als Erste leistungsstärkere KI-Tools auf den Markt zu bringen, die ihnen Belohnungen wie Risikokapitalinvestitionen, Medienaufmerksamkeit und Benutzeranmeldungen ermöglichen. KI-Sicherheitsforscher befürchten, dass dies einen Wettbewerbsdruck erzeugt – oder einen Anreiz für Unternehmen, so viele Ressourcen wie möglich für die Leistungssteigerung ihrer KIs aufzuwenden und dabei das noch junge Feld der Ausrichtungsforschung zu vernachlässigen. Einige Unternehmen nutzen den Wettbewerbsdruck als Argument dafür, mehr Ressourcen für die Schulung leistungsfähigerer Systeme aufzuwenden, mit der Begründung, dass ihre KI sicherer sei als die ihrer Konkurrenten. Der Wettbewerbsdruck hat bereits zu katastrophalen KI-Einführungen geführt, wobei überstürzte Systeme wie Microsofts Bing (unterstützt von OpenAIs GPT-4) Feindseligkeit gegenüber Benutzern zeigen. Sie verheißen auch nichts Gutes für eine Zukunft, in der KI-Systeme potenziell stark genug sind, um nach Macht zu streben.
Weiterlesen: Das KI-Wettrüsten verändert alles
Rechenleistung, oft einfach als „Rechenleistung“ bezeichnet, ist eine der drei wichtigsten Zutaten für das Training eines maschinellen Lernsystems. (Für die anderen beiden siehe: Daten und neuronale Netze.) Rechenleistung ist praktisch die Energiequelle, die ein neuronales Netz antreibt, während es Muster in seinen Trainingsdaten „lernt“. Im Allgemeinen gilt: Je mehr Rechenleistung zum Trainieren eines großen Sprachmodells verwendet wird, desto höher ist seine Leistung bei vielen verschiedenen Testtypen. (Siehe: Skalierungsgesetze und neue Fähigkeiten.) Moderne KI-Modelle erfordern für das Training enorme Mengen an Rechenleistung und damit elektrischer Energie. Während KI-Unternehmen die Kohlenstoffemissionen ihrer Modelle normalerweise nicht offenlegen, haben unabhängige Forscher geschätzt, dass das Training von OpenAIs GPT-3 dazu geführt hat, dass über 500 Tonnen Kohlendioxid in die Atmosphäre gepumpt wurden, was den jährlichen Emissionen von etwa 35 US-Bürgern entspricht. Je größer die KI-Modelle werden, desto größer werden diese Zahlen. Der gebräuchlichste Computerchip zum Trainieren modernster KI ist die Grafikverarbeitungseinheit (siehe: GPU).
Daten sind im Wesentlichen die Rohzutat, die für die Entwicklung von KI erforderlich ist. Zusammen mit Computern und neuronalen Netzen ist es eine der drei entscheidenden Zutaten für das Training eines maschinellen Lernsystems. Riesige Datenbestände, sogenannte Datensätze, werden gesammelt und in neuronale Netze eingespeist, die mithilfe von Supercomputern lernen, Muster zu erkennen. Je mehr Daten ein System trainiert, desto zuverlässiger sind oft seine Vorhersagen. Aber auch reichlich vorhandene Daten müssen vielfältig sein, sonst können KIs falsche Schlussfolgerungen ziehen. Die leistungsstärksten KI-Modelle der Welt werden oft mit riesigen Datenmengen aus dem Internet trainiert. Diese riesigen Datensätze enthalten häufig urheberrechtlich geschütztes Material, was Unternehmen wie Stability AI – dem Hersteller von Stable Diffusion – zu Klagen geführt hat, in denen behauptet wird, ihre KIs seien unrechtmäßig auf das geistige Eigentum anderer angewiesen. Und weil das Internet ein schrecklicher Ort sein kann, enthalten große Datensätze oft auch giftiges Material wie Gewalt, Pornografie und Rassismus, das – sofern es nicht aus dem Datensatz entfernt wird – dazu führen kann, dass sich KIs unrechtmäßig verhalten.
Oft müssen menschliche Annotatoren Daten kennzeichnen oder beschreiben, bevor sie zum Trainieren eines maschinellen Lernsystems verwendet werden können. Bei selbstfahrenden Autos beispielsweise müssen menschliche Arbeiter von Dashcams aufgenommene Videos mit Anmerkungen versehen und dabei Formen um Autos, Fußgänger, Fahrräder usw. zeichnen, um dem System beizubringen, welche Teile der Straße welche sind. Diese Arbeit wird oft an prekär beschäftigte Auftragnehmer im globalen Süden ausgelagert, von denen viele knapp über Armutslöhnen bezahlt werden. Manchmal kann die Arbeit traumatisierend sein, wie im Fall von kenianischen Arbeitern, die Texte ansehen und kennzeichnen mussten, in denen Gewalt, sexuelle Inhalte und Hassreden beschrieben wurden, um ChatGPT darin zu schulen, solche Inhalte zu vermeiden.
Neue hochmoderne Bilderzeugungstools wie Dall-E und Stable Diffusion basieren auf Diffusionsalgorithmen: einer speziellen Art von KI-Design, die den jüngsten Boom der KI-generierten Kunst vorangetrieben hat. Diese Tools werden auf riesigen Datensätzen beschrifteter Bilder trainiert. Im Wesentlichen lernen sie Muster zwischen Pixeln in Bildern und die Beziehungen dieser Muster zu Wörtern, die zu ihrer Beschreibung verwendet werden. Das Endergebnis ist, dass ein Diffusionsmodell ein solches Bild von Grund auf erstellen kann, wenn es mit einer Reihe von Wörtern wie „ein Bär, der auf einem Einrad fährt“ konfrontiert wird. Dies geschieht durch einen Schritt-für-Schritt-Prozess, der mit einer Leinwand voller zufälligem Rauschen beginnt und dann die Pixel in diesem Bild schrittweise ändert, um dem Bild, das die Trainingsdaten vermuten lassen, besser zu ähneln, wie ein „Bär auf einem Einrad“ aussehen sollte. Diffusionsalgorithmen sind mittlerweile so weit fortgeschritten, dass sie schnell und einfach fotorealistische Bilder erzeugen können. Während Tools wie Dall-E und Midjourney Schutzmaßnahmen gegen böswillige Eingabeaufforderungen enthalten, gibt es Open-Source-Verbreitungstools ohne Leitplanken. Die Verfügbarkeit dieser Tools hat Forscher dazu veranlasst, sich Sorgen über die Auswirkungen von Diffusionsalgorithmen auf Desinformation und gezielte Belästigung zu machen.
Wenn eine KI, beispielsweise ein großes Sprachmodell, unerwartete Fähigkeiten oder Verhaltensweisen zeigt, die nicht von ihren Erstellern in sie programmiert wurden, werden diese Verhaltensweisen als „emergente Fähigkeiten“ bezeichnet. Neue Fähigkeiten entstehen tendenziell, wenn KIs auf mehr Rechenleistung und Daten trainiert werden. Ein gutes Beispiel ist der Unterschied zwischen GPT-3 und GPT-4. Diese KIs basieren auf sehr ähnlichen zugrunde liegenden Algorithmen; Der Hauptunterschied besteht darin, dass GPT-4 auf viel mehr Rechenleistung und Daten trainiert wurde. Untersuchungen deuten darauf hin, dass GPT-4 ein weitaus leistungsfähigeres Modell ist, mit der Fähigkeit, funktionalen Computercode zu schreiben, in mehreren akademischen Prüfungen bessere Leistungen als der Durchschnitt eines Menschen zu erbringen und Fragen, die komplexes Denken oder eine Theorie des Geistes erfordern, korrekt zu beantworten. Neue Fähigkeiten können gefährlich sein, insbesondere wenn sie erst entdeckt werden, nachdem eine KI in die Welt entlassen wurde. (Siehe: Wettbewerbsdruck.) Beispielsweise hat GPT-4 die aufkommende Fähigkeit gezeigt, Menschen dazu zu verleiten, Aufgaben auszuführen, die einem verborgenen Ziel dienen, wie Forscher kürzlich herausgefunden haben.
Selbst die Leute, die ein großes Sprachmodell erstellen, können oft nicht genau erklären, warum sich ihr System so verhält, weil seine Ergebnisse das Ergebnis von Millionen komplexer mathematischer Gleichungen sind. Eine allgemeine Möglichkeit, das Verhalten großer Sprachmodelle zu beschreiben, besteht darin, dass es sich um sehr leistungsfähige Werkzeuge zur automatischen Vervollständigung handelt, die sich hervorragend für die Vorhersage des nächsten Wortes in einer Sequenz eignen. Wenn sie scheitern, scheitern sie oft in einer Weise, die Voreingenommenheiten oder Lücken in ihren Trainingsdaten offenbart. (Siehe: Stochastische Papageien.) Obwohl diese Erklärung genau beschreibt, was diese Werkzeuge sind, erklärt sie nicht vollständig, warum sich LLMs auf die seltsame Weise verhalten, die sie tun. Wenn die Entwickler dieser Systeme ihr Innenleben untersuchen, sehen sie lediglich eine Reihe von Dezimalpunktzahlen, die den Gewichten verschiedener „Neuronen“ entsprechen, die während des Trainings im neuronalen Netzwerk angepasst wurden. Die Frage, warum ein Modell eine bestimmte Ausgabe liefert, ist analog zur Frage, warum ein menschliches Gehirn zu einem bestimmten Zeitpunkt einen bestimmten Gedanken denkt. Der Kern der kurzfristigen Risiken, etwa die Diskriminierung bestimmter sozialer Gruppen durch KIs, und der längerfristigen Risiken, etwa der Möglichkeit, dass KIs ihren Programmierern vorgaukeln, weniger gefährlich zu sein, als sie tatsächlich sind, liegt in der Unfähigkeit selbst des talentiertesten Computers der Welt Wissenschaftler können genau erklären, warum sich ein bestimmtes KI-System so verhält – geschweige denn, wie man es ändern kann.
Mit dem Wachstum des KI-Ökosystems entsteht eine Kluft zwischen großen, leistungsstarken Allzweck-KIs, sogenannten Foundation-Modellen oder Basismodellen, und den spezifischeren Apps und Tools, die auf ihnen basieren. GPT-3.5 ist beispielsweise ein Basismodell. ChatGPT ist ein Chatbot: eine Anwendung, die auf GPT-3.5 aufbaut und über eine spezielle Feinabstimmung verfügt, um gefährliche oder kontroverse Eingabeaufforderungen abzulehnen. Foundation-Modelle sind uneingeschränkt und leistungsstark, aber auch teuer in der Schulung, da sie auf riesige Mengen an Rechenleistung angewiesen sind, die sich normalerweise nur große Unternehmen leisten können. Unternehmen, die die Kontrolle über Foundation-Modelle haben, können Beschränkungen dafür festlegen, wie andere Unternehmen sie für nachgelagerte Anwendungen nutzen – und für den Zugriff beliebige Gebühren erheben. Da KI für die Weltwirtschaft immer wichtiger wird, scheinen die relativ wenigen großen Technologieunternehmen, die die Kontrolle über die Gründungsmodelle haben, bereit zu sein, übergroßen Einfluss auf die Richtung der Technologie zu haben und Beiträge für viele Arten von KI-gestützter Wirtschaftstätigkeit einzutreiben.
Mittlerweile vielleicht das berühmteste Akronym im Bereich KI, und kaum jemand weiß, wofür es steht. GPT ist die Abkürzung für „Generative Pre-trained Transformer“, was im Wesentlichen eine Beschreibung der Art des Tools ist, um das es sich bei ChatGPT handelt. „Generativ“ bedeutet, dass es neue Daten, in diesem Fall Text, ähnlich seinen Trainingsdaten erstellen kann. „Vorab trainiert“ bedeutet, dass das Modell bereits auf der Grundlage dieser Daten optimiert wurde, sodass es nicht jedes Mal, wenn es dazu aufgefordert wird, die ursprünglichen Trainingsdaten erneut prüfen muss. Und „Transformer“ ist ein leistungsstarker neuronaler Netzwerkalgorithmus, der besonders gut darin ist, Beziehungen zwischen langen Datenketten, beispielsweise Sätzen und Absätzen, zu lernen.
GPUs oder Grafikprozessoren sind eine Art Computerchip, der sich sehr effektiv für das Training großer KI-Modelle eignet. KI-Labore wie OpenAI und DeepMind verwenden Supercomputer, die aus vielen GPUs oder ähnlichen Chips bestehen, um ihre Modelle zu trainieren. Oft werden diese Supercomputer durch Geschäftspartnerschaften mit Technologiegiganten bereitgestellt, die über eine etablierte Infrastruktur verfügen. Ein Teil der Investition von Microsoft in OpenAI umfasst den Zugang zu seinen Supercomputern; DeepMind unterhält eine ähnliche Beziehung zu seiner Muttergesellschaft Alphabet. Ende 2022 schränkte die Biden-Regierung den Verkauf leistungsstarker GPUs an China ein, die am häufigsten für das Training von High-End-KI-Systemen verwendet werden, da die Befürchtungen zunahmen, dass Chinas autoritäre Regierung KI in einem neuen Kalten Krieg gegen die USA einsetzen könnte.
Einer der eklatantesten Mängel großer Sprachmodelle und der darauf basierenden Chatbots ist ihre Tendenz, falsche Informationen zu halluzinieren. Tools wie ChatGPT geben nachweislich nicht existierende Artikel als Zitate für ihre Behauptungen zurück, geben unsinnige medizinische Ratschläge und erfinden falsche Angaben über Personen. Später stellte sich heraus, dass öffentliche Demonstrationen der Chatbots Bing von Microsoft und Bard von Google selbstbewusste Behauptungen falscher Informationen enthielten. Halluzinationen treten auf, weil LLMs darauf trainiert sind, Muster in ihren Trainingsdaten zu wiederholen. Während diese Trainingsdaten Bücher aus der Literatur- und Wissenschaftsgeschichte umfassen, wäre selbst eine Aussage, die ausschließlich aus diesen Korpora stammt, nicht unbedingt korrekt. Um das Chaos noch zu verstärken, enthalten LLM-Datensätze in der Regel auch Gigabytes an Texten aus Webforen wie Reddit, wo die Standards für sachliche Genauigkeit natürlich viel niedriger sind. Die Verhinderung von Halluzinationen ist ein ungelöstes Problem – und eines, das Technologieunternehmen, die das Vertrauen der Öffentlichkeit in KI stärken wollen, jede Menge Kopfzerbrechen bereitet.
Ein zentrales Problem bei der öffentlichen Diskussion über KI ist laut einer populären Denkschule die Rolle des Hypes – oder der Tendenz von KI-Laboren, die Öffentlichkeit in die Irre zu führen, indem sie die Fähigkeiten ihrer Modelle übertreiben, sie vermenschlichen und Ängste vor einer KI schüren Apokalypse. Das sei eine Form der Irreführung, so das Argument, die die Aufmerksamkeit – auch der Regulierungsbehörden – von den tatsächlichen und anhaltenden Schäden ablenke, die KI bereits für marginalisierte Gemeinschaften, Arbeitnehmer, das Informationsökosystem und die wirtschaftliche Gleichheit anrichte. „Wir stimmen nicht darin überein, dass unsere Rolle darin besteht, uns an die Prioritäten einiger weniger privilegierter Individuen anzupassen und an das, was sie aufbauen und verbreiten wollen“, heißt es in einem kürzlich erschienenen Brief mehrerer prominenter Forscher und Kritiker des KI-Hypes. „Wir sollten Maschinen bauen, die für uns arbeiten.“
Bei der Intelligenzexplosion handelt es sich um ein hypothetisches Szenario, in dem eine KI, nachdem sie ein bestimmtes Intelligenzniveau erreicht hat, in der Lage wird, Macht über ihr eigenes Training auszuüben und im Zuge ihrer Selbstverbesserung schnell an Macht und Intelligenz gewinnt. In den meisten Versionen dieser Idee verlieren Menschen die Kontrolle über die KI und in vielen Fällen stirbt die Menschheit aus. Diese Idee, die auch als „Singularität“ oder „rekursive Selbstverbesserung“ bekannt ist, ist einer der Gründe dafür, dass viele Menschen, darunter auch KI-Entwickler, existenzielle Sorgen über das aktuelle Tempo der Steigerung der KI-Fähigkeiten haben.
Siehe: Automatisierung
Wenn über aktuelle KI-Fortschritte gesprochen wird, geht es meist um große Sprachmodelle (LLMs). GPT-4 von OpenAI und BERT von Google sind zwei Beispiele für prominente LLMs. Im Wesentlichen handelt es sich dabei um riesige KIs, die auf riesigen Mengen menschlicher Sprache trainiert sind, die größtenteils aus Büchern und dem Internet stammen. Diese KIs lernen gemeinsame Muster zwischen Wörtern in diesen Datensätzen und werden dadurch überraschend gut darin, menschliche Sprache zu reproduzieren. Je mehr Daten und Rechenleistung LLMs trainieren, desto mehr neuartige Aufgaben können sie tendenziell bewältigen. (Siehe: Neue Funktionen und Skalierungsgesetze.) Vor kurzem haben Technologieunternehmen damit begonnen, Chatbots wie ChatGPT, Bard und Bing auf den Markt zu bringen, um Benutzern die Interaktion mit LLMs zu ermöglichen. Obwohl sie zu vielen Aufgaben fähig sind, können Sprachmodelle auch anfällig für schwerwiegende Probleme wie Vorurteile und Halluzinationen sein.
Wie viele andere Unternehmen beschäftigen KI-Unternehmen Lobbyisten, um in den Machtorganen präsent zu sein und Einfluss auf die für die KI-Regulierung zuständigen Gesetzgeber zu nehmen, um sicherzustellen, dass neue Regeln ihre Geschäftsinteressen nicht beeinträchtigen. In Europa, wo der Text eines Entwurfs eines KI-Gesetzes diskutiert wird, hat ein Branchenverband, der KI-Unternehmen vertritt, darunter Microsoft (der größte Investor von OpenAI), argumentiert, dass Strafen für den riskanten Einsatz eines KI-Systems nicht in erster Linie für das KI-Unternehmen gelten sollten, das ein KI-System entwickelt hat Basismodell (wie GPT-4), von dem Risiken letztendlich ausgehen, sondern an jedes nachgelagerte Unternehmen, das dieses Modell lizenziert und auf einen riskanten Anwendungsfall anwendet. Auch KI-Unternehmen haben großen Soft-Power-Einfluss. Während das Weiße Haus in Washington neue Richtlinien zur Bewältigung der Risiken von KI abwägt, hat Präsident Biden Berichten zufolge die Stiftung des ehemaligen CEO von Google, Eric Schmidt, damit beauftragt, seine Regierung in Technologiepolitik zu beraten.
Maschinelles Lernen ist ein Begriff, der beschreibt, wie die meisten modernen KI-Systeme erstellt werden. Es beschreibt Techniken zum Aufbau von Systemen, die aus großen Datenmengen „lernen“, im Gegensatz zum klassischen Rechnen, bei dem Programme fest codiert sind, um einem bestimmten Satz von Anweisungen zu folgen, die von einem Programmierer geschrieben wurden. Die mit Abstand einflussreichste Familie maschineller Lernalgorithmen ist das neuronale Netzwerk.
Das Wort „Modell“ ist eine Abkürzung für jedes einzelne KI-System, unabhängig davon, ob es sich um ein Basismodell oder eine darauf aufbauende App handelt. Beispiele für KI-Modelle sind ChatGPT und GPT-4 von OpenAI, Bard und LaMDA von Google, Bing von Microsoft und LLaMA von Meta.
Das Mooresche Gesetz ist eine langjährige Beobachtung in der Informatik und wurde erstmals 1965 aufgestellt. Es besagt, dass die Anzahl der Transistoren, die auf einen Chip passen – ein guter Indikator für die Rechenleistung – exponentiell wächst und sich etwa alle zwei Jahre verdoppelt. Während einige argumentieren, dass das Mooresche Gesetz in seiner strengsten Definition tot sei, führen die Fortschritte in der Mikrochip-Technologie von Jahr zu Jahr immer noch zu einem steilen Anstieg der Leistung der schnellsten Computer der Welt. Dies wiederum bedeutet, dass KI-Unternehmen im Laufe der Zeit tendenziell in der Lage sind, immer größere Mengen an Rechenleistung zu nutzen, wodurch ihre modernsten KI-Modelle immer leistungsfähiger werden. (Siehe: Skalierungsgesetze.)
Ein multimodales System ist eine Art KI-Modell, das mehr als eine Art von Medien als Eingabe empfangen kann – etwa Text und Bilder – und mehr als eine Art von Signalen ausgeben kann. Beispiele für multimodale Systeme sind Gato von DeepMind, das noch nicht öffentlich veröffentlicht wurde. Nach Angaben des Unternehmens kann Gato wie ein Chatbot in Dialoge treten, aber auch Videospiele spielen und Anweisungen an einen Roboterarm senden. OpenAI hat Demonstrationen durchgeführt, die zeigen, dass GPT-4 multimodal ist und Text in einem Eingabebild lesen kann. Diese Funktionalität steht der Öffentlichkeit jedoch derzeit nicht zur Verfügung. Multimodale Systeme werden es der KI ermöglichen, direkter auf die Welt einzuwirken – was zusätzliche Risiken mit sich bringen könnte, insbesondere wenn ein Modell falsch ausgerichtet ist.
Neuronale Netze sind mit Abstand die einflussreichste Familie maschineller Lernalgorithmen. Neuronale Netze sind so konzipiert, dass sie die Struktur des menschlichen Gehirns nachahmen. Sie enthalten Knoten – analog zu Neuronen im Gehirn –, die Berechnungen mit Zahlen durchführen, die über Verbindungswege zwischen ihnen weitergeleitet werden. Man kann sich neuronale Netze so vorstellen, dass sie Eingaben (siehe: Trainingsdaten) und Ausgaben (Vorhersagen oder Klassifizierungen) haben. Während des Trainings werden große Datenmengen in das neuronale Netzwerk eingespeist, das dann in einem Prozess, der viel Rechenleistung erfordert, die Berechnungen der Knoten immer wieder optimiert. Über einen cleveren Algorithmus werden diese Anpassungen in eine bestimmte Richtung vorgenommen, sodass die Ergebnisse des Modells zunehmend Mustern in den Originaldaten ähneln. Wenn mehr Rechenleistung zum Trainieren eines Systems zur Verfügung steht, kann es über mehr Knoten verfügen, was die Identifizierung abstrakterer Muster ermöglicht. Mehr Rechenleistung bedeutet auch, dass die Pfade zwischen den Knoten mehr Zeit haben, sich ihren optimalen Werten, auch „Gewichte“ genannt, anzunähern, was zu Ausgaben führt, die die Trainingsdaten getreuer darstellen.
Unter Open-Sourcing versteht man die Praxis, die Entwürfe von Computerprogrammen (einschließlich KI-Modellen) über das Internet frei zugänglich zu machen. Es wird immer seltener, dass Technologieunternehmen ihre Basismodelle als Open Source veröffentlichen, da diese Modelle leistungsfähiger, wirtschaftlich wertvoller und potenziell gefährlicher werden. Allerdings gibt es eine wachsende Gemeinschaft unabhängiger Programmierer, die an Open-Source-KI-Modellen arbeiten. Das Open-Sourcing von KI-Tools kann es der Öffentlichkeit ermöglichen, direkter mit der Technologie zu interagieren. Aber es kann Benutzern auch ermöglichen, von Unternehmen auferlegte Sicherheitsbeschränkungen zu umgehen (häufig zum Schutz ihres Rufs), was zu zusätzlichen Risiken führen kann, beispielsweise wenn böswillige Akteure Bilderzeugungstools missbrauchen, um Frauen mit sexualisierten Deepfakes ins Visier zu nehmen. Im Jahr 2022 sagte Demis Hassabis, CEO von DeepMind, gegenüber TIME, er glaube, dass das Risiko durch KI bedeute, dass die Kultur der Branche, ihre Ergebnisse offen zu veröffentlichen, möglicherweise bald enden müsse, und im Jahr 2023 brach OpenAI mit Konventionen und lehnte es ab, Informationen darüber genau zu veröffentlichen, wie GPT-4 funktioniert wurde geschult und verwies auf den Wettbewerbsdruck und das Risiko, schlechte Akteure zu begünstigen. Einige Forscher haben diese Praktiken jedoch kritisiert und argumentiert, dass sie die öffentliche Kontrolle verringern und das Problem des KI-Hypes verschlimmern.
Die harmlose Büroklammer hat in einigen Bereichen der KI-Sicherheitsgemeinschaft eine übergroße Bedeutung erlangt. Es ist Gegenstand des „Paperclip Maximizer“, einem einflussreichen Gedankenexperiment über das existentielle Risiko, das KI für die Menschheit darstellen könnte. Stellen Sie sich eine KI vor, die so programmiert ist, dass sie das einzige Ziel erreicht, die Anzahl der von ihr produzierten Büroklammern zu maximieren, so das Gedankenexperiment. Alles schön und gut, es sei denn, diese KI erhält die Fähigkeit, ihre eigenen Fähigkeiten zu verbessern (siehe: Intelligenzexplosion). Die KI könnte zu dem Schluss kommen, dass sie, um mehr Büroklammern zu produzieren, Menschen daran hindern sollte, sie auszuschalten, da dies die Anzahl der Büroklammern verringern würde, die sie produzieren kann. Sicher vor menschlichen Eingriffen kann die KI dann beschließen, alle ihr zur Verfügung stehenden Kräfte und Rohstoffe zu nutzen, um Büroklammerfabriken zu bauen und so sowohl die Natur als auch die menschliche Zivilisation zu zerstören. Das Gedankenexperiment verdeutlicht die überraschende Schwierigkeit, KI selbst auf ein scheinbar einfaches Ziel auszurichten, ganz zu schweigen von einer komplexen Reihe menschlicher Werte.
Quanten sind ein experimentelles Gebiet der Informatik, das darauf abzielt, die Quantenphysik zu nutzen, um die Anzahl der Berechnungen zu steigern, die ein Computer pro Sekunde durchführen kann. Diese zusätzliche Rechenleistung könnte dazu beitragen, die Größe der modernsten KI-Modelle weiter zu erhöhen, was Auswirkungen sowohl auf die Leistung dieser Systeme als auch auf ihre gesellschaftliche Wirkung hätte.
Die CEOs der beiden weltweit führenden KI-Labore OpenAI und DeepMind haben jeweils erklärt, dass sie eine Umverteilung der Gewinne aus der künstlichen allgemeinen Intelligenz zumindest teilweise begrüßen würden. Demis Hassabis, CEO von DeepMind, sagte TIME im Jahr 2022, dass er die Idee eines universellen Grundeinkommens befürworte und dass die Vorteile der KI „so vielen Menschen wie möglich zugutekommen sollten – im Idealfall der gesamten Menschheit“. Sam Altman, CEO von OpenAI, hat seine Erwartung zum Ausdruck gebracht, dass die KI-Automatisierung die Arbeitskosten senken wird, und er hat eine Umverteilung „eines Teils“ des durch KI entstehenden Reichtums durch höhere Steuern auf Grundstücke und Kapitalgewinne gefordert. Weder der CEO hat gesagt, wann diese Umverteilung beginnen soll noch wie weitreichend sie sein soll. In der Charta von OpenAI heißt es, dass die „vorrangige treuhänderische Pflicht gegenüber der Menschheit“ liegt, die Umverteilung des Reichtums wird jedoch nicht erwähnt. Die Muttergesellschaft von DeepMind, Alphabet, ist eine öffentliche Körperschaft mit der rechtlichen Verantwortung, im finanziellen Interesse ihrer Aktionäre zu handeln.
Red-Teaming ist eine Methode zum Stresstest von KI-Systemen, bevor sie öffentlich eingesetzt werden. Gruppen von Fachleuten („rote Teams“) versuchen gezielt, eine KI dazu zu bringen, sich auf unerwünschte Weise zu verhalten, um zu testen, wie Systeme in der Öffentlichkeit schief gehen könnten. Wenn ihre Erkenntnisse befolgt werden, können sie Technologieunternehmen dabei helfen, Probleme vor der Markteinführung anzugehen.
In den USA gibt es keine maßgeschneiderte Gesetzgebung, die sich mit den Risiken künstlicher Intelligenz befasst. Die Biden-Administration hat im Jahr 2022 einen „Entwurf für eine KI-Gesetzgebung“ herausgegeben, in der KI-gesteuerte Fortschritte in Wissenschaft und Gesundheit begrüßt werden, es heißt jedoch, dass KI bestehende Ungleichheiten nicht verschärfen, diskriminieren, die Privatsphäre beeinträchtigen oder ohne deren Wissen gegen Menschen vorgehen sollte. Aber der Entwurf ist weder ein Gesetz, noch ist er rechtsverbindlich. In Europa erwägt die Europäische Union den Entwurf eines KI-Gesetzes, das strengere Regeln für Systeme vorschreiben würde, die als riskanter gelten. Auf beiden Seiten des Atlantiks schreitet die Regulierung viel langsamer voran als die Geschwindigkeit des KI-Fortschritts – und keine bedeutende globale Gerichtsbarkeit verfügt derzeit über Regeln, die KI-Unternehmen dazu zwingen würden, ein bestimmtes Maß an Sicherheitstests zu erfüllen, bevor sie ihre Modelle veröffentlichen die Öffentlichkeit. „Die Frage, die wir uns über künstliche Intelligenz – und jede andere neue Technologie – stellen sollten, ist, ob es privaten Unternehmen erlaubt ist, unkontrollierte Experimente an der gesamten Bevölkerung durchzuführen, ohne irgendwelche Leitplanken oder Sicherheitsnetze“, schrieb Roger McNamee, ein Investor aus dem Silicon Valley, der zum Kritiker, kürzlich in TIME. „Sollte es für Unternehmen legal sein, Produkte für die breite Masse freizugeben, bevor sie nachgewiesen haben, dass diese Produkte sicher sind?“
Reinforcement Learning ist eine Methode zur Optimierung eines KI-Systems durch die Belohnung erwünschter Verhaltensweisen und die Bestrafung unerwünschter Verhaltensweisen. Dies kann von menschlichen Mitarbeitern (bevor ein System bereitgestellt wird) oder von Benutzern (nachdem es der Öffentlichkeit zugänglich gemacht wird) durchgeführt werden, die die Ergebnisse eines neuronalen Netzwerks nach Eigenschaften wie Hilfsbereitschaft, Wahrhaftigkeit oder Anstößigkeit bewerten. Wenn Menschen an diesem Prozess beteiligt sind, spricht man von Reinforcement Learning with Human Feedback (RLHF). RLHF ist derzeit eine der beliebtesten Methoden von OpenAI zur Lösung des Ausrichtungsproblems. Einige Forscher haben jedoch Bedenken geäußert, dass RLHF möglicherweise nicht ausreicht, um das zugrunde liegende Verhalten eines Systems vollständig zu ändern, sondern leistungsstarke KI-Systeme nur oberflächlich betrachtet höflicher oder hilfsbereiter erscheinen lässt. (Siehe: Shoggoth.) Reinforcement Learning wurde von DeepMind entwickelt, das die Technik erfolgreich einsetzte, um Spiel-KIs wie AlphaGo so zu trainieren, dass sie eine höhere Leistung als menschliche Meister erbringen.
Einfach ausgedrückt besagen die Skalierungsgesetze, dass die Leistung eines Modells mit zunehmender Trainingsdatenmenge, Rechenleistung und der Größe seines neuronalen Netzwerks zunimmt. Das bedeutet, dass ein KI-Unternehmen vor dem Training eines großen Sprachmodells genau vorhersagen kann, wie viel Rechenleistung und Daten es voraussichtlich benötigen wird, um beispielsweise bei einem schriftlichen Englischtest auf High-School-Niveau ein bestimmtes Kompetenzniveau zu erreichen. „Unsere Fähigkeit, diese Art präziser Vorhersagen zu treffen, ist in der Geschichte der Software ungewöhnlich und selbst in der Geschichte der modernen KI-Forschung ungewöhnlich“, schrieb Sam Bowman, ein technischer Forscher am KI-Labor Anthropic, in einem kürzlich erschienenen Preprint-Artikel. „Es ist auch ein leistungsstarkes Instrument zur Förderung von Investitionen, da es [Forschungs- und Entwicklungs-]Teams ermöglicht, Modelltrainingsprojekte vorzuschlagen, die viele Millionen Dollar kosten, mit der begründeten Gewissheit, dass diese Projekte erfolgreich wirtschaftlich wertvolle Systeme hervorbringen werden.“
Ein prominentes Meme in KI-Sicherheitskreisen vergleicht Large Language Models (LLMs) mit „Shoggoths“ – unfassbar schrecklichen außerirdischen Bestien, die aus dem Universum des Horrorautors HP Lovecraft des 20. Jahrhunderts stammen. Das Meme verbreitete sich während des Bing/Sydney-Debakels Anfang 2023, als der Bing-Chatbot von Microsoft ein seltsames, flüchtiges Alter Ego enthüllte, das Benutzer missbrauchte und bedrohte. In dem Meme, das sich kritisch mit der Technik des Reinforcement Learning with Human Feedback (RLHF) auseinandersetzt, werden LLMs oft als Shoggoths dargestellt, die eine kleine Smiley-Maske tragen. Die Maske soll die freundliche, aber manchmal auch zarte Persönlichkeit repräsentieren, mit der diese Modelle den Benutzer begrüßen. Die Implikation des Memes besteht darin, dass RLHF zwar zu einer freundlichen oberflächlichen Persönlichkeit führt, aber wenig dazu beiträgt, die zugrunde liegende fremdartige Natur eines LLM zu ändern. „Diese Systeme werden, je leistungsfähiger sie werden, nicht weniger fremdartig“, sagte Connor Leahy, CEO des KI-Sicherheitsunternehmens Conjecture, im Februar gegenüber TIME. „Wenn überhaupt, setzen wir ihnen eine nette kleine Maske mit einem Smiley auf. Wenn Sie es nicht zu weit drücken, bleibt das Smiley-Gesicht eingeschaltet. Aber dann gibt man ihm einen [unerwarteten] Impuls, und plötzlich sieht man diese gewaltige Schattenseite des Wahnsinns, der seltsamen Denkprozesse und des eindeutig nichtmenschlichen Verständnisses.“
Der Begriff „stochastische Papageien“, der in einer Forschungsarbeit aus dem Jahr 2020 geprägt wurde, ist zu einer einflussreichen Kritik an großen Sprachmodellen geworden. In dem Artikel wurde argumentiert, dass LLMs lediglich sehr leistungsstarke Vorhersagemaschinen seien, die lediglich versuchen, das nächste Wort in einer Sequenz auf der Grundlage von Mustern in ihren Trainingsdaten einzufügen – oder es nachzuplappern – und somit keine echte Intelligenz darstellen. Die Autoren des Papiers kritisierten den Trend, dass KI-Unternehmen LLMs überstürzt auf immer größeren Datensätzen aus dem Internet trainieren, um vermeintliche Fortschritte bei Kohärenz oder Sprachfähigkeiten zu erzielen. Dieser Ansatz, so argumentierte das Papier, birgt viele Risiken, einschließlich der Übernahme der Voreingenommenheit und Toxizität des Internets als Ganzes durch LLMs. Marginalisierte Gemeinschaften, so schrieben die Autoren, würden die größten Opfer dieser Rasse sein. Das Papier stellte in seiner Kritik auch die Umweltkosten für das Training von KI-Systemen in den Vordergrund. (Siehe: Berechnen.)
Überwachtes Lernen ist eine Technik zum Trainieren von KI-Systemen, bei der ein neuronales Netzwerk lernt, Vorhersagen oder Klassifizierungen auf der Grundlage eines Trainingsdatensatzes mit gekennzeichneten Beispielen zu treffen. (Siehe: Datenkennzeichnung.) Die Kennzeichnungen helfen der KI, beispielsweise das Wort „Katze“ mit dem Bild einer Katze zu verknüpfen. Bei ausreichend gekennzeichneten Beispielen von Katzen kann das System ein neues Bild einer Katze betrachten, das nicht in seinen Trainingsdaten vorhanden ist, und sie korrekt identifizieren. Überwachtes Lernen ist nützlich für den Aufbau von Systemen wie selbstfahrenden Autos, die Gefahren auf den Straßen korrekt identifizieren müssen, und für Inhaltsmoderationsklassifizierer, die versuchen, schädliche Inhalte aus sozialen Medien zu entfernen. Diese Systeme haben oft Probleme, wenn sie auf Dinge stoßen, die in ihren Trainingsdaten nicht gut dargestellt sind; Insbesondere bei selbstfahrenden Autos können diese Pannen tödlich sein. (Siehe auch: Unüberwachtes Lernen und verstärkendes Lernen.)
Siehe: Neuronales Netzwerk
Im Jahr 1950 machte sich der Informatiker Alan Turing daran, eine Frage zu beantworten: „Können Maschinen denken?“ Um das herauszufinden, entwickelte er einen Test, den er das Nachahmungsspiel nannte: Kann ein Computer jemals einen Menschen davon überzeugen, dass er mit einem anderen Menschen und nicht mit einer Maschine spricht? Der Turing-Test, wie er genannt wurde, war eine schlampige Methode zur Beurteilung der Maschinenintelligenz. Wenn ein Computer den Test bestehen könnte, könnte man sagen, dass er „denkt“ – wenn nicht auf die gleiche Weise wie ein Mensch, dann zumindest auf eine Weise, die der Menschheit helfen würde, alle möglichen hilfreichen Dinge zu tun. Da Chatbots in den letzten Jahren leistungsfähiger geworden sind, sind sie in der Lage geworden, den Turing-Test zu bestehen. Aber ihre Designer und zahlreiche KI-Ethiker warnen, dass dies nicht bedeute, dass sie in irgendeiner Weise mit einem Menschen vergleichbar „denken“. Turing, der vor der Erfindung des Personalcomputers schrieb, wollte tatsächlich nicht die philosophische Frage beantworten, was menschliches Denken ist oder ob unser Innenleben von einer Maschine nachgebildet werden kann; Stattdessen brachte er ein Argument vor, das damals radikal war: Digitale Computer seien möglich, und es gebe kaum Gründe zu der Annahme, dass sie, mit dem richtigen Design und genügend Leistung, eines Tages nicht in der Lage sein werden, alle möglichen Aufgaben auszuführen von Aufgaben, die einst ausschließlich der Menschheit vorbehalten waren.
Unüberwachtes Lernen ist neben überwachtem Lernen und verstärkendem Lernen eine der drei Hauptmethoden, mit denen ein neuronales Netzwerk trainiert werden kann. Im Gegensatz zum überwachten Lernen, bei dem ein KI-Modell aus sorgfältig gekennzeichneten Daten lernt, wird beim unüberwachten Lernen eine Menge unbeschrifteter Daten in das neuronale Netzwerk eingespeist, das ohne die Hilfe von Bezeichnungen nach Mustern in diesen Daten sucht. Dies ist die Methode, die hauptsächlich zum Trainieren großer Sprachmodelle wie GPT-3 und GPT-4 verwendet wird, die auf riesigen Datensätzen unbeschrifteten Textes basieren. Einer der Vorteile des unbeaufsichtigten Lernens besteht darin, dass es die Aufnahme weitaus größerer Datenmengen ermöglicht und so die Zeit- und Ressourcenengpässe umgeht, die die Zusammenstellung von Teams aus menschlichen Etikettierern bei einem maschinellen Lernprojekt mit sich bringen kann. Es hat jedoch auch Nachteile, wie z. B. die erhöhte Wahrscheinlichkeit, dass in Trainingsdaten Verzerrungen und schädliche Inhalte vorhanden sind, da die menschliche Aufsicht eingeschränkt ist. Um diese Probleme zu minimieren, wird unbeaufsichtigtes Lernen häufig in Verbindung mit überwachtem Lernen (z. B. durch die Entwicklung von KI-Tools zur Erkennung und Entfernung schädlicher Inhalte aus den Ausgaben eines Modells) und verstärkendem Lernen verwendet, mit dem Grundlagenmodelle, die zunächst unbeaufsichtigt trainiert wurden, verbessert werden können Feinabstimmung mit menschlichem Feedback.
Siehe: Ausrichtung
Siehe: Neuronales Netzwerk
Unter X-Risiko oder existenziellem Risiko im Zusammenhang mit KI versteht man die Vorstellung, dass fortgeschrittene künstliche Intelligenz wahrscheinlich zum Aussterben der Menschheit führen könnte. Sogar Forscher, die an der Entwicklung von KI-Systemen arbeiten, halten dies für eine reale Möglichkeit und gehen im Durchschnitt von einer 10-prozentigen Wahrscheinlichkeit aus, dass die Unfähigkeit des Menschen, zukünftige fortschrittliche KIs zu kontrollieren, zum Aussterben der Menschheit führen würde, so eine Umfrage unter 738 KI-Forschern aus dem Jahr 2022. (Siehe auch: Intelligenzexplosion, Büroklammern, Ausrichtung.)
Eine der großen Einschränkungen der KI besteht darin, dass etwas, das nicht in den Trainingsdaten eines Systems dargestellt ist, vom System oft nicht erkannt wird. Wenn eine Giraffe auf die Straße läuft, weiß Ihr selbstfahrendes Auto möglicherweise nicht, dass es ihr ausweichen soll, weil es noch nie zuvor eine Giraffe gesehen hat. Und wenn eine Schießerei in einer Schule live in den sozialen Medien übertragen wird, könnte es für die Plattform schwierig sein, sie sofort zu entfernen, weil das Filmmaterial nicht mit Kopien von Massenschießereien übereinstimmt, die sie zuvor gesehen hat. Zero-Shot-Learning ist ein aufstrebendes Gebiet, das versucht, dieses Problem zu lösen, indem es an KI-Systemen arbeitet, die versuchen, aus ihren Trainingsdaten etwas zu extrapolieren, um etwas zu identifizieren, das sie zuvor noch nicht gesehen haben. (Siehe auch: Überwachtes Lernen.)
Schreiben Sie anBilly Perrigo unter [email protected].
Amerika hat den Höhepunkt der Therapie erreichtHilfe bei Waldbränden auf HawaiiFrances TiafoeDer Kongress kann die Sicherheitsvorschriften für Flugzeuge nicht aushebelnWen ich durch den Einkauf bei Walmart verletzeBücher, Filme, Fernsehen,MusikWie Smartphones die Generation Z zerstörtenIhre Zeit wertSchreiben Sie an