Technology

KI beherrscht die Sprache. Sollen wir glauben, was er schreibt?

Da die GPT-3-Flüssigkeit jedoch viele Beobachter verblüfft hat, hat der Ansatz des großen Sprachmodells in den letzten Jahren auch erhebliche Kritik auf sich gezogen. Einige Skeptiker argumentieren, dass Software nur zu blinder Nachahmung fähig ist – die syntaktischen Muster der menschlichen Sprache nachahmen, aber nicht in der Lage ist, eigene Ideen zu generieren oder komplexe Entscheidungen zu treffen, eine grundlegende Einschränkung, die verhindern wird, dass der LLM-Ansatz jemals zu etwas wie menschlicher Intelligenz heranreift . . Für diese Kritiker ist GPT-3 nur die neueste großartige Einrichtung in der langen Geschichte des KI-Hypes, die Forschungsgelder und Aufmerksamkeit auf das lenkt, was sich letztendlich als Sackgasse erweisen wird, und andere vielversprechende Ansätze zur Reife verhindert. Andere Kritiker glauben, dass Software wie GPT-3 für immer anfällig für Vorurteile, Propaganda und Fehlinformationen in den Daten bleiben wird, auf denen sie trainiert wird, was bedeutet, dass es immer unverantwortlich sein wird, sie für mehr als Salontricks zu verwenden.

Wo auch immer Sie sich in dieser Debatte befinden, das Tempo der jüngsten Verbesserungen bei großen Sprachmodellen macht es schwer vorstellbar, dass sie in den kommenden Jahren nicht kommerziell angewendet werden. Und das wirft die Frage auf, wie sie – und in diesem Fall der kopflose Fortschritt der KI – in die Welt entlassen werden sollen. Beim Aufstieg von Facebook und Google haben wir gesehen, wie die Dominanz in einem neuen Technologiefeld schnell zu einer erstaunlichen Macht über die Gesellschaft führen kann, und künstliche Intelligenz droht in ihren endgültigen Auswirkungen sogar noch transformativer zu sein als soziale Medien. Was ist die richtige Art von Organisation, um etwas von solch einem Umfang und Ehrgeiz aufzubauen und zu besitzen, mit solchen Versprechungen und einem solchen Missbrauchspotenzial?

Oder sollen wir es überhaupt bauen?

Die Ursprünge von OpenAI geht auf den Juli 2015 zurück, als sich eine kleine Gruppe von Weltklasse-Technologieexperten zu einem privaten Abendessen im Rosewood Hotel an der Sand Hill Road, dem symbolischen Herzen des Silicon Valley, versammelte. Das Abendessen fand inmitten von zwei jüngsten Entwicklungen in der Welt der Technologie statt, einer positiven und einer besorgniserregenderen. Einerseits haben radikale Fortschritte in der Rechenleistung – und einige neue Entdeckungen im Design neuronaler Netze – eine spürbare Aufregung im Bereich des maschinellen Lernens geschaffen; man hatte das Gefühl, dass der lange „KI-Winter“, Jahrzehnte, in denen das Gebiet seiner frühen Beliebtheit nicht gerecht werden konnte, endlich aufzutauen begonnen hatte. Eine Gruppe an der University of Toronto trainierte ein Programm namens AlexNet, um Klassen von Objekten auf Fotografien (Hunde, Schlösser, Traktoren, Tische) mit einer Genauigkeit zu identifizieren, die weitaus größer ist als bei jedem neuronalen Netzwerk zuvor. Google stellte schnell die Macher von AlexNet ein, übernahm gleichzeitig DeepMind und startete seine eigene Initiative namens Google Brain. Die allgemeine Einführung intelligenter Assistenten wie Siri und Alexa hat gezeigt, dass selbst geskriptete Agenten Verbraucherhits sein können.

Aber im selben Zeitraum veränderte sich die öffentliche Einstellung gegenüber Big Tech grundlegend, und einst wurden beliebte Unternehmen wie Google oder Facebook wegen ihrer fast monopolistischen Macht, ihrer Verbreitung von Verschwörungstheorien und ihrer unerbittlichen Ablenkung kritisiert. nach algorithmischen Feeds. Auf Textseiten und auf der TED-Bühne sind langjährige Ängste vor den Gefahren der künstlichen Intelligenz aufgetaucht. Nick Bostrom von der University of Oxford hat sein Buch „Superintelligence“ veröffentlicht, in dem er eine Reihe von Szenarien vorstellt, in denen fortschrittliche KI mit potenziell katastrophalen Folgen von den Interessen der Menschheit abweichen könnte. Ende 2014 Stephen Hawking berichtete für die BBC dass „die Entwicklung einer vollständigen künstlichen Intelligenz das Ende der Menschheit bedeuten könnte“. Es schien, als ob der Unternehmenskonsolidierungszyklus, der das Zeitalter der sozialen Medien charakterisierte, bereits mit KI stattfand, nur dass die Algorithmen diesmal nicht nur Polarisierung säen oder unsere Aufmerksamkeit an denjenigen verkaufen könnten, der am meisten bietet – sie könnten am Ende die Menschheit zerstören. Und wieder einmal deuten alle Beweise darauf hin, dass diese Macht von mehreren Megakonzernen aus dem Silicon Valley kontrolliert wird.

Die Agenda für das Abendessen in Sand Hill Road an diesem Juliabend war nichts als ehrgeizig: den besten Weg zu finden, um die KI-Forschung auf ein möglichst positives Ergebnis zu lenken und sowohl die kurzfristigen negativen Folgen der Web 2.0-Ära als auch langfristige existenzielle Bedrohungen zu vermeiden . Aus diesem Abendessen nahm eine neue Idee Gestalt an – eine, die bald zur Besessenheit von Sam Altman von Y Combinator und Greg Brockman werden sollte, der kürzlich Stripe verlassen hat. Interessanterweise war die Idee weniger technologischer als organisatorischer Natur: Wenn KI auf sichere und nützliche Weise der Welt zugänglich gemacht werden soll, sind Innovationen auf der Ebene des Managements und der Anreize sowie der Einbeziehung der Interessengruppen erforderlich. Der technische Weg zu dem, was dieser Bereich Künstliche Allgemeine Intelligenz, kurz AGI, nennt, war dem Konzern noch nicht klar. Aber besorgniserregende Vorhersagen von Bostrom und Hawking überzeugten sie davon, dass die Erlangung menschlicher Intelligenz durch KI eine erstaunliche Menge an Macht und moralischer Belastung für jeden, der es schließlich schafft, sie zu erfinden und zu kontrollieren, konsolidieren würde.

Im Dezember 2015 gab die Gruppe die Gründung einer neuen Einheit namens OpenAI bekannt. Altman unterzeichnete einen Vertrag als CEO des Unternehmens, und Brockman beaufsichtigte die Technologie. Ein weiterer Teilnehmer des Abendessens, AlexNet-Mitschöpfer Ilya Sutskever, wurde von Google als Forschungsleiter rekrutiert. (Elon Musk, der ebenfalls beim Abendessen anwesend war, trat dem Vorstand bei, verließ ihn jedoch 2018.) In Blogeintrag, Brockman und Sutskever skizzierten den Umfang ihrer Ambitionen: „OpenAI ist ein gemeinnütziges Forschungsunternehmen für künstliche Intelligenz“, schrieben sie. „Unser Ziel ist es, die digitale Intelligenz so voranzutreiben, dass sie der Menschheit als Ganzes am ehesten zugute kommt, unabhängig von der Notwendigkeit, finanzielle Erträge zu erzielen.“ Sie fügten hinzu: „Wir glauben, dass künstliche Intelligenz eine Erweiterung des individuellen menschlichen Willens sein und im Geiste der Freiheit so weit und gleichmäßig wie möglich verteilt werden sollte.“

Die Gründer von OpenAI würden a veröffentlichen öffentliche Urkunde drei Jahre später skizzierte er die Grundprinzipien der neuen Organisation. Das Dokument wurde leicht als nicht ganz so subtiles Eintauchen in Googles Slogan „Don’t Be Evil“ aus den Anfängen interpretiert, in dem anerkannt wurde, dass die Maximierung des sozialen Nutzens – und die Minimierung des Schadens – bei neuen Technologien nicht immer eine einfache Berechnung ist. Während Google und Facebook durch Closed-Source- und proprietäre Netzwerkalgorithmen eine globale Dominanz erlangt haben, haben die Gründer von OpenAI versprochen, den anderen Weg zu gehen und neue Forschungsergebnisse und Codes frei mit der Welt zu teilen.

About the author

admin

Leave a Comment