banner
Heim / Blog / Der KI-Botschafter von Google bewegt sich auf einem schmalen Grat zwischen Hype und Untergang
Blog

Der KI-Botschafter von Google bewegt sich auf einem schmalen Grat zwischen Hype und Untergang

Jun 22, 2024Jun 22, 2024

MOUNTAIN VIEW, Kalifornien – Inmitten des aufgeregten Hypes um künstliche Intelligenz auf der jährlichen Entwicklerkonferenz von Google im Mai fiel es James Manyika zu, dem neuen Leiter für „Technologie und Gesellschaft“ des Unternehmens, über die Nachteile von KI zu sprechen.

Bevor sich Tausende von Menschen in einer Outdoor-Arena drängten, diskutierte Manyika über die Geißel gefälschter Bilder und darüber, wie KI den Rassismus und Sexismus der Gesellschaft widerspiegelt. Mit der Weiterentwicklung der Technologie würden neue Probleme auftauchen, warnte er.

Aber seien Sie versichert, dass Google einen „verantwortungsvollen Umgang mit KI“ verfolgt, sagte er der Menge. Die Worte „mutig und verantwortungsbewusst“ blitzten auf einem riesigen Bildschirm auf und ließen Manyika winzig erscheinen, während er sprach.

Der Satz ist zu Googles Motto für das KI-Zeitalter geworden, eine Art Ersatz für „Sei nicht böse“, das Mantra, das das Unternehmen 2018 aus der Präambel seines Verhaltenskodex gestrichen hat. Der Satz fasst die allgemeine Botschaft des Silicon Valley zum Thema KI zusammen , da viele der einflussreichsten Führungskräfte der Technologiebranche sich beeilen, immer leistungsfähigere Versionen der Technologie zu entwickeln, während sie gleichzeitig vor ihren Gefahren warnen und staatliche Aufsicht und Regulierung fordern.

Manyika, ein ehemaliger Technologieberater der Obama-Regierung, der in Simbabwe geboren wurde und in Oxford in KI promoviert hat, hat diese Dualität in seiner neuen Rolle als KI-Botschafter von Google angenommen. Er besteht darauf, dass die Technologie erstaunliche Vorteile für die menschliche Zivilisation bringen wird und dass Google der richtige Verwalter für diese glänzende Zukunft ist. Doch kurz nach der Entwicklerkonferenz unterzeichnete Manyika zusammen mit Hunderten von KI-Forschern eine einteilige Erklärung, in der sie warnte, dass KI ein „Risiko des Aussterbens“ darstelle, das mit „Pandemien und Atomkrieg“ vergleichbar sei.

KI sei „eine erstaunliche, leistungsstarke und transformierende Technologie“, sagte Manyika kürzlich in einem Interview. Gleichzeitig, so räumte er ein, „könnten schlimme Dinge passieren.“

Kritiker sagen, es passieren bereits schlimme Dinge. Seit seiner Veröffentlichung im vergangenen November hat ChatGPT von OpenAI Unmengen falscher Informationen erfunden, darunter einen gefälschten Skandal um sexuelle Belästigung, in dem ein echter Juraprofessor genannt wurde. Open-Source-Versionen des Stability AI-Modells „Stable Diffusion“ haben eine Flut realistischer Bilder von sexuellem Kindesmissbrauch erzeugt und die Bemühungen zur Bekämpfung realer Verbrechen untergraben. Eine frühe Version von Microsofts Bing wurde bei den Benutzern beunruhigend düster und feindselig. Und eine aktuelle Untersuchung der Washington Post ergab, dass mehrere Chatbots – darunter Googles Bard – gefährlich kalorienarme Diäten, Zigaretten und sogar Bandwürmer als Mittel zum Abnehmen empfahlen.

„Die KI-Produkte von Google, darunter auch Bard, richten bereits Schaden an. Und das ist das Problem mit „Kühnheit“ im Gegensatz zu „verantwortungsvoller“ KI-Entwicklung“, sagte Tamara Kneese, leitende Forscherin und Projektleiterin bei Data & Society, einer gemeinnützigen Organisation, die die Auswirkungen von KI untersucht.

„Große Technologieunternehmen fordern Regulierung“, sagte Kneese. „Aber gleichzeitig versenden sie Produkte schnell und ohne oder mit wenig Kontrolle.“

Regulierungsbehörden auf der ganzen Welt überlegen derzeit, wie sie die Technologie regulieren sollen, während angesehene Forscher vor längerfristigen Schäden warnen, einschließlich der Tatsache, dass die Technologie eines Tages die menschliche Intelligenz übertreffen könnte. Fast jede Woche findet auf dem Capitol Hill eine KI-fokussierte Anhörung statt.

Wenn die KI Vertrauensprobleme hat, gilt das auch für Google. Das Unternehmen hat lange darum gekämpft, Benutzer davon zu überzeugen, dass es die riesigen Datenmengen, die es aus ihren Suchverläufen und E-Mail-Posteingängen sammelt, schützen kann. Besonders wackelig ist der Ruf des Unternehmens, wenn es um KI geht: Im Jahr 2020 entließ das Unternehmen die bekannte KI-Ethikforscherin Timnit Gebru, nachdem sie einen Artikel veröffentlicht hatte, in dem sie argumentierte, dass die KI des Unternehmens aufgrund der Daten, auf denen sie trainiert wurde, mit Rassismus und Sexismus infiziert sein könnte.

Unterdessen steht der Technologieriese unter erheblichem Wettbewerbsdruck: Google brachte seinen Chatbot Anfang des Jahres auf den Markt, um aufzuholen, nachdem ChatGPT und andere Konkurrenten bereits die öffentliche Aufmerksamkeit erregt hatten. Konkurrenten wie Microsoft und eine Vielzahl gut finanzierter Start-ups sehen in KI eine Möglichkeit, Googles Einfluss auf die Internetwirtschaft zu brechen.

Manyika ist mit ruhiger Zuversicht in diesen Moment des Schnellkochtopfs eingetreten. Als Veteran der globalen Konferenzbranche ist er Mitglied einer beeindruckenden Anzahl hochrangiger Gremien, darunter des AI-Beirats des Weißen Hauses, wo er stellvertretender Vorsitzender ist. Im Juni sprach er beim Cannes Lions Festival; im April trat er bei „60 Minutes“ auf. Er präsentiert sich vor den Vereinten Nationen und ist Stammgast in Davos.

Und in jedem Interview, jedem Konferenzgespräch und jedem Blogbeitrag versichert er Googles Rolle im KI-Goldrausch und beschreibt den Ansatz des Unternehmens mit denselben drei Worten: „mutig und verantwortungsbewusst“.

Der Ausdruck „mutig und verantwortungsbewusst“ tauchte erstmals im Januar in einem Blogbeitrag auf und taucht seitdem in jedem Interview mit Führungskräften zum Thema KI und in den vierteljährlichen Finanzberichten des Unternehmens auf. Es entstand aus Gesprächen, die Monate zurückreichten, zwischen Manyika, Google-Chef Sundar Pichai und einer kleinen Gruppe anderer Führungskräfte, darunter dem jetzigen Google-Chefwissenschaftler Jeff Dean; Marian Croak, Vizepräsident des Unternehmens für verantwortungsvolle KI; und Demis Hassabis, der Leiter von DeepMind, einem KI-Start-up, das Google 2014 übernommen hat.

Kritiker haben den inhärenten Widerspruch festgestellt.

„Was bedeutet es ehrlich gesagt?“ sagte Rebecca Johnson, eine KI-Ethikforscherin an der University of Sydney, die letztes Jahr als Gastforscherin bei Google arbeitete. „Es klingt einfach wie ein Slogan.“

Auf der Entwicklerkonferenz im Mai erkannte Manyika „eine natürliche Spannung zwischen den beiden“ an. Aber er sagte: „Wir glauben, dass es nicht nur möglich, sondern sogar entscheidend ist, diese Spannung anzunehmen.“ Der einzige Weg, auf lange Sicht wirklich mutig zu sein, besteht darin, von Anfang an Verantwortung zu übernehmen.“

Manyika, 57, wuchs im segregierten Simbabwe, damals Rhodesien, auf. Diese Erfahrung zeigte ihm, wie er sagt, „die Möglichkeiten, die technologischer Fortschritt und Fortschritt für das Leben gewöhnlicher Menschen haben können“ – und machte ihn äußerst sensibel für die Gefahren.

Simbabwe wurde damals von einer autokratischen weißen Regierung regiert, die die mehrheitlich schwarze Bevölkerung des Landes brutal unterdrückte und sie vom Regierungsdienst und dem Leben in weißen Vierteln ausschloss. „Ich weiß, was ein diskriminierendes System mit Technologie anstellen kann“, sagte er und erwähnte KI-Tools wie die Gesichtserkennung. „Überlegen Sie, was sie damit hätten machen können.“

Als das Apartheidregime 1980 zusammenbrach, war Manyika eines der ersten schwarzen Kinder, das die renommierte Prince Edward School besuchte, an der Generationen der weißen herrschenden Klasse Simbabwes ausgebildet wurden. „Wir haben tatsächlich eine Polizeieskorte mitgenommen“, sagte er, was ihn damals daran erinnerte, Filme über die Aufhebung der Rassentrennung in den Vereinigten Staaten gesehen zu haben.

Manyika studierte anschließend Ingenieurwissenschaften an der Universität von Simbabwe, wo er einen Doktoranden aus Toronto traf, der sich mit künstlicher Intelligenz beschäftigte. Es war seine erste Einführung in die Wissenschaft, Maschinen zum selbstständigen Denken zu bewegen. Er erfuhr von Geoffrey Hinton, einem Forscher, der Jahrzehnte später als „Pate der KI“ bekannt wurde und an der Seite von Manyika bei Google arbeitete. Hinton arbeitete an neuronalen Netzen – einer Technologie, die auf der Idee basierte, dass Computer durch die Entwicklung von Programmen, die die Bahnen im menschlichen Gehirn lose nachahmen, zum Lernen gebracht werden könnten – und Manyika war fasziniert.

Er gewann ein Rhodes-Stipendium für ein Studium in Oxford und vertiefte sich in diese Idee, zunächst mit einem Master in Mathematik und Informatik und dann mit einem Doktortitel in KI und Robotik. Die meisten Wissenschaftler, die daran arbeiten, Computer leistungsfähiger zu machen, glaubten, neuronale Netze und KI seien schon Jahre zuvor in Verruf geraten, und Manyika sagte, seine Berater hätten ihn davor gewarnt, dies zu erwähnen, „weil Sie niemand ernst nehmen wird“.

Er schrieb seine Abschlussarbeit über den Einsatz von KI zur Verwaltung der Eingaben verschiedener Sensoren für ein Fahrzeug, was ihm eine Stelle als Gastwissenschaftler an den Jet Propulsion Labs der NASA verschaffte. Dort beteiligte er sich an der Pathfinder-Mission zur Landung des Rovers Sojourner auf dem Mars. Anschließend zogen er und seine Partnerin, die britisch-nigerianische Schriftstellerin Sarah Ladipo Manyika, ins Silicon Valley, wo er Berater für McKinsey wurde und einen Platz in der ersten Reihe der Dotcom-Blase und des darauffolgenden Absturzes hatte. Er schrieb ausführlich darüber, wie sich technische Durchbrüche auf die reale Welt auswirkten, und veröffentlichte 2011 ein Buch darüber, wie die riesigen Datenmengen, die das Internet generiert, für das Geschäft von entscheidender Bedeutung werden würden.

Im Silicon Valley sei er als „Connector“ bekannt geworden, als jemand, der eine wichtige Vorstellung vermitteln oder ein breites Spektrum an Kandidaten für eine Vorstandsposition vorschlagen kann, sagte Erik Brynjolfsson, Direktor des Digital Economy Lab in Stanford, der Manyika seit Jahren kennt. „Er hat vielleicht die beste Kontaktliste von allen in diesem Bereich“, sagte Brynjolfsson.

Sein Job brachte ihn auch in den Bann mächtiger Leute in Washington. Er begann mit hochrangigen Mitarbeitern der Obama-Regierung Gespräche über Technologie und Wirtschaft zu führen und wurde in den Beirat des Weißen Hauses für Innovation und digitale Wirtschaft berufen, wo er 2016 an der Erstellung eines Berichts für das Handelsministerium mitwirkte, in dem er davor warnte, dass KI Millionen von Arbeitsplätzen verdrängen könnte . Er trat 2017 von seinem Amt zurück, nachdem Präsident Donald Trump sich geweigert hatte, einen Protest weißer Rassisten zu verurteilen, der in Charlottesville gewalttätig wurde.

Zu diesem Zeitpunkt begann die KI-Technologie durchzustarten. In den frühen 2010er Jahren hatten Forschungen von Hinton und anderen KI-Pionieren zu großen Durchbrüchen in der Bilderkennung, Übersetzung und medizinischen Entdeckungen geführt. „Es brannte für mich darauf, noch stärker und umfassender in die Forschung und den Bereich der KI einzusteigen, denn die Dinge begannen wirklich interessant zu werden“, sagte Manyika.

Anstatt nur Trends zu recherchieren und Berichte von außen zu schreiben, wollte er bei Google sein. Er sprach mit Pichai – der zuvor versucht hatte, ihn zu rekrutieren – und nahm den Job letztes Jahr an.

Google ist wohl das herausragendste Unternehmen im Bereich KI – es hat das Feld betreten, lange bevor OpenAI ein Schimmer in Elon Musks Augen war. Vor etwa einem Jahrzehnt verstärkte das Unternehmen seine Bemühungen in diesem Bereich und startete einen teuren Talentkrieg mit anderen Technologieunternehmen, um die besten Köpfe in der KI-Forschung einzustellen. Wissenschaftler wie Hinton gaben ihre Jobs an Universitäten auf, um direkt für Google zu arbeiten, und das Unternehmen entwickelte sich bald zu einer bahnbrechenden Maschine.

Im Jahr 2017 veröffentlichten Google-Forscher einen Artikel über „Transformer“ – ein entscheidender Durchbruch, der es KI-Modellen ermöglichte, viel mehr Daten zu verarbeiten, und den Grundstein für die Technologie legte, die es der aktuellen Generation von Chatbots und Bildgeneratoren ermöglicht, professionelle Prüfungen zu bestehen und erneut zu arbeiten. Van-Gogh-Gemälde schaffen. Im selben Jahr begann Pichai, das Unternehmen bei Investoren und Mitarbeitern mit dem Motto „AI first“ zu bewerben.

Doch das Unternehmen verzichtete darauf, die Technologie öffentlich zu veröffentlichen und nutzte sie stattdessen zur Verbesserung seiner bestehenden Cash-Cow-Produkte. Wenn Sie „Film mit grünem Oger“ in die Google-Suche eingeben und die Website einen Link zu „Shrek“ ausspuckt, ist das KI. Fortschritte in der Übersetzung stehen auch in direktem Zusammenhang mit der KI-Arbeit von Google.

Dann veränderte sich der Boden unter Googles Füßen.

Im November wurde ChatGPT von OpenAI der Öffentlichkeit zugänglich gemacht, einem viel kleineren Unternehmen, das ursprünglich von Musk und anderen Technologieführern gegründet wurde, um als Gegengewicht zur KI-Dominanz der Big Tech zu fungieren. Zum ersten Mal hatten Menschen direkten Zugang zu dieser Spitzentechnologie. Der Bot erregte die Aufmerksamkeit von Verbrauchern und Technologieführern gleichermaßen und veranlasste Google, im März seine eigene Version, Bard, herauszubringen.

Monate später ist Bard in 40 Sprachen und in fast jedem Land verfügbar, das nicht auf einer US-Sanktionsliste steht. Obwohl er Millionen Menschen zur Verfügung steht, bezeichnet Google den Bot immer noch als „Experiment“, ein Eingeständnis anhaltender Probleme. Beispielsweise erfindet Bard oft falsche Informationen.

Mittlerweile hat Google einige der herausragenden KI-Forscher verloren, die es während der Talentkämpfe eingestellt hatte, darunter alle acht Autoren des Transformers-Artikels von 2017. Hinton verließ das Unternehmen im Mai und sagte, er wolle die Freiheit haben, sich über die Gefahren der KI zu äußern. Das Unternehmen untergrub auch seinen Ruf, akademische Meinungsverschiedenheiten zu fördern, indem es Gebru und andere entließ, darunter Margaret Mitchell, die vor ihrer Entlassung Mitautorin des Artikels war, den Gebru schrieb.

„Sie haben viel von dem Vertrauen verloren, dass … sie gut waren“, sagte Mitchell, jetzt Chef-Ethikwissenschaftler beim KI-Start-up Hugging Face.

Manyika setzt sich zu einem Interview und entschuldigt sich dafür, dass sie sich mit einem karierten Button-Down-Hemd und einer Anzugjacke „überkleidet“ habe. Es ist formell für San Francisco. Aber es ist die Uniform, die er bei vielen seiner öffentlichen Auftritte trägt.

Das Gespräch beginnt, wie die meisten im Silicon Valley heutzutage, damit, dass Manyika erklärt, wie aufregend der jüngste Anstieg des Interesses an KI sei. Als er zum Unternehmen kam, war KI nur ein Teil seiner Arbeit als Leiter für Technik und Gesellschaft. Die Rolle existierte vor seiner Einstellung nicht; Es ist teils Botschafter und teils interner Stratege: Manyika teilt die Botschaft von Google mit Wissenschaftlern, Denkfabriken, Medien und Regierungsbeamten und erklärt den Führungskräften von Google, wie ihre Technologie mit der übrigen Welt interagiert. Er berichtet direkt an Pichai.

Da der Ansturm auf KI das Silicon Valley und auch Google verändert hat, steht Manyika plötzlich im Mittelpunkt der wichtigsten Arbeit des Unternehmens.

„Der Zeitpunkt hätte nicht besser sein können“, sagte Kent Walker, der als Präsident für globale Angelegenheiten bei Google die Lobby- und Rechtsteams des Unternehmens leitet. Walker und Manyika haben sich mit Politikern in den Vereinigten Staaten und im Ausland getroffen, um auf die wachsende Forderung nach einer KI-Regulierung einzugehen. Manyika, sagte er, sei „für uns ein sehr aufmerksamer externer Sprecher gewesen.“

Manyikas Rolle wuchs im April erheblich, als Hassabis die Leitung der zentralen KI-Forschung im Unternehmen übernahm. Der Rest der erstklassigen Forschungsabteilung von Google ging an Manyika. Er leitet ihre Bemühungen nun auf den Klimawandel, das Gesundheitswesen, den Datenschutz und Quantencomputing sowie die KI-Verantwortung.

Trotz Googles rasantem Tempo im KI-Wettrüsten in den letzten acht Monaten bestand Manyika darauf, dass das Unternehmen Produkte nur dann auf den Markt bringt, wenn sie für die reale Welt bereit sind. Als Google beispielsweise Bard auf den Markt brachte, sagte er, dass es sich um ein älteres Modell handele, das mehr Schulungen und Optimierungen durchlaufen habe, und nicht um eine leistungsstärkere, aber unbewiesene Version.

Mutig zu sein „bedeutet nicht, sich zu beeilen“, sagte er. „Fett bedeutet für mich: Allen zugute kommen. Tue die nützlichen Dinge. Erweitern Sie die Grenzen, um dies nützlich zu machen.“

Die November-Veröffentlichung von ChatGPT führte die Öffentlichkeit in die generative KI ein. „Und ich finde das wirklich großartig“, sagte er. „Aber ich bin auch dankbar für den durchdachten und maßvollen Ansatz, den wir bei diesen Dingen weiterhin verfolgen.“

In einer früheren Version dieser Geschichte hieß es fälschlicherweise, dass Google den Satz „Sei nicht böse“ aus seinem Verhaltenskodex gestrichen habe, und beschrieb die Rolle des Präsidenten für globale Angelegenheiten Kent Walker unter anderem darin, die Kontrolle über das PR-Team des Unternehmens zu übernehmen. Google hat den Satz lediglich aus der Präambel seines Verhaltenskodex gestrichen und Walker ist nicht für die Öffentlichkeitsarbeit zuständig. Diese Geschichte wurde korrigiert.