Der Technologiekonzern hat seine Grundsätze zur Entwicklung künstlicher Intelligenz (KI) angepasst. Googles Muttergesellschaft hat das bisherige Verbot aufgehoben, KI für die Entwicklung von Waffen und Überwachungssystemen einzusetzen. Damit hat Alphabet langjährige Prinzipien geändert.
Alphabet überarbeitete seine Richtlinien zur KI-Nutzung und strich dabei einen Abschnitt, der bisher Anwendungen ausschloss, die „wahrscheinlich Schaden verursachen“.
In einem Blogbeitrag verteidigte Google diese Entscheidung. Das Unternehmen argumentierte, dass Firmen und demokratische Regierungen gemeinsam an einer KI arbeiten sollten, die „die nationale Sicherheit unterstützt“.
„Wir glauben, dass Demokratien die Führung bei der KI-Entwicklung übernehmen sollten – geleitet von Werten wie Freiheit, Gleichheit und Menschenrechten“, schrieb Google. „Unternehmen, Regierungen und Organisationen, die diese Werte teilen, sollten gemeinsam KI schaffen, die Menschen schützt, globales Wachstum fördert und die nationale Sicherheit unterstützt.“
Kontroverse um KI-Nutzung in Militär und Überwachung
Unter KI-Experten und Fachleuten gibt es eine Debatte über die Regulierung der Technologie. Dabei geht es unter anderem um die Frage, in welchem Maße wirtschaftliche Interessen die Richtung der KI-Entwicklung bestimmen dürfen. Ebenso wird diskutiert, wie man Risiken für die Menschheit am besten begrenzen kann.
Besonders umstritten ist der Einsatz von KI auf dem Schlachtfeld und für Überwachungszwecke.
Der Blogbeitrag wurde von James Manyika, Senior Vice President, und Demis Hassabis, Leiter des KI-Labors Google DeepMind, verfasst. Sie erklärten, dass die 2018 veröffentlichten KI-Grundsätze aktualisiert werden mussten, da sich die Technologie weiterentwickelt habe.
„Milliarden Menschen nutzen KI in ihrem Alltag. KI ist eine universelle Technologie geworden, die zahlreiche Organisationen und Einzelpersonen zur Entwicklung von Anwendungen einsetzen“, heißt es im Beitrag. „Was einst ein Nischenthema in der Forschung war, ist heute eine Technologie, die ebenso allgegenwärtig ist wie Mobiltelefone und das Internet.“
Alphabet entwickelt daher grundlegende KI-Prinzipien, die gemeinsame Strategien leiten sollen, hieß es weiter.
Von „Don’t be evil“ zu „Do the right thing“
Schon lange vor der aktuellen Diskussion um KI-Ethik hatten Googles Gründer Sergei Brin und Larry Page das Firmenmotto „Don’t be evil“ (Sei nicht böse) verkündet.
Nach der Umstrukturierung des Unternehmens unter dem Dach von Alphabet Inc im Jahr 2015 wurde das Motto in „Do the right thing“ (Tue das Richtige) geändert.
Seitdem haben Google-Mitarbeiter wiederholt gegen Entscheidungen des Managements protestiert. 2018 verlängerte das Unternehmen keinen Vertrag mit dem US-Verteidigungsministerium, nachdem tausende Angestellte eine Petition unterzeichnet hatten und mehrere Rücktritte folgten.
Sie befürchteten, dass das „Project Maven“ ein erster Schritt zur tödlichen Nutzung von KI sein könnte.
Der Blog wurde kurz vor Alphabets Jahresabschlussbericht veröffentlicht. Die Finanzzahlen fielen schwächer aus als erwartet und führten zu einem Kursrückgang der Aktie.
Trotz eines Umsatzanstiegs von 10 % im Bereich digitale Werbung – vor allem durch Ausgaben im Rahmen der US-Wahlen – verfehlte Alphabet die Markterwartungen.
Das Unternehmen kündigte an, in diesem Jahr 75 Milliarden US-Dollar (60 Milliarden Euro) für KI-Projekte auszugeben. Diese Investition übertraf die Erwartungen der Analysten an der Wall Street um 29 %.
Alphabet investiert in die Infrastruktur für KI, die KI-Forschung und Anwendungen wie KI-gestützte Suchfunktionen.