Deepfakes – veränderte Inhalte, die mithilfe von KI erstellt wurden – haben sich als großes Problem herausgestellt. In den letzten Wochen machten Deepfake-Videos einiger indischer Prominenter in den sozialen Medien die Runde. Google investiert viel in KI-Technologie und ist sich der damit verbundenen Gefahren bewusst. In einem Blogbeitrag sagte ein leitender Google-Manager, dass das Unternehmen eine Vielzahl von Sicherheitsrisiken testet, darunter auch das Aufkommen neuer Formen von Sicherheitsrisiken KI-generiertfotorealistische, synthetische Audio- oder Videoinhalte, sogenannte „synthetische Medien“.
Michaela Browning, Vizepräsidentin, Regierungsangelegenheiten und öffentliche Ordnung, Google Asien-Pazifik, sagte, dass es „kein Allheilmittel“ zur Bekämpfung von Deep Fakes und KI-generierten Fehlinformationen gebe. „Es erfordert eine gemeinsame Anstrengung, die offene Kommunikation, eine strenge Risikobewertung und proaktive Strategien zur Risikominderung umfasst“, sagte sie in dem Blogbeitrag. Am Beispiel von YouTube sagte Browning, dass Google eine Kombination aus Menschen und Technologien des maschinellen Lernens einsetzt, um Community-Richtlinien durchzusetzen, wobei Prüfer bei Google auf der ganzen Welt tätig sind. „In unseren Systemen helfen KI-Klassifikatoren dabei, potenziell rechtsverletzende Inhalte in großem Umfang zu erkennen, und Prüfer arbeiten daran, zu bestätigen, ob Inhalte tatsächlich gegen Richtliniengrenzen verstoßen haben. KI trägt dazu bei, sowohl die Geschwindigkeit als auch die Genauigkeit unserer Content-Moderationssysteme kontinuierlich zu steigern“, sagte sie.
Zusammenarbeit ist der Weg nach vorne
In Indien arbeitet Google mit politischen Entscheidungsträgern, Forschern und Experten zusammen, um wirksame Lösungen zu entwickeln. Google hat eine Million US-Dollar an Zuschüssen in das Indian Institute of Technology in Madras investiert, um das erste multidisziplinäre Zentrum seiner Art für verantwortungsvolle KI einzurichten. „Dieses Zentrum wird gemeinsame Anstrengungen fördern – an denen nicht nur Forscher, sondern auch Fachexperten, Entwickler, Community-Mitglieder, politische Entscheidungsträger und mehr beteiligt sind –, um die KI richtig zu machen und sie im indischen Kontext zu lokalisieren“, sagte sie.
Darüber hinaus arbeitet der Technologieriese auch mit der indischen Regierung zusammen, um „eine Diskussion mit mehreren Interessengruppen zu führen, die mit unserer Verpflichtung übereinstimmt, diese Herausforderung gemeinsam anzugehen und einen verantwortungsvollen Umgang mit KI sicherzustellen.“ Laut Browning und Google kann ein Multistakeholder-Ansatz und die Förderung einer verantwortungsvollen KI-Entwicklung dafür sorgen, dass KI mehr zum Guten als zum Schlechten eingesetzt wird.
Michaela Browning, Vizepräsidentin, Regierungsangelegenheiten und öffentliche Ordnung, Google Asien-Pazifik, sagte, dass es „kein Allheilmittel“ zur Bekämpfung von Deep Fakes und KI-generierten Fehlinformationen gebe. „Es erfordert eine gemeinsame Anstrengung, die offene Kommunikation, eine strenge Risikobewertung und proaktive Strategien zur Risikominderung umfasst“, sagte sie in dem Blogbeitrag. Am Beispiel von YouTube sagte Browning, dass Google eine Kombination aus Menschen und Technologien des maschinellen Lernens einsetzt, um Community-Richtlinien durchzusetzen, wobei Prüfer bei Google auf der ganzen Welt tätig sind. „In unseren Systemen helfen KI-Klassifikatoren dabei, potenziell rechtsverletzende Inhalte in großem Umfang zu erkennen, und Prüfer arbeiten daran, zu bestätigen, ob Inhalte tatsächlich gegen Richtliniengrenzen verstoßen haben. KI trägt dazu bei, sowohl die Geschwindigkeit als auch die Genauigkeit unserer Content-Moderationssysteme kontinuierlich zu steigern“, sagte sie.
Zusammenarbeit ist der Weg nach vorne
In Indien arbeitet Google mit politischen Entscheidungsträgern, Forschern und Experten zusammen, um wirksame Lösungen zu entwickeln. Google hat eine Million US-Dollar an Zuschüssen in das Indian Institute of Technology in Madras investiert, um das erste multidisziplinäre Zentrum seiner Art für verantwortungsvolle KI einzurichten. „Dieses Zentrum wird gemeinsame Anstrengungen fördern – an denen nicht nur Forscher, sondern auch Fachexperten, Entwickler, Community-Mitglieder, politische Entscheidungsträger und mehr beteiligt sind –, um die KI richtig zu machen und sie im indischen Kontext zu lokalisieren“, sagte sie.
Darüber hinaus arbeitet der Technologieriese auch mit der indischen Regierung zusammen, um „eine Diskussion mit mehreren Interessengruppen zu führen, die mit unserer Verpflichtung übereinstimmt, diese Herausforderung gemeinsam anzugehen und einen verantwortungsvollen Umgang mit KI sicherzustellen.“ Laut Browning und Google kann ein Multistakeholder-Ansatz und die Förderung einer verantwortungsvollen KI-Entwicklung dafür sorgen, dass KI mehr zum Guten als zum Schlechten eingesetzt wird.