Frauen in der KI: Dr. Rebecca Portnoff schützt Kinder vor schädlichen Deepfakes

Im Rahmen der fortlaufenden Reihe „Women in AI“ von Tech, die darauf abzielt, Akademikerinnen mit KI-Fokus und anderen ihre wohlverdiente – und überfällige – Zeit im Rampenlicht zu verschaffen, interviewte Tech Dr. Rebecca Portnoff, Vizepräsidentin für Datenwissenschaft bei die gemeinnützige Dorndas Technologien entwickelt, um Kinder vor sexuellem Missbrauch zu schützen.

Sie besuchte die Princeton University, bevor sie an der University of California, Berkeley, in Informatik promovierte. Bei Thorn, wo sie seit 2016 arbeitet, arbeitet sie sich die Karriereleiter hoch. Sie begann als ehrenamtliche Forschungswissenschaftlerin und leitet nun, acht Jahre später, ein Team, das wahrscheinlich eines der wenigen weltweit ist, das sich dem Bau von Maschinen widmet Lernen und künstliche Intelligenz, um sexuellen Missbrauch von Kindern zu stoppen, zu verhindern und zu schützen.

„Während meines Abschlussjahres in Princeton, als ich darüber nachdachte, was ich nach dem Abschluss machen sollte, empfahl mir meine Schwester die Lektüre von „Half the Sky“ von Nicholas Kristof und Sheryl WuDunn, was mich mit dem Thema sexueller Kindesmissbrauch vertraut machte“, sagte sie gegenüber Tech Sie sagte, das Buch habe sie dazu inspiriert, zu studieren, wie man in diesem Bereich etwas bewirken könne. Anschließend schrieb sie ihre Doktorarbeit und konzentrierte sich insbesondere auf den Einsatz von maschinellem Lernen und KI in diesem Bereich.

Die Mission, Kinder zu schützen

Bei Thorn hilft Portnoffs Team dabei, Opfer zu identifizieren, erneute Viktimisierung zu verhindern und die virale Verbreitung von Material über sexuellen Missbrauch zu verhindern. Letztes Jahr leitete sie die gemeinsame Safety by Design-Initiative von Thorn und All Tech Is Human, die darauf abzielt, Menschen daran zu hindern, generative KI zu nutzen, um Kindern sexuellen Schaden zuzufügen.

„Es war ein enormer Fortschritt, gemeinsam Prinzipien und Abhilfemaßnahmen zu definieren, um zu verhindern, dass generative Modelle Missbrauchsmaterial produzieren, um solches Material zuverlässiger zu erkennen und die Verbreitung jener Modelle, Dienste und Apps zu verhindern, die zur Produktion dieses Missbrauchsmaterials verwendet werden.“ Wir haben Branchenführer dazu gebracht, sich diesen Standards zu verpflichten“, erinnert sie sich. Sie sagte, sie habe viele Menschen getroffen, die sich für die Sache engagieren, „aber ich habe auch mehr graue Haare als zu Beginn.“

Der Einsatz von KI zur Erstellung nicht einvernehmlicher sexueller Bilder ist zu einer großen Diskussion geworden, insbesondere da KI-Pornogenerationen immer anspruchsvoller werden, wie Tech zuvor berichtete. Derzeit gibt es keine umfassendes Bundesgesetz Es gibt ein Gesetz, das sexuell generative KI-Bilder schützt oder verhindert, die von anderen Menschen ohne deren Zustimmung erstellt werden. Allerdings haben einzelne Bundesstaaten wie Florida, Louisiana und New Mexico ihre eigenen Gesetze erlassen, die gezielt gegen KI-Kindesmissbrauch vorgehen.

Tatsächlich sagte sie, dies sei eines der drängendsten Probleme, mit denen die KI bei ihrer Weiterentwicklung konfrontiert sei. „Jeder zehnte Minderjährige berichtet, er wisse von Fällen, in denen Gleichaltrige Nacktbilder von anderen Kindern gemacht hätten“, sagte sie.

„Wir müssen nicht in dieser Realität leben und es ist inakzeptabel, dass wir es bereits so weit kommen lassen.“ Sie sagte, es gebe jedoch Abhilfemaßnahmen, die ergriffen werden könnten, um diesen Missbrauch zu verhindern und einzudämmen. Thorn plädiert beispielsweise dafür, dass Technologieunternehmen ihre „Safety-by-Design“-Prinzipien und Abhilfemaßnahmen übernehmen und öffentlich darlegen, wie sie den Missbrauch ihrer generativen KI-Technologien und -Produkte zur Förderung des sexuellen Missbrauchs von Kindern verhindern, indem sie mit Berufsverbänden wie der kooperieren Institute of Electrical and Electronics Engineers (IEEE) und das National Institute of Standards and Technology (NIST), um die Festlegung von Standards für Unternehmen zu unterstützen, die zur Prüfung des Fortschritts verwendet werden können, und um mit politischen Entscheidungsträgern zusammenzuarbeiten, um sie darüber zu informieren, wie wichtig dies ist.

„Eine wirkungsorientierte Gesetzgebung wird notwendig sein, um alle Unternehmen und Stakeholder mit ins Boot zu holen“, sagte sie.

Als Frau in der KI arbeiten

Während sie in der KI-Entwicklung aufstieg, erinnert sich Portnoff daran, dass Menschen ihren Rat ignorierten und stattdessen darum baten, mit jemandem zu sprechen, der über einen technischen Hintergrund verfügt. „Meine Antwort? „Keine Sorge, Sie sprechen mit jemandem mit technischem Hintergrund“, sagte sie.

Sie sagte, ein paar Dinge hätten ihr geholfen, sich in einem so männerdominierten Bereich zurechtzufinden: vorbereitet zu sein, selbstbewusst zu handeln und gute Absichten anzunehmen. Wenn sie vorbereitet ist, kann sie Räume mit mehr Selbstvertrauen betreten, während sie mit Selbstvertrauen Herausforderungen neugierig und mutig meistern kann, „zuerst versuchen zu verstehen und dann verstanden zu werden“, fuhr sie fort.

„Die Annahme einer guten Absicht hilft mir, Herausforderungen mit Freundlichkeit und nicht mit Abwehrhaltung anzugehen“, sagte sie. „Wenn diese gute Absicht wirklich nicht vorhanden ist, wird sie sich irgendwann zeigen.“

Ihr Rat an Frauen, die in die KI einsteigen möchten, ist, immer an Ihre Fähigkeiten und Ihren Sinn zu glauben. Sie sagte, es sei leicht, in die Falle zu tappen und zuzulassen, dass die Annahmen, die die Leute über einen haben, das eigene Potenzial definieren, aber dass in dieser aktuellen KI-Revolution die Stimme jedes Einzelnen gebraucht werde.

„Da ML/KI immer stärker in unsere menschlichen Systeme integriert wird, müssen wir alle zusammenarbeiten, um sicherzustellen, dass dies auf eine Weise geschieht, die unser kollektives Gedeihen aufbaut und den Schwächsten unter uns Vorrang einräumt.“

Ethische KI aufbauen

Portnoff sagte, verantwortungsvolle KI habe viele Facetten, darunter die Notwendigkeit von Transparenz, Fairness, Zuverlässigkeit und Sicherheit. „Aber eines haben sie alle gemeinsam“, fuhr sie fort. „Der verantwortungsvolle Aufbau von ML/KI erfordert die Zusammenarbeit mit mehr Interessengruppen als nur Ihren Kollegen im Technologiebereich.“

Das bedeutet aktiveres Zuhören und Zusammenarbeit. „Wenn Sie einem Fahrplan für den Aufbau verantwortungsvoller KI folgen und feststellen, dass Sie dabei mit niemandem außerhalb Ihrer Organisation oder Ihrem Entwicklungsteam gesprochen haben, sind Sie wahrscheinlich auf dem falschen Weg.“

Und da Investoren weiterhin Milliarden von Dollar in KI-Startups stecken, schlug Portnoff vor, dass Investoren bereits in der Due-Diligence-Phase damit beginnen könnten, sich mit der Verantwortung zu befassen, indem sie die Verpflichtung eines Unternehmens zur Ethik prüfen, bevor sie eine Investition tätigen, und dann bestimmte Standards fordern traf. Dadurch könne „Schaden verhindert und positives Wachstum ermöglicht werden.“

„Es gibt noch viel zu tun“, sagte sie allgemein. „Und Sie können derjenige sein, der es möglich macht.“

tch-1-tech