Laut einem Bericht von Windows Central wurde das KI-Tool mit 60.000 Stunden englischer Sprachdaten und kleinen Clips bestimmter Stimmen trainiert, um Inhalte zu generieren. Der Bericht sagt auch, dass einige Aufnahmen zwar natürlich klingen, andere aber so klingen, als wären sie von einem Roboter erstellt oder maschinell erzeugt worden.
Es wird auch berichtet, dass VALL-E, wenn es mit einem größeren Probensatz geliefert wird, in der Lage sein könnte, realistischere Proben zu erstellen.
Auswirkungen von VALL-E
Während VALL-E viele positive Anwendungsfälle hat, beispielsweise in der Produktionsindustrie, stellt es auch eine Bedrohung dar. Zum Beispiel könnten Leute VALL-E verwenden, um Spam-Anrufe echt klingen zu lassen und ahnungslose Benutzer zu betrügen. Auch Politiker oder Personen mit sozialer Schlagkraft können imitiert werden. Es stellt auch ein Sicherheitsrisiko dar, wenn ein Sprachpasswort benötigt wird.
Darüber hinaus kann VALL-E auch Sprecher, die in Filmen und Hörbüchern arbeiten, arbeitslos machen. Beruhigend ist, dass VALL-E noch nicht allgemein verfügbar ist, was gut so ist. Microsoft hat eine Ethikerklärung zur Verwendung von VALL-E.
Bedenken im Zusammenhang mit ChatGPT
Ähnliche berufsbezogene Bedenken wurden geäußert, kurz nachdem ChatGPT von OpenAI nach seiner Einführung im letzten Jahr über Nacht zu einer Sensation wurde.
Vor kurzem, Chester WisniewskiHauptforschungswissenschaftler bei Sophos sagte, da ChatGPT die Online-Welt weiterhin fasziniert, können wir es uns nicht leisten, den Sicherheitsaspekt davon zu ignorieren.
„ChatGPT ist im Moment ein interessantes Experiment, aber seine breitere Verfügbarkeit scheint sicherlich neue Herausforderungen mit sich zu bringen. Ich spiele damit seit seiner öffentlichen Verfügbarkeit im November 2022 und es ist ziemlich einfach, es davon zu überzeugen, bei der Erstellung sehr überzeugender Phishing-Köder zu helfen und auf eine dialogorientierte Art und Weise zu reagieren, die Romantik-Betrug und geschäftliche E-Mail-Kompromittierungsangriffe vorantreiben könnte. OpenAI scheint zu versuchen, die risikoreichen Aktivitäten durch Missbrauch zu begrenzen, aber die Katze ist jetzt aus dem Sack“, sagte Wisniewski.
„Heute besteht das größte Risiko für die englischsprachige Bevölkerung, aber es ist wahrscheinlich nur eine Frage der Zeit, bis es verfügbar ist, um glaubwürdigen Text in den am häufigsten gesprochenen Sprachen der Welt zu erstellen. Wir haben ein Stadium erreicht, in dem Menschen wahrscheinlich nicht in der Lage sind, maschinengenerierte Prosa von Menschen zu unterscheiden, die in beiläufigen Gesprächen mit denen geschrieben wurden, die wir nicht genau kennen, was Sicherheitsfilter sein wird, um zu verhindern, dass Menschen zu Opfern werden“, sagte der Wissenschaftler.
iQoo 11: Erster Blick auf „Indiens schnellstes“ Smartphone