Das visuelle Sprachmodell namens Flamingo kann Beschreibungen erstellen, indem es die ersten Frames eines Videos analysiert, um zu erklären, was vor sich geht. Flamingo erstellt Beschreibungen für alle neuen KurzfilmeEine Beschreibung könnte beispielsweise „ein Video eines Mannes am Strand“ lauten. Die Textbeschreibungen werden als Metadaten gespeichert, um „Videos besser zu kategorisieren und Suchergebnisse an Zuschaueranfragen anzupassen“.„Durch die Analyse der ersten Videobilder des Kurzfilms erklärt das Modell, was auf dem Bildschirm gezeigt wird. Dieser Text wird als Metadaten in YouTube gespeichert, um Videos besser zu kategorisieren und Suchergebnisse den Suchanfragen der Zuschauer zuzuordnen“, bemerkte das Team.Was ist für Benutzer drin?
Die Beschreibung in Metadaten verbessert die Auffindbarkeit von Kurzfilmen. Dies bedeutet, dass Benutzer schnell nach Videos auf YouTube suchen können. Während Zuschauer mehr Videos aus der ganzen Welt entdecken können, können YouTuber ihre Kurzfilme ohne zusätzlichen Aufwand entdecken.„Von aufstrebenden K-Pop-Stars bis hin zu lokalen Food-Guides führt YouTube diese Technologie in allen Shorts ein und automatisch generierte Videobeschreibungen werden bereits auf alle neuen Uploads angewendet. Jetzt können Zuschauer relevantere Videos ansehen und leichter finden, was sie von einem vielfältigeren Spektrum globaler YouTuber suchen“, sagte Google DeepMind.Es hieß auch, dass YouTube-Shorts mehr als 50 Milliarden Mal pro Tag angesehen werden, Tendenz steigend.
Ende des Artikels