Nach Angaben des Social-Media-Unternehmens wurde die Nutzung vorübergehend eingeschränkt, damit „Bots und andere böswillige Akteure, die der Plattform schaden, erkannt und beseitigt werden können“. Es fügte hinzu, dass die Bots oder böswilligen Akteure ihr Verhalten geändert hätten, um einer Entdeckung zu entgehen, wenn das Unternehmen diese Aktionen im Voraus angekündigt hätte.
„Um die Authentizität unserer Nutzerbasis sicherzustellen, müssen wir extreme Maßnahmen ergreifen, um Spam und Bots von unserer Plattform zu entfernen“, sagte das Unternehmen. „Wir arbeiten auf hoher Ebene daran, zu verhindern, dass diese Konten 1) die öffentlichen Twitter-Daten von Menschen stehlen.“ KI-Modelle erstellen und 2) Menschen und Konversationen auf der Plattform auf verschiedene Weise manipulieren“, fügte es hinzu.
Musk hat sich auf Twitter stets gegen Bot-Accounts ausgesprochen. Er sagte sogar, dass es eine der obersten Prioritäten sei, die Spam- und Scam-Bots sowie die Bot-Armeen auf Twitter zu eliminieren, da sie das Produkt erheblich verschlechtern.
Letztes Jahr warf Musk Twitter außerdem vor, die tatsächliche Anzahl der Bots auf der Plattform verschwiegen zu haben, und versuchte dann, vom Kauf des Unternehmens zurückzutreten.
Ein paar Leute sind betroffen
Twitter behauptet außerdem, dass die Einschränkungen nur einen kleinen Prozentsatz der Nutzer der Plattform betreffen.
„Wir werden ein Update bereitstellen, sobald die Arbeiten abgeschlossen sind. Was unsere Kunden betrifft, waren die Auswirkungen auf die Werbung minimal“, hieß es weiter.
In einem Bericht wurde behauptet, dass die Änderungen bei Twitter Auswirkungen auf die Auffindbarkeit von Tweets und Seiten auf Twitter hatten Google-Suche. Das Unternehmen gab zu, dass es sich der eingeschränkten Möglichkeit bewusst war, Twitter-Ergebnisse anzuzeigen.
„Wir sind uns bewusst, dass unsere Fähigkeit, Twitter.com zu crawlen, eingeschränkt ist, was sich auf unsere Fähigkeit auswirkt, Tweets und Seiten der Website in Suchergebnissen anzuzeigen“, wurde Sprecherin Lara Levin zitiert.
„Websites haben die Kontrolle darüber, ob Crawler auf ihre Inhalte zugreifen können“, fügte Levin hinzu.