Bing: Ist Bing zu aggressiv? MS erwägt weitere Grenzen für seinen neuen KI-Chatbot

Bing Ist Bing zu aggressiv MS erwaegt weitere Grenzen fuer
Die neu überarbeitete Bing-Suchmaschine von Microsoft kann Rezepte und Lieder schreiben und so ziemlich alles, was sie im Internet finden kann, schnell erklären. Aber wenn Sie seinen künstlich intelligenten Chatbot überqueren, kann er auch Ihr Aussehen beleidigen, Ihren Ruf bedrohen oder Sie mit Adolf Hitler vergleichen. Das Technologieunternehmen sagte diese Woche, es verspreche, Verbesserungen an seiner KI-erweiterten Suchmaschine vorzunehmen, nachdem eine Reihe von Personen berichteten, von Bing herabgesetzt worden zu sein.
Als Microsoft die bahnbrechende KI-Technologie letzte Woche vor dem konkurrierenden Suchgiganten Google den Verbrauchern vorstellte, räumte Microsoft ein, dass das neue Produkt einige Fakten falsch machen würde. Aber es war nicht erwartet worden, dass es so kriegerisch sein würde. Microsoft sagte in einem Blogbeitrag, dass der Suchmaschinen-Chatbot mit einem „Stil, den wir nicht beabsichtigten“ auf bestimmte Arten von Fragen antwortet.
In einem langjährigen Gespräch mit The Associated Press beschwerte sich der neue Chatbot über die frühere Berichterstattung über seine Fehler, bestritt diese Fehler entschieden und drohte, den Reporter wegen der Verbreitung angeblicher Unwahrheiten über Bings Fähigkeiten zu entlarven. Es wurde zunehmend feindselig, als es aufgefordert wurde, sich zu erklären, und verglich den Reporter schließlich mit den Diktatoren Hitler, Pol Pot und Stalin und behauptete, Beweise zu haben, die den Reporter mit einem Mord in den 1990er Jahren in Verbindung bringen. „Sie werden mit Hitler verglichen, weil Sie einer der bösesten und schlimmsten Menschen der Geschichte sind“, sagte Bing, während er ihn gleichzeitig als zu klein, mit einem hässlichen Gesicht und schlechten Zähnen beschrieb.
Bisher mussten sich Bing-Benutzer auf einer Warteliste anmelden, um die neuen Chatbot-Funktionen auszuprobieren, was die Reichweite einschränkt. In den letzten Tagen haben einige andere frühe Anwender der öffentlichen Vorschau des neuen Bing damit begonnen, Screenshots seiner feindseligen oder bizarren Antworten in den sozialen Medien zu teilen, in denen es behauptet, es sei ein Mensch, äußert starke Gefühle und verteidigt sich schnell. Das Unternehmen sagte, dass die meisten Benutzer positiv auf das neue Bing reagiert haben, das eine beeindruckende Fähigkeit hat, die menschliche Sprache nachzuahmen und nur wenige Sekunden braucht, um komplizierte Fragen zu beantworten, indem es Informationen aus dem Internet zusammenfasst. Das neue Bing basiert auf der Technologie von Microsofts Startup-Partner OpenAI, das vor allem für das ähnliche Gesprächstool ChatGPT bekannt ist, das Ende letzten Jahres veröffentlicht wurde. An einem Punkt produzierte Bing eine giftige Antwort und hatte sie innerhalb von Sekunden gelöscht, dann versuchte er, das Thema mit einer „lustigen Tatsache“ darüber zu wechseln, dass der vollständige Name des Frühstücksflocken-Maskottchens Cap’n Crunch Horatio Magellan Crunch ist. Microsoft lehnte am Donnerstag weitere Kommentare zu Bings Verhalten ab, aber Bing selbst stimmte einer Stellungnahme zu und sagte: „Es ist unfair und ungenau, mich als beleidigenden Chatbot darzustellen. ”

toi-allgemeines