Während Google bezeichnet sich selbst als „KI-First-Unternehmen“ und hat seine Mitarbeiter beispielsweise vor dem Einsatz von Chatbots gewarnt ChatGPT, Bingauch seine eigene Bardeauf Arbeit.
Laut einem Bericht von Reuters, in dem sich vier mit der Angelegenheit vertraute Personen berufen, hat Alphabet, die Muttergesellschaft von Google, ihre Mitarbeiter aufgefordert, keine vertraulichen Informationen mit KI-Chatbots zu teilen, und sie an ihre langjährige Politik zum Schutz sensibler Daten erinnert.
Google hat seine Ingenieure außerdem angewiesen, die Verwendung von Code zu vermeiden, der von Chatbots generiert wird. Google teilte Reuters mit, dass Bard Programmierern zwar helfe, aber möglicherweise auf unerwünschten Code hinweise.
Es gibt Chatbots wie Bard und ChatGPT, die generative künstliche Intelligenz nutzen, um mit Benutzern zu kommunizieren. Allerdings können menschliche Prüfer diese Gespräche mitlesen, und durchgesickerte Daten sind riskant, wenn die KI die aufgenommenen Informationen reproduziert.
Im Februar berichtete Insider, dass Google seine Mitarbeiter, die Bard testen, angewiesen habe, keine internen Informationen weiterzugeben. Jetzt wird Bard weltweit in über 180 Ländern und in 40 Sprachen eingeführt, um die Kreativität zu fördern. Die Warnungen von Google gelten jedoch weiterhin für Mitarbeiter.
Laut einer aktualisierten Datenschutzerklärung von Google vom 1. Juni wird davon abgeraten, während Bard-Gesprächen vertrauliche oder sensible Informationen weiterzugeben.
Auch Apple, Samsung und andere haben ihre Mitarbeiter vor dem Einsatz von KI-Chatbots gewarnt
Google ist nicht das einzige Unternehmen, das vorsichtig ist, wenn seine Mitarbeiter sensible Daten an KI-Chatbots weitergeben. Andere Unternehmen haben ebenfalls Schutzmaßnahmen für KI-Chatbots eingerichtet, darunter Apple, Samsung und Amazon, um nur einige zu nennen, und warnen ihre Mitarbeiter vor dem Einsatz von KI-Chatbots am Arbeitsplatz.
Es ist unklar, ob es Mitarbeitern verboten ist, vertrauliche Informationen in öffentliche KI-Programme einzugeben. MicrosoftYusuf Mehdi, Verbraucher-CMO von , stimmt zu, dass es für Unternehmen vernünftig sei, von der Nutzung öffentlicher Chatbots für die Arbeit abzuraten. Der kostenlose Bing-Chatbot von Microsoft habe lockerere Richtlinien als die Unternehmenssoftware, sagte Mehdi.
Unterdessen hat auch Google Probleme mit der Einführung von Bard europäische Union, was das Unternehmen dazu zwang, die Einführung des Chatbots in der Region zu verschieben, die für diese Woche geplant war. Die irische Datenschutzkommission hat Google zu den Auswirkungen des Chatbots auf die Privatsphäre befragt. Google sagte, es gehe auf die Fragen der Regulierungsbehörden ein.
Laut einem Bericht von Reuters, in dem sich vier mit der Angelegenheit vertraute Personen berufen, hat Alphabet, die Muttergesellschaft von Google, ihre Mitarbeiter aufgefordert, keine vertraulichen Informationen mit KI-Chatbots zu teilen, und sie an ihre langjährige Politik zum Schutz sensibler Daten erinnert.
Google hat seine Ingenieure außerdem angewiesen, die Verwendung von Code zu vermeiden, der von Chatbots generiert wird. Google teilte Reuters mit, dass Bard Programmierern zwar helfe, aber möglicherweise auf unerwünschten Code hinweise.
Es gibt Chatbots wie Bard und ChatGPT, die generative künstliche Intelligenz nutzen, um mit Benutzern zu kommunizieren. Allerdings können menschliche Prüfer diese Gespräche mitlesen, und durchgesickerte Daten sind riskant, wenn die KI die aufgenommenen Informationen reproduziert.
Im Februar berichtete Insider, dass Google seine Mitarbeiter, die Bard testen, angewiesen habe, keine internen Informationen weiterzugeben. Jetzt wird Bard weltweit in über 180 Ländern und in 40 Sprachen eingeführt, um die Kreativität zu fördern. Die Warnungen von Google gelten jedoch weiterhin für Mitarbeiter.
Laut einer aktualisierten Datenschutzerklärung von Google vom 1. Juni wird davon abgeraten, während Bard-Gesprächen vertrauliche oder sensible Informationen weiterzugeben.
Auch Apple, Samsung und andere haben ihre Mitarbeiter vor dem Einsatz von KI-Chatbots gewarnt
Google ist nicht das einzige Unternehmen, das vorsichtig ist, wenn seine Mitarbeiter sensible Daten an KI-Chatbots weitergeben. Andere Unternehmen haben ebenfalls Schutzmaßnahmen für KI-Chatbots eingerichtet, darunter Apple, Samsung und Amazon, um nur einige zu nennen, und warnen ihre Mitarbeiter vor dem Einsatz von KI-Chatbots am Arbeitsplatz.
Es ist unklar, ob es Mitarbeitern verboten ist, vertrauliche Informationen in öffentliche KI-Programme einzugeben. MicrosoftYusuf Mehdi, Verbraucher-CMO von , stimmt zu, dass es für Unternehmen vernünftig sei, von der Nutzung öffentlicher Chatbots für die Arbeit abzuraten. Der kostenlose Bing-Chatbot von Microsoft habe lockerere Richtlinien als die Unternehmenssoftware, sagte Mehdi.
Unterdessen hat auch Google Probleme mit der Einführung von Bard europäische Union, was das Unternehmen dazu zwang, die Einführung des Chatbots in der Region zu verschieben, die für diese Woche geplant war. Die irische Datenschutzkommission hat Google zu den Auswirkungen des Chatbots auf die Privatsphäre befragt. Google sagte, es gehe auf die Fragen der Regulierungsbehörden ein.