Kritischer Entwurf für die KI-Richtlinie 2024: Potenziale freisetzen und vor Risiken am Arbeitsplatz schützen

Kritischer Entwurf fuer die KI Richtlinie 2024 Potenziale freisetzen und vor

Viele haben es beschrieben 2023 war das Jahr der KI, und der Begriff schaffte es auf mehrere „Wort des Jahres“-Listen. Während sie sich positiv auf die Produktivität und Effizienz am Arbeitsplatz ausgewirkt hat, birgt KI auch eine Reihe neuer Risiken für Unternehmen.

Zum Beispiel eine aktuelle Harris Poll-Umfrage Eine von AuditBoard in Auftrag gegebene Studie ergab, dass etwa die Hälfte der erwerbstätigen Amerikaner (51 %) derzeit KI-gestützte Tools für die Arbeit nutzen, was zweifellos auf ChatGPT und andere generative KI-Lösungen zurückzuführen ist. Gleichzeitig gab jedoch fast die Hälfte (48 %) an, dass sie Unternehmensdaten in KI-Tools eingeben, die nicht von ihrem Unternehmen bereitgestellt werden, um sie bei ihrer Arbeit zu unterstützen.

Diese schnelle Integration generativer KI-Tools bei der Arbeit stellt ethische, rechtliche, datenschutzrechtliche und praktische Herausforderungen dar und führt dazu, dass Unternehmen neue und robuste Richtlinien für generative KI-Tools implementieren müssen. So wie es aussieht, haben die meisten dies noch nicht getan – ein aktueller Gartner Umfrage ergab, dass es mehr als der Hälfte der Unternehmen an einer internen Richtlinie zur generativen KI mangelt, und die Harris-Umfrage ergab, dass nur 37 % der beschäftigten Amerikaner über eine formelle Richtlinie bezüglich der Verwendung nicht vom Unternehmen bereitgestellter KI-gestützter Tools verfügen.

Auch wenn es sich wie eine entmutigende Aufgabe anhört, kann die Entwicklung einer Reihe von Richtlinien und Standards jetzt Unternehmen vor größeren Kopfschmerzen in der Zukunft bewahren.

KI-Nutzung und Governance: Risiken und Herausforderungen

Wenn Sie jetzt eine Reihe von Richtlinien und Standards entwickeln, können Sie Unternehmen vor großen Problemen in der Zukunft bewahren.

Die schnelle Einführung generativer KI macht es für Unternehmen schwierig, mit dem KI-Risikomanagement und der KI-Governance Schritt zu halten, und es besteht eine deutliche Diskrepanz zwischen der Einführung und formalen Richtlinien. Die zuvor erwähnte Harris-Umfrage ergab, dass 64 % die Nutzung von KI-Tools als sicher empfinden, was darauf hindeutet, dass viele Arbeitnehmer und Organisationen Risiken übersehen könnten.

Diese Risiken und Herausforderungen können unterschiedlich sein, aber drei der häufigsten sind:

  1. Selbstüberschätzung. Der Dunning-Kruger-Effekt ist eine Verzerrung, die auftritt, wenn unser eigenes Wissen oder unsere eigenen Fähigkeiten überschätzt werden. Wir haben gesehen, dass sich dies im Zusammenhang mit der KI-Nutzung manifestiert; Viele überschätzen die Fähigkeiten der KI, ohne ihre Grenzen zu verstehen. Dies kann zu relativ harmlosen Ergebnissen führen, beispielsweise zu einer unvollständigen oder ungenauen Ausgabe, kann aber auch zu viel schwerwiegenderen Situationen führen, beispielsweise zu einer Ausgabe, die gegen gesetzliche Nutzungsbeschränkungen verstößt oder ein Risiko für geistiges Eigentum darstellt.
  2. Sicherheit und Privatsphäre. Für ihre volle Wirksamkeit benötigt KI Zugriff auf große Datenmengen, dazu gehören jedoch manchmal auch personenbezogene Daten oder andere sensible Informationen. Der Einsatz ungeprüfter KI-Tools birgt inhärente Risiken. Daher müssen Unternehmen sicherstellen, dass sie Tools verwenden, die ihren Datensicherheitsstandards entsprechen.

tch-1-tech