KI-Tools wie ChatGPT, Bard und Copilot erfreuen sich wachsender Beliebtheit, gefährden allerdings die Datensicherheit. Forcepoint erklärt, wie Unternehmen den Abfluss vertraulicher Informationen und Datenschutzverletzungen erfolgreich verhindern.
So vermeiden Unternehmen Datenlecks durch ChatGPT & Co.
Generative KI ist bei zahlreichen Aufgabenstellungen im Arbeitsalltag bereits eine große Hilfe. Sie beantwortet Fragen, erstellt Texte fürs Marketing, übersetzt E-Mails sowie Dokumente und optimiert sogar Quellcode. Kein Wunder also, dass Mitarbeiter die Tools eifrig einsetzen, um sich die Arbeit zu erleichtern und produktiver zu werden. Allerdings entstehen dabei Risiken für die Datensicherheit im Unternehmen: Leicht landen vertrauliche oder personenbezogene Daten bei ChatGPT, Bard oder Copilot und dadurch unter Umständen sogar in den Antworten für andere Anwender. Schließlich nutzen die Anbieter nicht nur im Web verfügbare Daten, sondern auch die Benutzereingaben, um ihre KI-Model...
Dieser Beitrag kann kostenfrei gelesen werden, nachdem sich mit dem uplifted-Account angemeldet wurde. Noch kein uplifted Account? Dann hier kostenfrei registrieren oder hier anmelden: