KI und Videokonferenzen: Wie sicher sind die Daten der Unternehmen?

KI und Videokonferenzen: Wie sicher sind die Daten der Unternehmen?

Künstliche Intelligenz schreitet in allen Bereichen exponentiell voran und erreicht sogar die breite Öffentlichkeit. In Unternehmen nutzen die Mitarbeiter sie sogar während ihrer Online-Meetings. Was sind die Herausforderungen von KI für die Sicherheit von Videokonferenzen?

Künstliche Intelligenz hält Einzug in Ihre Online-Meetings

Virtuelle Assistenten kommunizieren an Ihrer Stelle

Einige Anbieter von Videokonferenztools bieten heute virtuelle Assistenten an, die auf generativer künstlicher Intelligenz basieren. Der in die Lösung integrierte virtuelle Assistent kann die Gespräche eines Online-Meetings transkribieren, übersetzen, untertiteln oder auch Zusammenfassungen erstellen.

Das Ziel? Eine Steigerung der Produktivität der Nutzer, indem ihnen bestimmte Aufgaben, wie beispielsweise das Protokollieren von Besprechungen, erleichtert werden. Der Mitarbeiter kann sich stärker auf den Inhalt der Gespräche konzentrieren, während ihm die KI die Aufgabe, die Gespräche zusammenzufassen, abnimmt.

Wie funktioniert das? 

Für den virtuellen Assistenten einer Videokonferenz wird in der Regel das „große Sprachmodell“ (LLM) verwendet. Mit diesem Modell künstlicher Intelligenz, das einem breiten Publikum durch Chat GPT bekannt ist, können Texte kontextbezogen und fließend verstanden und generiert werden. So wird es verwendet, um Gespräche in Videokonferenzen wortgetreu zu transkribieren oder automatische Antworten zu erstellen. Sein Training basiert auf einer großen Vielfalt an Daten. Dies ermöglicht es dem Modell, menschliche Sprache sehr präzise zu verstehen und zu produzieren. Je mehr Daten dieses Modell verarbeitet, desto leistungsfähiger wird es und desto mehr neue Antworten kann es liefern. 

Das Leistungsversprechen wirft Fragen auf

Im Rahmen eines Unternehmens können sich die während Videokonferenzen ausgetauschten Daten auf geistiges Eigentum beziehen oder personenbezogene Daten von Mitarbeitern enthalten. Wenn diese Daten über einen virtuellen Assistenten laufen, stellt sich die Frage nach dem Datenschutz.

Im August dieses Jahres stand der amerikanische Videokonferenzanbieter Zoom im Mittelpunkt einer Kontroverse. Der Grund dafür war ein Hinweis in seinen Nutzungsbedingungen, der als stillschweigende Erlaubnis verstanden wurde, die während der Online-Meetings ausgetauschten Inhalte zum Training seines KI-Tools zu verwenden. Dieser Fall wurde vom Anbieter selbst schnell abgeschlossen, da dieser behauptete, die Integrität der Daten zu wahren. Dennoch zeigten die Reaktionen, dass die Nutzer sehr aufmerksam sind, wenn es um den Schutz ihrer Privatsphäre geht. Die Kontroverse hat auch eine Debatte über die Sicherheit und Vertraulichkeit der Bearbeitung von Kommunikation mittels KI ausgelöst.

Sensible Daten können offengelegt werden

Möglichkeiten für Angriffe

Ein von Cyberhaven im Februar 2023 veröffentlichter Bericht weist darauf hin, dass sensible Daten 11 % dessen ausmachen, was Mitarbeiter in ChatGPT eingeben. Dennoch haben Arbeitnehmer nur wenige (wenn überhaupt) Garantien bezüglich des Schutzes der Daten, die sie der KI zur Verfügung stellen. Übrigens hatten Forscher bereits 2021 vor „Angriffen mittels Extraktion von Trainingsdaten“ gewarnt. Mit anderen Worten: Sie beobachteten die Möglichkeit, in Chat GPT-2 eingegebene Textelemente abzurufen, indem das System nach bestimmten Elementen befragt wird, die es zuvor gelernt hatte. Diese Techniken würden auch die Offenlegung personenbezogener Informationen ermöglichen. Bei Videokonferenzen mit generativer KI werden Daten wie Häufigkeit, Teilnehmer oder Thema eines Meetings geteilt. Durch eine Verkettung von kontextbezogenen Abfragen könnten Personen versuchen, diese Informationen aus dem KI-System abzurufen.

Einige Beschäftigte machen sich Sorgen um ihre personenbezogenen Daten

Der OECD-Beschäftigungsausblick gibt jedes Jahr eine Einschätzung der wichtigsten Entwicklungen auf den Arbeitsmärkten in den Mitgliedsländern der Europäischen Union. In ihrer Ausgabe 2023 legt die OECD einen Schwerpunkt auf die Auswirkungen künstlicher Intelligenz auf die Beschäftigten. Darin heißt es, dass 57 % der europäischen Arbeitnehmer im Finanzsektor und in der verarbeitenden Industrie sich Sorgen um den Schutz ihrer Privatsphäre im Zeitalter von KI machen.

Und das aus gutem Grund: „Die Menge an personenbezogenen Daten, die von KI-Systemen verarbeitet werden, ist oft größer als die Menge an Daten, die von Menschen oder anderen Technologien gesammelt werden“, heißt es ebenfalls in der Analyse. So können während sensibler Videokonferenzen, wie beispielsweise bei Vorstandsitzungen, bestimmte vertrauliche Daten gesammelt werden. Dies geschieht mit dem Ziel, z. B. Zusammenfassungen zu erstellen. Aber wie kann gewährleistet werden, dass sie gut geschützt sind und nicht wiederverwendet werden? Wenn generative künstliche Intelligenz aus den Daten lernt, die ihr angeboten werden, ist es dann möglich, dass sie diese Daten wiederverwenden kann, wenn sie anderen Nutzern Antworten anbietet?

Wege zu mehr Sicherheit bei der Kommunikation mit KI

Wie die OECD betont, gewährleistet in der EU die Datenschutz-Grundverordnung (DSGVO) den Schutz personenbezogener Daten und erlegt den Stellen, die diese Daten verarbeiten, Verpflichtungen auf. Mit KI gelten die Rechte für die Erhebung und Verarbeitung von Daten in besonderem Maße. Das System muss Transparenz und Zugang zu Informationen, Korrektur, Löschung und Einschränkung der Verarbeitung gewährleisten.

In einigen Ländern gibt es Gesetzesentwürfe, die auf eine Pflicht zur Unterrichtung der Personen, die mit künstlicher Intelligenz interagieren oder zu mehr Transparenz bezüglich der Art und Weise, wie die KI Daten produziert, abzielen.

In der EU wurde 2021 mit der KI-Verordnung (AI Act) eine erste Regulierung im Bereich der künstlichen Intelligenz geschaffen. So heißt es darin: „Initiativen wie die Strategie für Cybersicherheit der EU, die Gesetzgebung über digitale Dienste und die Rechtsvorschriften über digitale Märkte sowie das Gesetz über die Governance von Daten, stellen die geeignete Infrastruktur für die Einrichtung solcher Systeme bereit„. Außerdem wurden Risikoniveaus festgelegt, um die zu ergreifenden Sicherheitsmaßnahmen anzupassen.

Digitale und europäische Souveränität: eine weitere wichtige Problematik

Bei Videokonferenzlösungen mit integrierter generativer KI ist daher Wachsamkeit geboten. Erstens ist ein hohes Sicherheitsniveau dieser Lösungen unerlässlich, um die Vertraulichkeit der ausgetauschten Daten zu wahren. Videokonferenzen und ihre KI-Mechanismen müssen strengen Datenschutzbestimmungen wie der DSGVO gehorchen. Diese Problematik der Souveränität wurde übrigens auch im jüngsten französischen interministeriellen Ausschuss über generative KI diskutiert. Dieser beabsichtigt, „eine Branche für souveräne Entwicklung von KI-Modellen“ zu schaffen.

Ferner müssen die Anbieter von Videokonferenzlösungen Transparenz zeigen und den Nutzern klare Garantien für die Verwendung ihrer Daten geben. Wenn diese Lösungen nicht über eine echte Ende-zu-Ende-Verschlüsselung verfügen, ist die Kommunikation, die sie weiterleiten, nicht geschützt.

Kommunikation darf nicht zu KI-Trainingsdaten werden

Kommunikation darf nicht zu KI-Trainingsdaten werden

Sicherheit und Datenschutz sind für Videokonferenzen im Zeitalter von Chat-CPT wichtiger als je zuvor

Künstliche Intelligenz (KI) benötigt Unmengen Trainingsdaten. Doch nicht immer wird dieser enorme Wissenshunger aus lediglich einwandfreien Quellen gesättigt. Neben urheberrechtlichen Fragen gibt es auch Fälle wie Zoom, das vor kurzem überlegt hatte, möglicherweise Nutzerdaten für KI-Training einzusetzen. Besonders Unternehmen kann eine solche Verwendung natürlich nicht gefallen. Unternehmen müssen sichergehen, dass ihre Kommunikation nicht plötzlich im Wissensschatz von KI auftaucht und jedermann als Antwort ausgespuckt werden kann.

KI-Lösungen können eine Vielzahl an Tätigkeiten übernehmen und das Personal erheblich entlasten. Diese wertvolle Unterstützung hat einen Haken: niemand kann garantieren, dass die eingegebenen Daten nicht missbraucht werden. Werden Informationen in Form von Aufgaben in KI-Tools eingefügt, dann befinden sie sich schon auf fremden Servern – Unternehmen verlieren die Kontrolle über ihre Daten. Das wird zum Problem, handelt es sich bei den eingegebenen Texten um vertrauliche Informationen, zum Beispiel Betriebsgeheimnisse oder persönliche Daten.

Immer mehr Unternehmen sind sich dieser Gefahren bewusst und versuchen, sie zu minimieren. Manche entscheiden sich für einen radikalen Weg und verbieten ihren Mitarbeitern die Nutzung von KI-Lösungen aus dem Netz. Andere entwickeln eigene KI-Tools, um ihrem Personal die Vorzüge künstlicher Intelligenz nicht vorzuenthalten. Firmeneigene KI-Lösungen haben den entscheidenden Vorteil, dass die eingegebenen Informationen in den Händen der jeweiligen Firma bleiben, wodurch ihre Vertraulichkeit bewahrt ist.

Werden auch Videokonferenzen für KI-Training verwendet?

Risiken in Bezug auf Konfidentialität der Daten, die künstliche Intelligenz mit sich bringt, lauern auch an einer weiteren Stelle – in der Online-Kommunikation von Unternehmen. So hat der Videokonferenzanbieter Zoom Video-, Audio- und Chat-Inhalten zum Training ihrer eigenen KI-Lösungen verwendet. Zwar hat Zoom dafür die Zustimmung der Nutzer eingeholt – doch der Klick auf „Zustimmen“ ist bekanntlich schnell und ohne genaues Lesen gesetzt. Nach scharfer öffentlicher Kritik hat Zoom die Pläne revidiert. Trotzdem wirft der Fall die Frage auf, wie Videokonferenzanbieter mit den Daten ihren Nutzern umgehen.

Tixeo steht für Sicherheit und Datenschutz – Kommunikation gehört dem User, nicht der KI

Unternehmen sollten gezielt auf Videokonferenzanbieter setzen, die die Daten ihrer Nutzer garantiert zu keinen sonstigen Zwecken benutzen. Noch empfehlenswerter sind Anbieter, die keinen Zugang zu den ausgetauschten Daten haben. So eine Lösung ist Tixeo. Seine durchgängige Ende-zu-Ende-Verschlüsselung bewirkt, dass die ausgetauschten Informationen ausschließlich bei ihren Sendern und Empfängern entschlüsselt werden. Die Kommunikationsströme werden nicht entschlüsselt, wenn sie über den Server laufen, wodurch niemand, selbst Tixeo nicht, auf die Daten zugreifen und sie verwerten kann.  Somit ist die Vertraulichkeit der Information gewährleistet.

Künstliche Intelligenz bietet enorme Chancen, bringt allerdings auch erhebliche Risiken mit sich, unter anderem für den Datenschutz. Der Umgang mit KI-Tools wird in Zukunft über die Wettbewerbsfähigkeit von Unternehmen mitentscheiden. Unternehmen, die möglichst großen Nutzen aus der künstlichen Intelligenz ziehen und zugleich die von ihr ausgehenden Gefahren abzuwenden, werden ihren Wettbewerbern deutlich voraus sein.