Künstliche Intelligenz schreitet in allen Bereichen exponentiell voran und erreicht sogar die breite Öffentlichkeit. In Unternehmen nutzen die Mitarbeiter sie sogar während ihrer Online-Meetings. Was sind die Herausforderungen von KI für die Sicherheit von Videokonferenzen?

Künstliche Intelligenz hält Einzug in Ihre Online-Meetings

Virtuelle Assistenten kommunizieren an Ihrer Stelle

Einige Anbieter von Videokonferenztools bieten heute virtuelle Assistenten an, die auf generativer künstlicher Intelligenz basieren. Der in die Lösung integrierte virtuelle Assistent kann die Gespräche eines Online-Meetings transkribieren, übersetzen, untertiteln oder auch Zusammenfassungen erstellen.

Das Ziel? Eine Steigerung der Produktivität der Nutzer, indem ihnen bestimmte Aufgaben, wie beispielsweise das Protokollieren von Besprechungen, erleichtert werden. Der Mitarbeiter kann sich stärker auf den Inhalt der Gespräche konzentrieren, während ihm die KI die Aufgabe, die Gespräche zusammenzufassen, abnimmt.

Wie funktioniert das? 

Für den virtuellen Assistenten einer Videokonferenz wird in der Regel das „große Sprachmodell“ (LLM) verwendet. Mit diesem Modell künstlicher Intelligenz, das einem breiten Publikum durch Chat GPT bekannt ist, können Texte kontextbezogen und fließend verstanden und generiert werden. So wird es verwendet, um Gespräche in Videokonferenzen wortgetreu zu transkribieren oder automatische Antworten zu erstellen. Sein Training basiert auf einer großen Vielfalt an Daten. Dies ermöglicht es dem Modell, menschliche Sprache sehr präzise zu verstehen und zu produzieren. Je mehr Daten dieses Modell verarbeitet, desto leistungsfähiger wird es und desto mehr neue Antworten kann es liefern. 

Das Leistungsversprechen wirft Fragen auf

Im Rahmen eines Unternehmens können sich die während Videokonferenzen ausgetauschten Daten auf geistiges Eigentum beziehen oder personenbezogene Daten von Mitarbeitern enthalten. Wenn diese Daten über einen virtuellen Assistenten laufen, stellt sich die Frage nach dem Datenschutz.

Im August dieses Jahres stand der amerikanische Videokonferenzanbieter Zoom im Mittelpunkt einer Kontroverse. Der Grund dafür war ein Hinweis in seinen Nutzungsbedingungen, der als stillschweigende Erlaubnis verstanden wurde, die während der Online-Meetings ausgetauschten Inhalte zum Training seines KI-Tools zu verwenden. Dieser Fall wurde vom Anbieter selbst schnell abgeschlossen, da dieser behauptete, die Integrität der Daten zu wahren. Dennoch zeigten die Reaktionen, dass die Nutzer sehr aufmerksam sind, wenn es um den Schutz ihrer Privatsphäre geht. Die Kontroverse hat auch eine Debatte über die Sicherheit und Vertraulichkeit der Bearbeitung von Kommunikation mittels KI ausgelöst.

Sensible Daten können offengelegt werden

Möglichkeiten für Angriffe

Ein von Cyberhaven im Februar 2023 veröffentlichter Bericht weist darauf hin, dass sensible Daten 11 % dessen ausmachen, was Mitarbeiter in ChatGPT eingeben. Dennoch haben Arbeitnehmer nur wenige (wenn überhaupt) Garantien bezüglich des Schutzes der Daten, die sie der KI zur Verfügung stellen. Übrigens hatten Forscher bereits 2021 vor „Angriffen mittels Extraktion von Trainingsdaten“ gewarnt. Mit anderen Worten: Sie beobachteten die Möglichkeit, in Chat GPT-2 eingegebene Textelemente abzurufen, indem das System nach bestimmten Elementen befragt wird, die es zuvor gelernt hatte. Diese Techniken würden auch die Offenlegung personenbezogener Informationen ermöglichen. Bei Videokonferenzen mit generativer KI werden Daten wie Häufigkeit, Teilnehmer oder Thema eines Meetings geteilt. Durch eine Verkettung von kontextbezogenen Abfragen könnten Personen versuchen, diese Informationen aus dem KI-System abzurufen.

Einige Beschäftigte machen sich Sorgen um ihre personenbezogenen Daten

Der OECD-Beschäftigungsausblick gibt jedes Jahr eine Einschätzung der wichtigsten Entwicklungen auf den Arbeitsmärkten in den Mitgliedsländern der Europäischen Union. In ihrer Ausgabe 2023 legt die OECD einen Schwerpunkt auf die Auswirkungen künstlicher Intelligenz auf die Beschäftigten. Darin heißt es, dass 57 % der europäischen Arbeitnehmer im Finanzsektor und in der verarbeitenden Industrie sich Sorgen um den Schutz ihrer Privatsphäre im Zeitalter von KI machen.

Und das aus gutem Grund: „Die Menge an personenbezogenen Daten, die von KI-Systemen verarbeitet werden, ist oft größer als die Menge an Daten, die von Menschen oder anderen Technologien gesammelt werden“, heißt es ebenfalls in der Analyse. So können während sensibler Videokonferenzen, wie beispielsweise bei Vorstandsitzungen, bestimmte vertrauliche Daten gesammelt werden. Dies geschieht mit dem Ziel, z. B. Zusammenfassungen zu erstellen. Aber wie kann gewährleistet werden, dass sie gut geschützt sind und nicht wiederverwendet werden? Wenn generative künstliche Intelligenz aus den Daten lernt, die ihr angeboten werden, ist es dann möglich, dass sie diese Daten wiederverwenden kann, wenn sie anderen Nutzern Antworten anbietet?

Wege zu mehr Sicherheit bei der Kommunikation mit KI

Wie die OECD betont, gewährleistet in der EU die Datenschutz-Grundverordnung (DSGVO) den Schutz personenbezogener Daten und erlegt den Stellen, die diese Daten verarbeiten, Verpflichtungen auf. Mit KI gelten die Rechte für die Erhebung und Verarbeitung von Daten in besonderem Maße. Das System muss Transparenz und Zugang zu Informationen, Korrektur, Löschung und Einschränkung der Verarbeitung gewährleisten.

In einigen Ländern gibt es Gesetzesentwürfe, die auf eine Pflicht zur Unterrichtung der Personen, die mit künstlicher Intelligenz interagieren oder zu mehr Transparenz bezüglich der Art und Weise, wie die KI Daten produziert, abzielen.

In der EU wurde 2021 mit der KI-Verordnung (AI Act) eine erste Regulierung im Bereich der künstlichen Intelligenz geschaffen. So heißt es darin: „Initiativen wie die Strategie für Cybersicherheit der EU, die Gesetzgebung über digitale Dienste und die Rechtsvorschriften über digitale Märkte sowie das Gesetz über die Governance von Daten, stellen die geeignete Infrastruktur für die Einrichtung solcher Systeme bereit„. Außerdem wurden Risikoniveaus festgelegt, um die zu ergreifenden Sicherheitsmaßnahmen anzupassen.

Digitale und europäische Souveränität: eine weitere wichtige Problematik

Bei Videokonferenzlösungen mit integrierter generativer KI ist daher Wachsamkeit geboten. Erstens ist ein hohes Sicherheitsniveau dieser Lösungen unerlässlich, um die Vertraulichkeit der ausgetauschten Daten zu wahren. Videokonferenzen und ihre KI-Mechanismen müssen strengen Datenschutzbestimmungen wie der DSGVO gehorchen. Diese Problematik der Souveränität wurde übrigens auch im jüngsten französischen interministeriellen Ausschuss über generative KI diskutiert. Dieser beabsichtigt, „eine Branche für souveräne Entwicklung von KI-Modellen“ zu schaffen.

Ferner müssen die Anbieter von Videokonferenzlösungen Transparenz zeigen und den Nutzern klare Garantien für die Verwendung ihrer Daten geben. Wenn diese Lösungen nicht über eine echte Ende-zu-Ende-Verschlüsselung verfügen, ist die Kommunikation, die sie weiterleiten, nicht geschützt.