Sie sind hier: Home » Markt » Hinweise & Tipps

Rechenschaftspflicht: Risikoreduzierung & Stärkung


Wie die Maschinenidentität eine kritische KI-Rechenschaftslücke im EU-KI-Gesetz schließen kann
Der Ansatz der Gesetzgeber besteht darin, einen risikobasierten Rahmen für KI-Systeme zu schaffen



Kevin Bocek, VP Ecosystem und Community bei Venafi

Europäische Gesetzgeber setzen mit dem, was eines der bedeutendsten Gesetzgebungen in einer Generation sein könnte, fort. Die EU KI-Verordnung wird einen wesentlich proaktiveren Ansatz zur Regulierung verfolgen als die derzeitigen Vorschläge in den USA und in Großbritannien. Experten haben jedoch eine kritische Schlupflücke in Änderungen an der Gesetzgebung identifiziert, die Bürger und Gesellschaften vor KI-Risiken nicht schützen, sondern stattdessen gefährden könnten.

Kurz gesagt, diese Lücke könnte den gesamten Zweck des vorgeschlagenen Gesetzes untergraben und muss geschlossen werden. Dafür müssen die Gesetzgeber Schritte einleiten, um Maschinenidentitäten als Mittel zur Verbesserung der KI-Regulierung, der Rechenschaftspflicht, der Sicherheit und des Vertrauens zu priorisieren, denn die Zeit läuft ab.

Der Ansatz der Gesetzgeber besteht darin, einen risikobasierten Rahmen für KI-Systeme zu schaffen. So sollen solche, die als inakzeptables Risiko gelten, vollständig verboten werden, während solche, die als hohes Risiko eingestuft sind, mehrere Stufen der Bewertung und Registrierung durchlaufen müssen, bevor sie genehmigt werden. Ursprünglich enthielt das Gesetz klare Schutzmaßnahmen. Jedes KI-System wäre als Hochrisiko eingestuft worden, wenn es für einen der in Anhang III des Gesetzentwurfs aufgeführten Hochrisiko-Zwecke verwendet werden sollte. Entwickler und Anwender dieser Systeme wären verpflichtet gewesen, sicherzustellen, dass die Technologie sicher ist, frei von diskriminierenden Vorurteilen und öffentlich zugängliche Informationen darüber enthält, wie sie funktioniert.

Dies hat sich in der jüngsten Fassung der Gesetzgebung geändert. Dank einer neuen Schlupflücke können Entwickler nun selbst entscheiden, ob ihre Systeme als Hochrisiko eingestuft werden oder nicht. Über 100 zivilgesellschaftliche Organisationen fordern, dass diese Schlupflücke beseitigt und das ursprüngliche System wiederhergestellt wird. Sie argumentieren, dass die Schlupflücke unredliche oder unwissende Entwickler ermöglichen würde, die grundlegenden Anforderungen des Gesetzes zu umgehen, indem sie sich selbst als begrenztes oder minimales Risiko zertifizieren. Dies würde auch zu rechtlicher Unsicherheit darüber führen, was als Hochrisiko angesehen wird und zu Marktaufspaltung in der Region, da verschiedene Mitgliedstaaten unterschiedliche Definitionen von Hochrisiko verwenden könnten. Lokale Behörden könnten auch Schwierigkeiten haben, die Selbstbewertung der Entwickler effektiv zu überwachen.

Einfach ausgedrückt, die neueste Version der EU KI-Verordnung schwächt die Regulierungsaufsicht und die Rechenschaftspflicht der Entwickler untergräbt das Vertrauen und die Sicherheit und kann Benutzer gefährden. Abgesehen von der Schließung der Schlupflücke in kürzester Zeit müssen die Gesetzgeber weiter gehen, um das Risiko zu reduzieren und die Rechenschaftspflicht in der rasant wachsenden KI-Branche zu stärken.

Ein Beispiel für eine wichtige Kontrolle ist ein Kill Switch. Dieser ist in der Fertigung, in chemischen Prozessen und sogar an Tankstellen üblich und bietet eine sichere Möglichkeit, eine gefährliche Situation unter Kontrolle zu bringen. Bei KI handelt es sich nicht um einen physischen Schalter, sondern um eine Möglichkeit, die Nutzung der Maschinenidentität zur Authentifizierung des Modells zu stoppen.

Um es klarzustellen, es geht nicht um einen einzigen "Notausschalter" pro KI-Modell. Tatsächlich können Tausende von Maschinenidentitäten mit einem einzigen Modell verknüpft sein, die mit den Eingaben, die das Modell trainieren, dem Modell selbst und seinen Ausgaben in Verbindung stehen. Diese Modelle müssen in jeder Phase geschützt werden, sowohl während des Trainings als auch während ihres Einsatzes. Das bedeutet, dass jede Maschine während jedes Prozesses eine Identität benötigt, um Vergiftung, Manipulation und unbefugten Zugriff zu verhindern. Dies wird natürlich die Anzahl der Maschinenidentitäten in Netzwerken erhöhen, und hier kann KI ebenfalls helfen. Viele dieser Prinzipien können auch angewendet werden, um zu verhindern, dass KIs ebenso wie heute bei Smartphones und Laptops für Apps modifiziert oder manipuliert werden.

Fazit: Die Mitglieder des Europäischen Parlaments werden eine schwere Bürde tragen, wenn sie es versäumen, die Schlupflücke in der EU KI-Verordnung zu schließen. Aber dies sollte erst der Anfang sein. Eine engere Zusammenarbeit mit der Industrie ist erforderlich, um das potenzielle Wert von vorhandenen und robusten Technologien wie der Maschinenidentität in der Stärkung der KI-Regulierung und Rechenschaftspflicht aufzuzeigen. Die Förderung von Forschung und Entwicklung in den Bereichen Sicherheit und Schutz - wie bei KI-Notausschaltern - wird allen außer unseren Gegnern zugute kommen. (Venafi: ra)

eingetragen: 28.11.23
Newsletterlauf: 09.02.24

Venafi: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>


Meldungen: Markt / Hinweise & Tipps

  • Vorsicht vor Betrug bei Festgeldanlagen

    Wer auf der Suche nach attraktiven Tages- oder Festgeldanlagen ist, nutzt häufig eine Suchmaschinensuche oder ein Vergleichsportal im Internet. Doch hier heißt es, wachsam zu sein. Auch Unternehmensseiten wie Bankportale und Vergleichsportale können perfekt gefälscht sein.

  • Bestandteil der Investmentsteuer

    Die Vorabpauschale für Investmentfonds ist bereits seit 2018 Bestandteil der Investmentsteuer in Deutschland ist. Die Berechnung der Vorabpauschale basiert allerdings auf dem sogenannten Basiszins, der in der Vergangenheit oft im negativen Bereich lag. Daher wurde die Vorabpauschale erst wieder Anfang 2024 für das Vorjahr, also das Jahr 2023, erhoben. Doch was ist die Vorabpauschale und wie funktioniert sie? In diesem Artikel zeigen wir Ihnen, worauf Sie achten sollten.

  • KI, Datenschutz & Datensicherheit

    Bevor Unternehmen generative KI einführen, sollten sie sich einige Fragen stellen, damit die neuen Dienste nicht den Datenschutz und die Datensicherheit gefährden. Forcepoint verrät, welche Fragen das sind. Die meisten Unternehmen haben den Mehrwert von generativer KI inzwischen erkannt und wollen entsprechende Dienste einführen, um ihre Mitarbeiter zu entlasten und Abläufe effizienter zu gestalten.

  • Cybersicherheit & NIS2-Compliance

    Mit der neuen EU-Richtlinie für Cybersicherheit erweitert sich der Kreis der betroffenen Firmen von rund 2.000 Unternehmen auf geschätzte 30.000. Während sich Großbetriebe von ihren Rechtsabteilungen beraten lassen, sind viele Mittelständler auf sich gestellt - und verunsichert.

  • Investitionen in nachhaltige Rechenzentren

    Digitale Technologien spielen eine wesentliche Rolle, um schädliche Emissionen zu reduzieren und die Klimaziele in Deutschland zu erreichen. So ergab eine aktuelle Bitkom-Studie zum Einsatz von digitaler Lösungen in Sektoren wie Energie, Industrie und Verkehr, dass die CO2-Emissionen im Klimaziel-Stichjahr 2030 jährlich um 73 Millionen Tonnen reduziert werden könnten.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen