Gastbeitrag von Markus v. Hohenhau

Künstliche Intelligenz ist längst mehr als ein Hype – sie hat Einzug in den Arbeitsalltag vieler Unternehmen gehalten. Laut einer aktuellen Umfrage der IHK Nord Westfalen setzen bereits 53 Prozent der befragten Betriebe auf KI-Anwendungen wie ChatGPT, Copilot, Perplexity, DeepL oder Gemini. Ob zur Texterstellung, Recherche oder Übersetzung – KI-Tools versprechen Effizienz und Erleichterung. 

Doch der schnelle Griff zu diesen digitalen Helfern birgt Risiken, die vielen Nutzerinnen und Nutzern nicht bewusst sind. Häufig werden KI-Systeme über den Webbrowser genutzt – oft ohne Rücksprache mit der IT-Abteilung oder einem konkreten Sicherheitskonzept. Dabei geraten sensible Daten unter Umständen in die Trainingssysteme der Anbieter und könnten somit unfreiwillig weiterverwendet werden. Die Gefahr: Betriebsgeheimnisse könnten ungewollt preisgegeben, Datenschutzvorgaben verletzt und rechtliche Fallstricke übersehen werden. 

Gerade weil die Technologie so viel Potenzial bietet, ist ein verantwortungsvoller Umgang umso wichtiger. Doch genau hier zeigt sich ein Problem: Vielen Mitarbeitenden und auch Führungskräften fehlen grundlegende Informationen über die rechtlichen Rahmenbedingungen und technischen Hintergründe.

Neues EU-Gesetz zu Künstlicher Intelligenz: Was Unternehmen jetzt wissen müssen

Seit dem 01.09.2024 ist die europäischen KI-Verordnung – auch bekannt als AI Act – in Kraft getreten. Mit der KI-Verordnung schafft die EU erstmals einen verbindlichen Rechtsrahmen für den Einsatz von Künstlicher Intelligenz. Ziel ist es, die technologische Entwicklung innerhalb Europas zu fördern – aber gleichzeitig klare Regeln für einen verantwortungsvollen und sicheren Umgang mit KI-Systemen zu schaffen.

Die Regelungen gelten für alle Unternehmen, die KI-Anwendungen entwickeln, bereitstellen oder nutzen – unabhängig davon, ob sie in der EU ansässig sind oder nicht. Entscheidend ist, ob die Systeme in der EU eingesetzt werden oder ihre Ergebnisse Auswirkungen auf Personen innerhalb der Union haben.

Herzstück der Verordnung ist ein risikobasierter Ansatz: Je höher das Risiko eines KI-Systems für die Gesellschaft, desto strenger die Anforderungen. Seit dem 02.02.2025 sind bestimmte Hochrisiko-Systeme, etwa solche mit manipulativen oder diskriminierenden Funktionen, in der EU vollständig verboten.

Doch die Anforderungen enden nicht bei den Entwicklern. Auch Unternehmen, die KI nutzen, müssen handeln. Ab Februar 2025 sind Unternehmen verpflichtet, dafür zu sorgen, dass alle Mitarbeitenden, die mit KI-Systemen arbeiten, über fundierte KI-Kompetenzen verfügen (Art 4 KI-VO, Art 3 Nr. 56 KI-VO). Das bedeutet: Sie müssen nicht nur verstehen, wie KI technisch funktioniert, sondern auch ihre Chancen, Grenzen und rechtlichen Fallstricke einordnen können.

„KI-Kompetenz“ meint weit mehr als bloßes Anwenderwissen. Gefordert ist ein reflektierter Umgang mit Algorithmen, ein Bewusstsein für Datenschutz- und Urheberrechtsfragen sowie ein Grundverständnis für ethische und rechtliche Implikationen.

https://s3.eu-central-1.amazonaws.com/ibi-assets/content/ki-schulung_blog.png

Genau hier setzt ein praxisorientiertes Weiterbildungsangebot an: ibi research bietet in Kooperation mit der KI-Entwicklerfirma trinnovative GmbH und mir als Fachanwalt für IT-Recht Online-Schulungen zur KI-Kompetenz an. Der nächste Termin findet am 23. Juli 2025 von 9:00 bis 12:30 Uhr via Zoom statt. Teilnehmende erhalten einen fundierten Überblick über die Anforderungen des AI Acts, konkrete Anwendungsbeispiele aus der Unternehmenspraxis sowie wertvolle Hinweise zu Datenschutz, Urheberrecht und Geheimnisschutz im Kontext generativer KI. Die Teilnahme kostet 149 Euro inklusive Teilnahmebescheinigung.

Weitere Informationen sowie die Möglichkeit zur Anmeldung finden Interessierte unter www.ibi.de/KI-Schulung.


24.06.2025