AI Act Beratung in Hamburg
EU KI-Verordnung: Neue Pflichten ab August 2026 – sind Sie vorbereitet?
AI Act Compliance für Hamburger Unternehmen — Risikoklassen, Pflichten und pragmatische Umsetzung
Der AI Act betrifft fast jedes Unternehmen
Auch KI-Anwender haben Pflichten
Sie müssen kein KI-Entwickler sein. Jedes Unternehmen, das KI als 'Deployer' einsetzt — ChatGPT, Copilot, Bewerbungstools — hat Dokumentations-, Transparenz- und Überwachungspflichten.
Risikoklassen bestimmen Ihre Pflichten
Der AI Act kennt vier Risikostufen. Hochrisiko-KI (z. B. Bewerbungsfilter, Kreditscoring) erfordert Registrierung, DSFA, menschliche Aufsicht und laufendes Monitoring. Die Einstufung ist komplex.
Bußgelder bis 35 Mio. € oder 7 %
Die Strafen sind gestaffelt: bis 35 Mio. € für verbotene KI, bis 15 Mio. € für Hochrisiko-Verstöße. Auch für KMU gelten erhebliche Beträge.
Persönliche Beratung + digitale Plattform
frag.hugo kombiniert persönliche Datenschutzberatung durch zertifizierte Datenschutzexperten mit einer digitalen Plattform für Ihr komplettes Datenschutzmanagement.
Warum Unternehmen in Hamburg sich für frag.hugo entscheiden
KI-Quick-Check
Welche KI-Systeme setzen Sie ein? Welche Risikoklasse? In einem Termin geklärt.
Risikoklassifizierung
Systematische Einstufung aller KI-Tools nach den vier AI-Act-Risikoklassen.
KI-Richtlinie
Interne Policy: erlaubte Tools, verbotene Daten, Verantwortlichkeiten, Freigabeprozess.
KI-Register
Dokumentation aller KI-Systeme — Vorbereitung für die EU-Datenbankregistrierung.
DSGVO + AI Act Kombi
Beide Regelwerke aus einer Hand — kein doppelter Aufwand.
Persönlich in Hamburg
Nils kennt Ihre Branche und die Hamburger Aufsichtsbehörde.
AI Act Compliance in 4 Schritten
KI-Bestandsaufnahme
Alle KI-Systeme erfassen — auch die versteckten in CRM, HR und M365.
Risikoklassifizierung
Einstufung nach AI Act: verboten, hoch, begrenzt oder minimal.
Maßnahmen umsetzen
KI-Richtlinie, KI-Register, DSFAs, Schulungen — priorisiert nach Risiko.
Monitoring
Laufende Überwachung, neue Tools prüfen, Quartals-Reviews.
Transparente Preise, keine versteckten Kosten
Alle Pakete monatlich kündbar. Persönliches Onboarding inklusive.
KI-Quick-Check
- Bestandsaufnahme aller KI-Systeme
- Risikoeinstufung nach AI Act
- Handlungsempfehlungen
- 1 Stunde Ergebnisbesprechung
KI-Compliance-Paket
- Quick-Check inklusive
- KI-Richtlinie für Ihr Unternehmen
- KI-Verzeichnis aufbauen
- Mitarbeiterschulung
- DSFA für KI-Systeme Datenschutz-Folgenabschätzung – erforderlich bei Verarbeitungen mit hohem Risiko für Betroffene (z. B. Videoüberwachung, Profiling, Gesundheitsdaten).
Laufende Betreuung
- Pro Monat, alles inklusive
- AI Act Monitoring Automatische regelmäßige Überwachung Ihrer Websites. Sie werden sofort benachrichtigt, wenn sich der Datenschutz-Status verschlechtert – z. B. nach einem Plugin-Update.
- Neue KI-Tools prüfen
- Quartals-Reviews
- Support bei Behördenanfragen
Individuelle Beratung — ohne Vertragsbindung
Sie brauchen keine laufende Betreuung, sondern eine einmalige Einschätzung oder Projektbegleitung? Wir beraten Sie auch stundenweise oder zum Festpreis.
- Einzelstunden: 159 €/h (netto) — exakt nach Aufwand abgerechnet
- Stundenpaket z. B. 10h: 139 €/h (1.390 €) — gültig 12 Monate, weitere Staffelungen auf Anfrage
- Festpreis-Projekte — z. B. KI-Risikoklassifizierung, KI-Richtlinie oder Konformitätsbewertung
- Ad-hoc-Einsätze — bei regulatorischen Änderungen oder kurzfristigem Bedarf sofort verfügbar
Das sagen unsere Mandanten
„Ein Großkunde hat uns ein NIS2-Lieferantenaudit geschickt – 38 Fragen, Nachweise verlangt. Dank frag.hugo hatten wir alle Richtlinien und das Datenschutzkonzept bereits parat. Auftrag gerettet.“
„Unsere M365-Umgebung wurde gehackt – Phishing trotz MFA. Nils hat die Meldung an die Behörde innerhalb der 72-Stunden-Frist durchgebracht. Ohne ihn hätten wir die Frist gerissen.“
„Fünf Tage vor unserer TÜV-Rezertifizierung fehlten uns die IT-Risikoanalyse und der Notfallplan. Nils hat das übers Wochenende geliefert. Der Auditor war begeistert.“
„Für jeden ist Datenschutz wichtig. Und für uns ist es wichtig, eine pragmatische Lösung zu finden, wie Unternehmen ihren Datenschutz umsetzen — ohne dabei den Geschäftsbetrieb einzustellen.“
Nils Oehmichen — Geschäftsführer & Datenschutzberater, frag.hugo
Inhalt in Kürze
- Der EU AI Act (Verordnung 2024/1689) ist seit August 2024 in Kraft — Verbote gelten seit Februar 2025, Transparenzpflichten seit August 2025, Hochrisiko-Pflichten ab August 2026.
- Auch KI-Anwender haben Pflichten: Jedes Unternehmen, das KI einsetzt — ChatGPT, Copilot, Bewerbungstools — braucht Dokumentation, Transparenz und Schulung der Mitarbeitenden.
- Bußgelder bis 35 Mio. Euro oder 7 % des Jahresumsatzes für verbotene KI-Praktiken — Compliance ist keine Option, sondern regulatorische Pflicht.
- DSGVO und AI Act aus einer Hand: frag.hugo berät Hamburger Unternehmen zu beiden Regelwerken — maßgeschneidert, verantwortungsvoll und mit lokaler Expertise.
Der AI Act kommt — und betrifft fast jedes Unternehmen

Am 1. August 2024 ist die EU-Verordnung über Künstliche Intelligenz (AI Act) in Kraft getreten. Die Pflichten gelten stufenweise: Verbote seit Februar 2025, Transparenzpflichten ab August 2025, und die vollständigen Anforderungen für Hochrisiko-KI ab August 2026. Wer jetzt nicht anfängt sich vorzubereiten, wird den Zeitplan nicht einhalten.
Dabei geht es nicht nur um Unternehmen, die selbst KI entwickeln. Jedes Unternehmen, das KI-Systeme einsetzt – als sogenannter „Deployer” – hat Pflichten. Und die Wahrscheinlichkeit ist hoch, dass Sie bereits KI einsetzen: Microsoft Copilot in Office 365, ChatGPT für Texterstellung, KI-basierte Bewerbungsfilter, automatisierte Kundenservice-Chatbots oder KI-gestützte Analytics.
Die vier Risikoklassen des AI Act
Der AI Act folgt einem risikobasierten Ansatz. Je höher das Risiko eines KI-Systems für Grundrechte und Sicherheit, desto strenger die Anforderungen:
1. Unannehmbares Risiko – Verboten
Diese KI-Systeme sind in der EU untersagt:
- Social Scoring durch Behörden oder Unternehmen
- Manipulative KI, die menschliches Verhalten unterschwellig beeinflusst
- Biometrische Echtzeit-Identifikation im öffentlichen Raum (mit engen Ausnahmen für Strafverfolgung)
- Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen
2. Hohes Risiko – Strenge Pflichten
Hier gelten umfangreiche Anforderungen an Dokumentation, Transparenz, Datenqualität und menschliche Aufsicht:
- KI in Bewerbungsverfahren: Automatisches Screening, Ranking oder Filterung von Bewerbungen
- Kreditwürdigkeitsprüfung: KI-basierte Scoring-Systeme bei Banken und Versicherungen
- KI in kritischer Infrastruktur: Energieversorgung, Wasseraufbereitung, Verkehrssteuerung
- KI in Bildung und Ausbildung: Automatische Bewertung, Zugangssteuerung
- KI im HR-Bereich: Leistungsbewertung, Beförderungsentscheidungen
Für Hamburger Unternehmen ist besonders die KI in Bewerbungsverfahren relevant: Wer ein Tool wie Personio, SAP SuccessFactors oder ein ATS mit KI-Funktionen nutzt, muss prüfen, ob es unter die Hochrisiko-Kategorie fällt.
3. Begrenztes Risiko – Transparenzpflichten
KI-Systeme, die direkt mit Menschen interagieren, müssen als KI gekennzeichnet werden:
- Chatbots: Nutzer müssen wissen, dass sie mit einer KI kommunizieren
- KI-generierte Inhalte: Texte, Bilder und Videos müssen als KI-generiert erkennbar sein (Deepfakes)
- Generative KI (wie ChatGPT, Claude, Midjourney): Anbieter haben eigene Pflichten; als Nutzer müssen Sie KI-generierte Inhalte kennzeichnen
4. Minimales Risiko – Keine spezifischen Pflichten
Die meisten KI-Anwendungen fallen in diese Kategorie: Spam-Filter, Autokorrektur, Empfehlungsalgorithmen, Navigationsapps. Hier gelten keine besonderen Anforderungen durch den AI Act – wohl aber die allgemeinen Datenschutzpflichten nach DSGVO.
ChatGPT, Copilot & Co.: Die versteckten Risiken
Viele Unternehmen setzen generative KI bereits im Arbeitsalltag ein – oft ohne klare Richtlinien. Die Risiken sind erheblich:
Datenschutz
Wenn Mitarbeiter personenbezogene Daten (Kundennamen, E-Mail-Adressen, Vertragsdaten) in ChatGPT eingeben, verarbeitet OpenAI diese Daten auf US-Servern. Das ist ohne AVV, ohne angemessene Rechtsgrundlage und ohne Information der Betroffenen ein DSGVO-Verstoß. Dasselbe gilt für den Upload sensibler Dokumente.
Geschäftsgeheimnisse
Interne Strategiepapiere, Finanzdaten, Quellcode oder Kundenlisten in ein KI-Tool eingeben? Samsung hat 2023 schmerzhaft erfahren, was passieren kann, als vertraulicher Quellcode über ChatGPT nach außen gelangte. Eine klare KI-Richtlinie ist unverzichtbar.
Urheberrecht
KI-generierte Texte, Bilder und Code werfen Fragen zum Urheberrecht auf. Wer ist Urheber? Dürfen die Ergebnisse kommerziell genutzt werden? Verletzen sie bestehende Urheberrechte? Diese Fragen müssen unternehmensintern geklärt werden.
Maßgeschneiderte AI-Act-Compliance für Hamburger KMU

1. Bestandsaufnahme
Erfassen Sie alle KI-Systeme, die in Ihrem Unternehmen eingesetzt werden – auch die, von denen Sie vielleicht nicht wissen, dass sie KI enthalten. Microsoft 365 mit Copilot, das CRM mit Lead-Scoring, das Bewerbertool mit automatischer Vorauswahl: All das ist KI im Sinne des AI Act.
2. Risikoeinstufung
Ordnen Sie jedes KI-System einer Risikoklasse zu. Bei Hochrisiko-Systemen beginnen Sie sofort mit der Umsetzung der Anforderungen – August 2026 ist näher, als man denkt.
3. KI-Richtlinie erstellen
Definieren Sie intern:
- Welche KI-Tools sind erlaubt, welche verboten?
- Welche Daten dürfen eingegeben werden, welche nicht?
- Wie werden KI-generierte Ergebnisse geprüft und freigegeben?
- Wer ist für die KI-Compliance verantwortlich?
- Wie werden Mitarbeiter geschult?
4. Datenschutz sicherstellen
Für jedes KI-System, das personenbezogene Daten verarbeitet, brauchen Sie:
- Einen Eintrag im Verzeichnis der Verarbeitungstätigkeiten
- Ggf. einen Auftragsverarbeitungsvertrag mit dem KI-Anbieter
- Eine Datenschutz-Folgenabschätzung (bei Hochrisiko-KI)
- Eine Aktualisierung Ihrer Datenschutzerklärung
5. KI-Verzeichnis aufbauen
Der AI Act verlangt von Deployers von Hochrisiko-KI die Registrierung in der EU-Datenbank. Aber auch unabhängig von dieser Pflicht empfehlen wir ein internes KI-Verzeichnis: Welches System, wofür eingesetzt, welche Risikoklasse, wer ist verantwortlich, welche Maßnahmen sind umgesetzt.
AI Act und DSGVO: Zwei Regelwerke, ein Thema
Der AI Act ergänzt die DSGVO, ersetzt sie aber nicht. Wenn ein KI-System personenbezogene Daten verarbeitet, gelten beide Regelwerke gleichzeitig. Als Unternehmen, das Datenschutzberatung und AI-Act-Compliance aus einer Hand bietet, stellen wir sicher, dass Sie beide Anforderungen effizient erfüllen – ohne doppelten Aufwand.
KI-Schulung: Pflicht nach dem EU AI Act
Seit Februar 2025 sind Unternehmen verpflichtet, Mitarbeitende im Umgang mit KI zu schulen (Art. 4 AI Act). Diese Schulungspflicht gilt unabhängig von der Risikoklasse und betrifft alle Mitarbeitenden, die KI-Systeme einsetzen. Eine maßgeschneiderte Schulung vermittelt:
- Grundlagen des EU AI Act und der regulatorischen Anforderungen
- Risiken und ethische Aspekte beim Einsatz von KI im Unternehmen
- Verantwortungsvoller Umgang mit KI-generierten Inhalten
- Transparenzpflichten bei der Nutzung von KI-Systemen
- Datenschutz und KI: Schnittstellen zur DSGVO
Unsere Schulungen sind interaktiv, praxisnah und auf Ihre Branche zugeschnitten. Sie können als Ergänzung zu unserer Datenschutzschulung gebucht werden.
Innovation und Compliance vereinen
Der AI Act soll KI nicht verhindern, sondern verantwortungsvoll gestalten. Für Hamburger KMU bedeutet das: Die Transformation zur KI-gestützten Arbeitsweise ist möglich — wenn die regulatorischen Anforderungen von Anfang an berücksichtigt werden. Wir beraten Sie dabei, KI-Projekte compliant umzusetzen, ohne die Innovationskraft Ihres Unternehmens zu bremsen. Unsere maßgeschneiderte AI-Act-Beratung berücksichtigt Ihre Branche, Ihre eingesetzten KI-Systeme und Ihre bestehende Compliance-Struktur — keine Lösung von der Stange, sondern maßgeschneidert auf Ihre Anforderungen.
Maßgeschneiderte Beratungsangebote und Services im Bereich Künstliche Intelligenz

Künstliche Intelligenz verändert die Arbeitswelt grundlegend — von der Automatisierung repetitiver Arbeitsabläufe über KI-gestützte Entscheidungssysteme bis hin zu innovativen Geschäftsmodellen. Unsere interdisziplinäre Expertise verbindet technologisches Know-how mit rechtlichem Fachwissen, um KI-Systeme sicher und rechtskonform in Ihrem Unternehmen zu implementieren. Dabei verbinden wir Data Governance, ethische Standards und regulatorische Anforderungen zu einem ganzheitlichen Consulting-Ansatz — certified und praxiserprobt.
Unser Beratungsangebot umfasst:
- KI-Kompetenz für Führungskräfte: Interaktive Workshops vermitteln Best Practices für den sicheren Umgang mit KI und ethische Standards — praxisnahe Insights statt abstrakter Theorie
- KI-Projekte begleiten: Von der Einführung von KI bis zur Implementierung begleiten wir Ihre KI-Projekte entlang der rechtlichen Rahmenbedingungen und helfen, Risiken zu minimieren
- Audits und Compliance-Checks: Regelmäßige Überprüfung Ihrer KI-Systeme auf Konformität mit dem EU AI Act und der DSGVO
- Schutz geistigen Eigentums: Beratung zu Urheberrecht, Data Governance und dem verantwortungsvollen Einsatz generativer KI-Lösungen wie Large Language Models
Für KMU, Start-ups und Unternehmen in der Industrie bieten wir maßgeschneiderte Services, die auf die spezifischen Anforderungen Ihrer Branche zugeschnitten sind. Mit langjähriger Erfahrung beraten unsere Expertinnen und Experten effizient und zielorientiert — damit Sie KI verantwortungsvoll und rechtskonform einsetzen, ohne Reputationsschäden zu riskieren.
Starten Sie jetzt mit einem KI-Quick-Check: Buchen Sie ein kostenloses Erstgespräch und klären Sie, welche KI-Systeme Sie einsetzen und welche Pflichten sich daraus ergeben. Nils Oehmichen berät Sie persönlich — mit Expertise in Datenschutz, KI-Compliance und der Hamburger Unternehmenslandschaft.
EU AI Act für Unternehmen — Häufige Fragen
Der EU AI Act (Verordnung 2024/1689) ist die weltweit erste umfassende Regulierung für Künstliche Intelligenz und KI-Systeme. Er klassifiziert KI-Projekte nach Risikostufen und legt je nach Stufe unterschiedliche Compliance-Pflichten fest – von ethischen Anforderungen bis hin zu Transparenzpflichten. Ab 2025 greifen erste Verbote, die meisten Pflichten für Unternehmen gelten ab August 2026.
Ja, der EU AI Act unterscheidet nicht nach Unternehmensgröße, sondern nach Art des KI-Systems und dessen Risiko. Wenn Sie ChatGPT, Microsoft Copilot, KI-gestützte Bewerbermanagement-Systeme oder automatisierte Scoring-Tools einsetzen, fallen Ihre KI-Projekte unter die Verordnung. Selbst die Nutzung von Künstlicher Intelligenz als Deployer (Anwender) bringt Compliance-Pflichten mit sich – maßgeschneiderte Beratung hilft Ihnen, diese verantwortungsvoll zu erfüllen.
Der EU AI Act kennt vier Risikostufen für KI-Systeme: Unannehmbares Risiko – verboten (z. B. Social Scoring, manipulative KI), hohes Risiko – strenge Compliance-Pflichten (z. B. KI in Bewerbungsverfahren, Kreditwürdigkeitsprüfung), begrenztes Risiko – Transparenzpflichten (z. B. Chatbots, Deepfakes), minimales Risiko – keine spezifischen Pflichten. Die Einstufung Ihrer KI-Projekte in die richtige Risikoklasse ist der erste Schritt zur ethischen und rechtskonformen Nutzung.
Dringend empfohlen – eine KI-Richtlinie regelt intern, wer welche KI-Systeme nutzen darf, wie Transparenz gegenüber Mitarbeitenden und Betroffenen sichergestellt wird und wer für die Compliance verantwortlich ist. Ohne verbindliche Richtlinie riskieren Sie, dass Mitarbeitende unkontrolliert vertrauliche Daten in Künstliche Intelligenz eingeben. Wir beraten Sie bei der Erstellung maßgeschneiderter KI-Richtlinien, die ethische Grundsätze und den verantwortungsvollen Einsatz von KI sicherstellen.
Die Bußgelder sind gestaffelt: Bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes für verbotene KI-Praktiken, bis zu 15 Millionen Euro oder 3 % für Verstöße bei Hochrisiko-KI-Systemen. Für KMU gelten teilweise niedrigere Grenzen, aber die Beträge sind dennoch erheblich – eine frühzeitige Compliance-Beratung minimiert dieses Risiko deutlich.
Art. 4 des EU AI Act verpflichtet Unternehmen sicherzustellen, dass alle Mitarbeitenden, die KI-Systeme nutzen, über ausreichende KI-Kompetenz verfügen. Schulungen sollten die Risikobewertung von Künstlicher Intelligenz, den ethischen und verantwortungsvollen Umgang mit KI-Projekten sowie Transparenzpflichten abdecken. Wir beraten Sie bei der Konzeption maßgeschneiderter Schulungsprogramme, die Ihre Compliance-Anforderungen praxisnah erfüllen.
Wir beraten Sie umfassend zur Umsetzung des EU AI Act: Von der Inventarisierung Ihrer KI-Systeme über die Risikobewertung bis zur Erstellung maßgeschneiderter Compliance-Dokumentation. Unsere Expertise umfasst die Klassifizierung Ihrer KI-Projekte, die Entwicklung ethischer KI-Richtlinien und die Schulung Ihrer Mitarbeitenden. Nils Oehmichen begleitet Sie persönlich – verantwortungsvoll und praxisnah.
maximales Bußgeld
Hochrisiko-Pflichten
Bußgelder bei unseren Mandanten
Der AI Act ist in Kraft. Verbote gelten seit Februar 2025. Transparenzpflichten seit August 2025. Die vollständigen Hochrisiko-Anforderungen greifen ab August 2026. Wer jetzt nicht anfängt, wird den Zeitplan nicht einhalten.
Jetzt absichern — Erstgespräch buchenInformationssicherheit & Datenschutz in Hamburg
Hamburg ist einer der wichtigsten Wirtschaftsstandorte Deutschlands. Ob Logistik, Maritime Wirtschaft, Medien, E-Commerce oder Finanzdienstleister — jede Branche hat eigene Datenschutzanforderungen.
Als Unternehmen mit Sitz in Hamburg kennen wir den lokalen Markt und die Hamburgische Beauftragte für Datenschutz und Informationsfreiheit (HmbBfDI). Wir wissen, wie die Behörde arbeitet und worauf sie bei Prüfungen achtet.
Unser Büro in der Spaldingstraße 64-68, 20097 Hamburg steht Ihnen für persönliche Vor-Ort-Termine offen.
Nils Oehmichen & Jens Hagel — Ihre Ansprechpartner
Jetzt Erstgespräch vereinbaren
Oder: Lassen Sie Ihre Website kostenlos prüfen — in 60 Sekunden wissen Sie, wo Sie stehen.
Unverbindlich, persönlich, ohne versteckte Kosten.