Im vergangenen Jahr waren wir mit sequire auf zahlreichen Konferenzen, Panels und in Workshops im Einsatz. Ein Auszug macht das deutlich: Julia Masloh, AI Solution Engineer, hatte eine Podiumsdiskussion in der Staatskanzlei zum Thema “Künstliche Intelligenz vs. echte Kommunikation”, unser Geschäftsführer Dr. Christoph Endres gut ein Dutzend Male seinen Vortrag über Sicherheitslücken bei Generativer KI gehalten, dazu noch Vorträge über die NIS-2 Richtlinie, und zusammen mit Elizabeth Pitch, Software Engineer, haben wir den firmeninternen Innovationstag zum Thema KI begleitet und einen Workshop beim East Side Fab zu Chancen und Risiken von KI gehalten.
In fast allen Formaten waren drängenden Fragen zur Einführung von künstlicher Intelligenz (KI), zur Sicherheit großer Sprachmodelle (LLMs) oder zu neuen Regulierungen wie der NIS-2-Richtlinie präsent.
2024 war für uns ein Jahr des Zuhörens, Erklärens und Reflektierens. Die wichtigsten Erkenntnisse daraus haben wir hier für Sie zusammengefasst.
Generative KI war ohne Frage eines der dominierenden Themen im Jahr 2024. Seit dem Durchbruch mit ChatGPT Ende 2022 ist das Interesse ungebrochen – aber der Kenntnisstand hält mit dem Hype oft nicht Schritt.
In vielen Unternehmen besteht der starke Wunsch, „etwas mit KI“ zu machen. Doch was häufig fehlt, ist eine klare Strategie, eine saubere Datenbasis und vor allem ein konkreter Anwendungsfall, der echten Mehrwert schafft.
Unsere Erfahrung aus Workshops und Gesprächen:
„KI“ wird häufig als Innovationslabel genutzt – ohne echten Fit zum Problem.
Deshalb klären wir in unseren Formaten gemeinsam mit den Teilnehmenden:
Hinzu kommt: Viele grundlegende Begriffe werden noch immer verwechselt. So ist etwa die Unterscheidung zwischen Künstlicher Intelligenz (KI), Machine Learning und Generativer KI ebenso wichtig wie die zwischen deskriptiver, prädiktiver und generativer Anwendung.
Kurz erklärt: KI, Machine Learning und Generative KI
Künstliche Intelligenz (KI)
Überbegriff für Systeme, die Aufgaben übernehmen, die menschliche Intelligenz erfordern – z. B. Sprachverarbeitung, Entscheidungsfindung oder Bilderkennung.
Machine Learning (ML)
Teilbereich der KI, bei dem Algorithmen aus Daten lernen, Muster erkennen und daraus Vorhersagen oder Entscheidungen ableiten.
Generative KI (GenAI)
Spezialisierung innerhalb der KI, die darauf ausgelegt ist, neue Inhalte zu erzeugen – etwa Texte, Bilder oder Code. Bekannte Beispiele: ChatGPT, DALL·E.
Fazit: Der Hype ist verständlich – doch nachhaltiger Nutzen entsteht nur mit klarer Zielsetzung
Ein häufig sinnvoller Anwendungsfall ist das strukturierte Erfassen und Zugänglichmachen von internem Know-how.
Ein Beispiel aus der eigenen Praxis: Wir nutzen intern unseren eigenen RAG-gestützten Chatbot STACY. Er hilft dabei, unser Wissen über KI-Sicherheit zentral zu bündeln und gezielt abrufbar zu machen – für bestehende wie neue Mitarbeitende.
Kurz erklärt: Retrial-Augmented Generation (RAG)
Ein KI-Ansatz, der generative Modelle mit konkreten Dokumenten verknüpft. So werden die Antworten nicht nur sprachlich plausibel, sondern auch inhaltlich fundiert.
Aber: Ein solches KI-Projekt steht und fällt mit den Daten. Und genau hier liegt oft mehrere Probleme: Daten sind veraltet, unvollständig oder unstrukturiert. Prozesse sind nicht dokumentiert und Verantwortlichkeiten unklar. Der Einsatz von KI macht erst dann Sinn, wenn diese Grundlagen gelegt sind.
Und manchmal – auch das gehört zur Wahrheit – sind klassische Lösungen ohne KI die bessere Wahl. Gespräche über KI können ein guter Anlass sein, über allgemeine Prozessoptimierung nachzudenken.
Das Thema Datenschutz ist inzwischen in vielen Unternehmen angekommen – aber bei KI-Risiken herrscht noch großer Nachholbedarf.
Typische Reaktionen in Workshops:
Doch diese Aussagen greifen zu kurz. Denn: Prompt Injection, Model Misalignment oder manipulierte Trainingsdaten sind Risiken, die unabhängig von Hosting-Modellen bestehen.
Diese Risiken werden relevanter – spätestens mit dem EU AI Act.
Das Thema KI-Sicherheit wird kommen: Entweder durch Zwischenfälle oder durch Regulierung und gesetzliche Anforderungen.
Kurz erklärt
Prompt Injection
Angreifer schleusen manipulierte Eingaben ein, um das Verhalten eines Sprachmodells zu beeinflussen.
Model Misalignment
Ein Modell entwickelt ungewollte Strategien oder beantwortet Anfragen nicht im Sinne der Nutzer.
EU AI Act
Der EU AI Act ist die erste umfassende Gesetzgebung zur Regulierung von Künstlicher Intelligenz in der Europäischen Union. Ziel ist es, Vertrauen und Sicherheit beim Einsatz von KI-Systemen zu schaffen. Er basiert auf einem risikobasierten Ansatz und unterscheidet zwischen vier Risikostufen (Verbotene KI, Hochriskante KI, begrenztes Risiko, minimales Risiko)
2024 hat uns gezeigt: Der Wunsch nach „irgendwas mit KI“ ist groß, doch ohne Strategie bleibt er folgenlos. Risiken wie Prompt Injection und Model Misalignment werden massiv unterschätzt. Gute KI-Projekte starten mit den richtigen Fragen – nicht mit dem Tool. Und manchmal liegt die Lösung auch außerhalb der KI.
Ein Sprichwort sagt: „Never change a winning team.” Deshalb setzen wir auch 2025 auf das, was sich bewährt hat: Unternehmen mit realistischen, sicherheitsbewussten und sinnvollen KI-Konzepten zu unterstützen.
So gehen wir vor:
Fachvorträge und Panels zu KI & Sicherheit
Interaktive Workshops zur NIS-2-Richtlinie, KI-Strategie und Prozessbewertung
Individuelle Beratung zu konkreten Anwendungsfällen
Denn nachhaltige Innovation entsteht nicht aus Hype – sondern aus Verständnis, Klarheit und Orientierung.
CHRISTOPH ENDRES
Geschäftsführer
sequire technology