scip Monthly Security Summary Ausgabe Januar 2025

Künstliche Intelligenz im Sicherheitsumfeld

excerpt of owl on dark background

Editorial

Januar 2025: Abschiede

Liebe Leserinnen und Leser: Abschiede – ein Wort, das in uns oft gemischte Gefühle hervorruft. Es kann mit Verlust und Wehmut verbunden sein, aber auch mit Hoffnung und Neuanfang. Abschied bietet jedoch auch die Chance, Raum für Neues zu schaffen. Ob es der Abschied von einer alten Gewohnheit, einem Arbeitsplatz oder sogar einer Lebensphase ist: Jedes Auf Wiedersehen lädt uns dazu ein, innezuhalten und den Blick nach vorn zu richten. Stellen Sie sich zum Beispiel Abschiede im Kontext von neuen Technologien und Security vor. Wir verabschieden uns von überholten Systemen, um innovativen Technologien Platz zu machen. Denken wir nur an die rasante Entwicklung der Künstlichen Intelligenz. KI lässt uns alte Muster hinter uns lassen und eröffnet uns gleichzeitig Möglichkeiten, die zuvor unvorstellbar waren. Mit jedem Fortschritt nehmen wir Abschied von manuellen, repetitiven Prozessen und gewinnen Zeit für kreatives und strategisches Denken. Was geschieht jedoch mit der Security im Zusammenhang mit KI? Denken wir an Cybersicherheit, wenn wir neue Technologien nutzen?

Meines Erachtens braucht es hier ganz dringend ein Paradigmenwechsel. So sollten wir uns generell stärker hinterfragen, wie wir gewisse KI-Tools nutzen, was wir überhaupt alles von uns preisgeben möchten, welchen Mehrwert wir generieren, und wie wir Menschen in diesen Prozess mit einbringen wollen. Egal, ob dies nun im Privatleben oder im Arbeitsalltag stattfindet. Unser Blue Team, genauer gesagt Rocco Gagliardi und Andrea Covello, machen uns diesen Monat mit ihrer Recherche zu KI im Büro: Fluch oder Segen? auf diese Thematik im Unternehmensumfeld aufmerksam. Sie zeigen auf, welche Chancen und Risiken mit Copilot in Office 365 bestehen, und geben Einblick in diverse Strategien, die wir ebenfalls in unseren Projekten einfliessen lassen, damit relevante Sicherheitsaspekte bei der Nutzung von KI-Tools in Unternehmen stets berücksichtigt werden. Sie sehen also: Abschiede haben durchaus auch ihre positiven Aspekte. Abschied nehmen von Mythen und Hypes, Abschied nehmen von veralteten Denkweisen, Abschied nehmen von der Überlegung, dass digitale Transformation ohne Cybersicherheit funktioniert, und Abschied nehmen vom Gedanken, dass wir nicht die Möglichkeit hätten, aus jedem Abschied etwas Neues zu schaffen.

Serena Bolt, Business Analystin

News

Das ist bei uns passiert

Vorlesung an der ZHDK CAS Digitale Lern- und Lehrstrukturen

Marisa Tschopp hält heute Freitag an der ZHDK im Rahmen des CAS Digitale Lern- und Lehrstrukturen eine Vorlesung unter dem Motto Kreativität trifft Zukunft. Teilnehmende werden vor allem Einblick in ihre aktuelle Forschung hinsichtlich Mensch-Maschine-Interaktion erhaschen. Ausserdem wird sie spezifisch auf die Thematik der Companion-Bots eingehen, der interaktiven kritischen Auseinandersetzung derer, sowie die psychologischen Perspektiven und ethischen Implikationen mit künstlicher Intelligenz darlegen.

Veröffentlichung einer Schwachstelle

Ralph Meier konnte im Produkt VIWIS LMS 9.11, einer Learning Management Software, eine weitere Sicherheitslücke aufdecken. Es handelt sich dabei um eine Cross-Site-Scripting-Schwachstelle. Betroffen war der Parameter filename bei der Upload-Funktion innerhalb des Forums des LMS. Die öffentliche Freigabe wurde in Zusammenarbeit mit dem Hersteller koordiniert, die Schwachstelle als CVE-2024-8002 gehandelt. Die Schwachstelle wurde in der Version 9.12 behoben. Wir empfehlen daher, eingesetzte Versionen zu aktualisieren.

Interview auf 20 Minuten zu AI Minions

Im Netz kursieren derzeit gefährliche KI-generierte Videos, die unter dem Hashtag AI Minions bekannt sind. Darin zu sehen sind vermeindlich unbedenkliche Videos, die jedoch von brutaler Gewalt handeln. Marc Ruef hat sich mit 20 Minuten in einem Interview darüber ausgetauscht, wie gefährlich solche Videos vor allem für Kinder sind. Dabei sind solche verstörenden Inhalte nichts neues: Bereits in der Vergangenheit wurden in den Sozialen Medien ähnliche Videos mit Zeichentrick-Charakteren in Umlauf gebracht. Ruef warnt daher, dass Kinder nie unkontrolliert im Internet surfen sollten, und falls ein Video unabsichtlich konsumiert wird, man unbedingt das Gespräch mit den Kindern sucht. Obwohl sich im Bereich Kinderschutz im Internet in den letzten Jahren viel getan hat, sind schlussendlich Eltern für einen altersgerechten Konsum ihrer Kinder im Internet verantwortlich.

Fachartikel

Aktuelle Erkenntnisse

In der sich ständig weiterentwickelnden Welt der Enterprise-Technologie hat die Einführung von Copilot für Microsoft 365 eine lebhafte Debatte ausgelöst. Ob Copilot ein bahnbrechender KI-unterstützter Assistent ist, welcher die Produktivität und Zusammenarbeit in Unternehmen zu verbessern vermag, oder doch ein potenzielles Minenfeld aus Sicherheitsrisiken und Compliance-Problemen darstellt? Zusammen mit Copilot tauchen auch Retrieval-Augmented Generation (RAG)-Systeme als eine weitere Schlüsseltechnologie auf, die präzisere Informationsabrufe und kontextbewusste generative KI-Antworten ermöglichen, die Entscheidungsprozesse grundlegend verändern können. In diesem Artikel werden wir hauptsächlich die Auswirkungen der Integration von Copilot in M365 und die zunehmende Einführung von RAG-Systemen thematisieren, und dabei die wichtigsten Überlegungen für Fachleute und Entscheidungsträger hervorheben, die mit der Nutzung von Copilot einhergehen.

Der Aufstieg von Copilot in M365

Copilot ist Microsofts Antwort auf die aktuelle KI-Revolution. Es ist ein leistungsstarkes Werkzeug, das darauf ausgelegt ist, die Art und Weise, wie wir mit M365-Anwendungen interagieren, revolutioniert. Copilot kann als virtueller Assistent angesehen werden, der Emails verfasst, Dokumente zusammenstellt oder zusammenfasst, Code-Snippets generiert und sogar Ideen brainstormt. Die Auswirkungen von Copilot gehen jedoch weit über eine erhöhte Produktivität hinaus, dessen Risiken nicht ausser Acht gelassen werden sollten.

Sich durch die Risiken von Copilot navigieren

Wie bei jeder disruptiven Technologie bringt Copilot in M365 einige Sicherheitsbedenken mit sich. Wir haben einige Fallstricke näher betrachtet und wollten herausfinden, wie man diese nicht nur identifiziert, sondern proaktiv adressieren kann.

Risiken in Bezug auf Datenschutz und Compliance

Eine der Hauptsorgen rund um Copilot ist die mögliche Auswirkung auf Datenschutz und Compliance. Der Zugriff von Copilot auf Unternehmensdaten, einschliesslich vertraulicher Dokumente, Kundeninformationen und proprietären Geschäftsdaten, werfen Fragen zur Datenhoheit und dem Schutz sensibler Informationen auf. Cybersicherheitsteams müssen sicherstellen, dass die Integration von Copilot mit den Richtlinien zur Datenverwaltung und den regulatorischen Anforderungen der Organisation übereinstimmt, wie beispielsweise der Datenschutz-Grundverordnung (DSGVO) oder dem Health Insurance Portability and Accountability Act (HIPAA), da viele Branchen, wie Gesundheitswesen, Finanzen und Regierungen strenge Vorschriften für die Handhabung sensibler Daten einhalten müssen.

Insider-Bedrohungen und unbefugter Zugriff

Die Integration von Copilot in die M365-Umgebung führt auch zu Risiken in Bezug auf Insider-Bedrohungen und unbefugtem Zugriff. Böse Akteure können Copilot möglicherweise nutzen, um sich Zugriff auf sensible Daten zu erschleichen. Cybersicherheitsteams müssen daher robuste Zugriffskontrollen, Benutzerüberwachung und Anomalieerkennungsmechanismen implementieren, um diese Risiken zu mindern.

Bedenken bezüglich geistigen Eigentums und Vertraulichkeit

Ein weiteres Bedenken ist, dass Copilot versehentlich geistiges Eigentum und vertrauliche Geschäftsgeheimnisse preisgibt oder gefährdet. Copilots Fähigkeit, Inhalte auf Basis der Daten zu generieren, auf die es Zugriff hat, birgt das Risiko, dass sensible Informationen ohne Autorisierung weitergegeben oder reproduziert werden. Sicherheitsspezialisten müssen eng mit den Rechts- und Compliance-Teams zusammenarbeiten, um klare Richtlinien und Vorgaben für die Nutzung von Copilot festzulegen, insbesondere in Bezug auf den Schutz von geistigem Eigentum und vertraulichen Daten.

Das Potenzial von Copilot nutzen

Werfen wir einen Blick auf die positiven Aspekte des KI-Assistenten. Das Potenzial von Copilot ist definitiv gegeben.

Produktivität und Zusammenarbeit steigern

Einer der überzeugendsten Aspekte von Copilot ist seine Fähigkeit, verschiedene Aufgaben innerhalb des M365-Ökosystems zu optimieren und zu automatisieren. Dabei ist Copilot als nützlichen Assistenten zu betrachten, der ganzen Teams einen hilfreichen Zeitgewinn im Business-Alltag herausholen kann. Wenn es um das Zusammenarbeiten im Team geht, hilft Copilot, Ideen gemeinsam zu brainstormen, Projekte zu koordinieren und Mitarbeitenden helfen, stets auf dem aktuellen Stand der Dinge zu bleiben.

Verbesserung des Engagements und der Fähigkeiten der Mitarbeiter

Ein weiterer potenzieller Vorteil von Copilot ist die Fähigkeit, das Engagement und die Fähigkeiten der Mitarbeiter zu steigern. Indem Copilot sich um wiederholende oder mühsame Aufgaben kümmert, kann das Team sich auf strategische und komplexere Arbeiten konzentrieren. Während Mitarbeiter mit dem KI-Assistenten interagieren, werden sie unweigerlich neue Fähigkeiten und Techniken erlernen und in der Nutzung der M365-Tools und -Anwendungen geschickter werden. Wir gehen davon aus, dass ganze Teams dadurch viel kreativer arbeiten können, was schlussendlich dem Unternehmen zu Gute kommt.

Geschäftsprozesse optimieren

Das Potenzial von Copilot geht über die individuelle Produktivität und Zusammenarbeit hinaus. Copilot kann auch helfen, die Geschäftsprozesse von Organisationen zu optimieren, sei dies in den Bereichen Kundenservice, Vertrieb oder Marketing.

Erfolgsstrategien für Copilot

Die Integration von Copilot in die M365-Umgebung erfordert eine zarte Balance zwischen dem Nutzen der Chancen, die es bietet, und der Minderung der damit verbundenen Risiken. Cybersicherheitsexperten müssen daher eng mit IT-, Rechts- und Compliance-Teams zusammenarbeiten, um eine umfassende Strategie zu entwickeln, die die einzigartigen Bedürfnisse und Anforderungen von Organisationen berücksichtigt.

Wichtige Schritte in diesem Prozess umfassen folgende Punkte:

  • Eine solide Governance-Struktur für den Einsatz des KI-Assistenten bereitstellen.
  • Klare Richtlinien und Vorgaben für die Nutzung von Copilot festlegen, einschliesslich Datenverwaltung, Zugriffskontrollen und Schutz geistigen Eigentums.
  • Eine gründliche Risikoanalyse durchführen, um potenzielle Schwachstellen zu identifizieren und zu beheben, die durch Copilot eingeführt werden könnten.
  • Robuste Sicherheitskontrollen wie Benutzerüberwachung, Anomalieerkennung und Datenschutzmassnahmen implementieren, um das Risiko unbefugten Zugriffs und von Datenpannen zu verringern.
  • Umfassende Sicherheits-Schulungen und dazugehörige Sensibilisierung für Mitarbeiter anbieten, um ihnen zu helfen, sichere Praktiken bei der Nutzung von Copilot zu verstehen und zu übernehmen.
  • Sicherstellen, dass die M365-Umgebung auch Best Practices folgt, damit die neuesten Sicherheitsprotokolle, MFA, Datenverschlüsselung (auch im Ruhezustand) und Datenwiederherstellungsverfahren greifen.
  • Die Sicherheitsstrategie kontinuierlich überwachen und anpassen, da sich Copilots Fähigkeiten und die Cybersicherheitslandschaft stets weiterentwickeln.

RAG

Ein Retrieval-Augmented Generation (RAG)-System kombiniert den Informationsabruf mit generativer KI, um kontextuell präzise Antworten zu generieren. In seiner klassischen Form ruft ein RAG-System relevante Dokumente aus einer Wissensdatenbank ab und nutzt diese, um das generative KI-Modell bei der Erstellung einer Antwort zu steuern. Dieser Ansatz ist linear und statisch und eignet sich ideal für Aufgaben wie kontextbezogene Suche und Dokumentenzusammenfassung.

Ein agentisches RAG-System fügt dagegen Entscheidungsfähigkeiten hinzu, indem es iterative Feedback-Schleifen verwendet, um Abrufstrategien dynamisch anzupassen und mehrstufige Aufgaben durchzuführen. Durch die Nutzung von Werkzeugen, APIs oder Plugins kann das agentische RAG-System sich entwickelnde Anfragen und komplexe Arbeitsabläufe bewältigen, was es für interaktive Problemlösungen und adaptive Wissensentdeckung geeignet macht. Beide Ansätze sind leistungsstark, wobei das klassische RAG durch Einfachheit und Zuverlässigkeit glänzt, während agentisches RAG mehr Flexibilität und Autonomie bietet.

Agentische Retrieval-Augmented Generation (RAG)-Systeme bieten dynamische und anpassungsfähige Fähigkeiten, bringen jedoch auch erhebliche Sicherheitsrisiken mit sich. Dazu gehören mögliche Datenlecks, die Halluzination von ungenauen Ausgaben, Anfälligkeit für Injection Angriffe und unauthorisierte Nutzung integrierter Werkzeuge oder APIs. Ihre dynamische Natur kann Zugriffskontrollen umgehen, Fehler verstärken und die Überwachung und Prüfung erschweren. Robuste Schutzmassnahmen wie rollenbasierte Zugriffskontrollen, Validierungsebenen und regelmässige Audits sind erforderlich, um diese Risiken zu mindern.

RAG-Risiko-Analyse nach Komponenten

Werfen wir nun einen Blick auf die Risiko-Analyse von RAG-Systemen:

Embeddings

Der Embedding-Prozess in maschinellem Lernen und natürlicher Sprachverarbeitung (NLP) wandelt Daten wie Texte, Bilder oder andere Eingaben in dichte numerische Vektoren um, die die semantische Bedeutung und Beziehungen erfassen. Diese Vektoren ermöglichen es KI-Systemen, Aufgaben wie Approximate Nearest Neighbor (ANN) durchzuführen, indem sie die Nähe der Vektoren im semantischen Raum analysieren.

Risiken:

  • Datenlecks: Sensible Informationen können unbeabsichtigt in Embeddings kodiert werden, was sie zugänglich macht, wenn Embeddings kompromittiert werden.
  • Halluzinierte Ausgaben: Schlechte oder ungenaue Embeddings können dazu führen, dass irrelevante oder irreführende Kontexte abgerufen werden, was die Wahrscheinlichkeit halluzinierter Antworten erhöht.
  • Injection-Angriffe: Schadhafte Eingabeanfragen könnten den Embedding-Erstellungsprozess manipulieren, um den Abruf in unerwünschte Richtungen zu beeinflussen.

Minderungsstrategien:

  • Anonymisieren von sensible Daten vor der Erstellung von Embeddings, um sicherzustellen, dass persönliche oder vertrauliche Informationen nicht direkt in die Vektoren kodiert werden.
  • Verschlüsseln von Embeddings während der Speicherung und Übertragung, um sie vor unbefugtem Zugriff oder Abhören zu schützen.
  • Regelmässiges Evaluieren von Embedding-Modellen, um sicherzustellen, dass qualitativ hochwertige Darstellungen erstellt werden, die Ungenauigkeiten minimieren und das Risiko der Erstellung ähnlicher Vektoren für nicht verwandte Daten verringern.
  • Implementierung von Zugriffskontrollen für den Prozess der Embedding-Erstellung, um sicherzustellen, dass nur autorisierte Benutzer Embeddings im System erstellen oder aktualisieren können.
  • Validieren von Eingabedaten vor der Erstellung von Embeddings, um zu verhindern, dass schadhafte oder unbeabsichtigte Daten in den Vektorraum kodiert werden.
  • Einführung von Filtermechanismen, um Embeddings mit potenziell schädlichen oder irrelevanten Eingabedaten zu verwerfen oder zu kennzeichnen.
  • Verwenden von Differential Privacy-Techniken, um ein kontrolliertes Rauschen zu Embeddings hinzuzufügen, sodass es schwierig wird, sensible Informationen direkt aus den Vektoren zu extrahieren.
  • Überwachen und protokollieren der Erstellung und Nutzung von Embeddings, um Anomalien oder verdächtige Aktivitäten zu verfolgen, die auf einen möglichen Missbrauch oder generell auf Sicherheitsprobleme hindeuten könnten.
  • Regelmässiges Aktualisieren der Embedding-Modelle und das regelmmässige Retraining auf aktualisierte Daten, um die Daten-Relevanz zu erhalten und Risiken von veralteten Daten oder Biases zu mindern.

Vektor-Datenbanken und ihre Sicherheitsaspekte

Vektor-Datenbanken spielen eine zentrale Rolle in modernen KI-Modellen, da sie als Speicherorte für Embeddings und andere wichtige Daten dienen. Diese Datenbanken ermöglichen schnelle und effiziente Suchanfragen, die für viele RAG (Retrieval-Augmented Generation) Systeme von entscheidender Bedeutung sind.

Risiken im Zusammenhang mit Vektor-Datenbanken

  • Datenlecks: Unzureichend gesicherte Vektor-Datenbanken können dazu führen, dass sensible Daten unbefugt abgerufen werden.
  • KI-Halluzinationen und Angriffe: Böswillige Eingaben können dazu führen, dass bestimmte Daten in den Suchergebnissen der Vektor-Datenbank bevorzugt werden, was zu unsicheren oder irrelevanten Ergebnissen führen kann.
  • Überwachung und Protokollierung: Eine mangelhafte Überwachung und Protokollierung der Datenbankabfragen kann dazu führen, dass Angriffe oder Missbrauch nicht rechtzeitig erkannt werden.

Strategien zur Minderung von Risiken in Vektor-Datenbanken

  • Verschlüsselung: Sowohl die Daten im Ruhezustand als auch bei der Übertragung sollten verschlüsselt werden, um sicherzustellen, dass sie nur von autorisierten Benutzern und Systemen abgerufen werden können.
  • Zugriffsprotokolle und Auditing: Detaillierte Aufzeichnungen von Abfragen und Datenbankzugriffen ermöglichen die nachträgliche Analyse und Identifikation von Sicherheitsvorfällen.
  • Eingabevalidierung: Alle Benutzereingaben sollten validiert und bereinigt werden, um böswillige Angriffe zu verhindern.
  • Echtzeit-Überwachung: Ein Echtzeit-Überwachungssystem kann dazu beitragen, potenziell verdächtige Aktivitäten sofort zu erkennen und darauf zu reagieren.

Prompts

Die Eingabeaufforderungen, die an KI-Modelle wie Copilot übermittelt werden, stellen einen weiteren kritischen Bereich in Bezug auf die Cybersicherheit dar. Diese Prompts können sensible Daten anfordern oder ungenaue Antworten generieren, die zu Sicherheitsproblemen führen können.

Risiken im Zusammenhang mit Aufforderungen

  • Datenlecks: Ein falsch formulierter Prompt kann dazu führen, dass sensible Informationen als Output geliefert werden.
  • Manipulation durch Angreifer: Angreifer könnten Prompts so manipulieren, dass das Modell in eine bestimmte Richtung gelenkt wird, die zu gefährlichen oder ungenauen Ergebnissen führt.

Strategien zur Minderung von Risiken bei Aufforderungen

  • Eingabevalidierung: Alle Benutzereingaben sollten auf ihre Sicherheit hin geprüft und bei Bedarf bereinigt werden.
  • Aufforderungsvorlagen: Standardisierte Aufforderungsvorlagen können helfen, das Risiko zu minimieren, dass die Aufforderungen zu gefährlichen Ergebnissen führen.
  • Sicherheitsfilter: Die Antworten des Modells sollten durch Sicherheitsfilter überprüft werden, um sicherzustellen, dass sie keine sensiblen oder unbefugten Informationen enthalten.

Generierte Outputs

Generierte Outputs von Copilot und ähnlichen KI-Systemen können ebenfalls Sicherheitsrisiken mit sich bringen. Diese Outputs können fehlerhafte Informationen enthalten oder, wie eben gesehen, versehentlich sensible Daten preisgeben.

Risiken von generierten Outputs

  • Datenlecks: Ungefilterte oder unzureichend validierte Ausgaben können unbeabsichtigt sensible Daten offenbaren.
  • Halluzinierte Outputs: Es könnten Outputs generiert werden, die auf keinen realen Daten basieren und daher ungenau oder irreführend sind.

Strategien zur Minderung der Risiken von generierten Outputs

  • Ausgabefilter: Generierte Outputs sollten mittels Sicherheitsfilter überprüft werden, bevor sie dem Benutzer präsentiert werden.
  • Nachbearbeitung und Validierung: Generierte Outputs sollten auf ihre Richtigkeit überprüft werden, um sicherzustellen, dass sie keine fehlerhaften oder gefährlichen Informationen enthalten sind.

Monitoring und Auditing

Es ist entscheidend, dass die Nutzung von Copilot und verwandten Tools überwacht und geprüft werden, um sicherzustellen, dass keine Sicherheitsverletzungen auftreten.

Risiken von Monitoring und Auditing

  • Fehlende Nachverfolgbarkeit: Wenn keine vollständigen Prüfprotokolle vorhanden sind, ist es schwierig, nachzuvollziehen, wie ein System bestimmte Entscheidungen trifft.
  • Mangelnde Vorfallreaktion: Ohne eine klare und systematische Reaktionsstrategie können Sicherheitsvorfälle möglicherweise nicht rechtzeitig adressiert werden.

Strategien zur Minderung von Risiken hinsichtlich Monitoring und Auditing

  • Zentralisierte Protokollierung: Alle relevanten Aktivitäten, einschliesslich Aufforderungen und generierten Ausgaben, sollten detailliert protokolliert werden.
  • Automatisierte Überwachung: Echtzeit-Überwachungssysteme sollten eingesetzt werden, um potenzielle Sicherheitsrisiken schnell zu erkennen.

Integrierter Ansatz

Die Sicherheitsrisiken, die mit der Nutzung von Copilot verbunden sind, können durch eine ganzheitliche Sicherheitsstrategie adressiert werden. Dies umfasst die Integration von Sicherheitsmassnahmen in allen Bereichen, von der Eingabeaufforderung über die Vektor-Datenbank bis hin zur Generierung von Ausgaben.

Fazit

Die Integration von Copilot in das M365-Ökosystem bietet sowohl Risiken als auch Chancen für Unternehmen. Während Produktivität und Effizienzsteigerung unbestreitbar sind, müssen Cybersicherheitsexperten die damit verbundenen Sicherheitsbedenken proaktiv angehen, um die Sensibilität von Daten und die Integrität der Systeme des Unternehmens stets zu gewährleisten. Durch die Entwicklung eines robusten Governance-Rahmens, die Implementierung umfassender Schulungen und Sensibilisierungsmassnahmen sowie die Integration von Copilot in Sicherheitsüberwachungs- und Vorfallreaktionsprozesse können Kontrollprozesse etabliert werden, die kontinuierlich verifizieren, dass Richtlinien und bewährte Sicherheitspraktiken wie festgelegt eingehalten werden. Ohne Kontrolle ist nämlich das Vertrauen gegenüber KI-Systemen wohl bedeutungslos.

Sind Sie bereit?

Unsere Spezialisten kontaktieren Sie gern!

Über den smSS

Das scip Monthly Security Summary erscheint monatlich und ist kostenlos.

  • Anmeldung: smss-subscribe@scip.ch
  • Abmeldung: smss-unsubscribe@scip.ch

Informationen zum Datenschutz.

Eine Haftung für die Richtigkeit der Veröffentlichungen kann trotz sorgfältiger Prüfung durch die Redaktion des Herausgebers, den Redaktoren und Autoren nicht übernommen werden. Die geltenden gesetzlichen und postalischen Bestimmungen bei Erwerb, Errichtung und Inbetriebnahme von elektronischen Geräten sowie Sende- und Empfangseinrichtungen sind zu beachten.

Über scip AG

Wir überzeugen durch unsere Leistungen. Die scip AG wurde im Jahr 2002 gegründet. Innovation, Nachhaltigkeit, Transparenz und Freude am Themengebiet sind unsere treibenden Faktoren. Dank der vollständigen Eigenfinanzierung sehen wir uns in der sehr komfortablen Lage, vollumfänglich herstellerunabhängig und neutral agieren zu können und setzen dies auch gewissenhaft um. Durch die Fokussierung auf den Bereich Information Security und die stetige Weiterbildung vermögen unsere Mitarbeiter mit hochspezialisiertem Expertenwissen aufzuwarten.

Immer auf dem neuesten Stand

Abonnieren Sie unser monatliches Magazin