
Editorial
August 2025: Kein autonomes Pentesting in naher Zukunft
AI kann alles, wenn man den unzähligen Sales Personen glauben schenken will. Wir von der scip AG beschäftigen uns seit Jahren mit dem Thema KI in allen erdenklichen Ausprägungen. Sei dies nun Agentic AI Ansatz für viele erdenkliche Gebiete wie Malware oder automatisiertes Testing, vibe Codeing zur unterstützten Erstellung von Quellcode, den Einsatz von LLM Systemen zur Optimierung von Prozessen und erhöhter Datenhoheit, IQ Tests unterschiedlicher Sprachassistenten, die menschliche und psychologische Seite sowie vieles Mehr. Wir nehmen uns viel Zeit zur Abklärung, Ausarbeitung oder internationalen Austausch mit anderen Experten sowohl für unsere Offensive (red Team), Defensive (blue Team) und Research (titanium Team) Dienstleistungen.
In letzter Zeit wurde ich desöfteren gefragt, ob wir auch autonome Penetrationstests anbieten? Meine Gegenfrage kommt postwendend, was meinen Sie mit autonome Penetrationtests? Die Diskussion wurde lanciert. Meine rudimentäre erste Antwort auf eine solche Behauptung: Wenn Ihnen eine Firma ein 100% autonomes Pentesting-Produkt verkaufen will, machen Sie den Deal nicht. Der Anbieter behauptet, sie hätten vollständig autonome Pentester entwickelt?
Dazu ein paar Gedankenspiele:
Pentesting ist eine der schwierigsten und kreativsten Aufgaben der Welt!
- Eine Aufgabe mit unzählbaren und unvorhersehrbaren Variablen wurde vollständig automatisiert? Echt?
- Sie fühlen sich wohl dabei, Ihren autonomen, allenfalls rogue AI-Pentester frei in ihrer Produktions-Umgebung herumstreifen zu lassen? Echt?
So sehr wir als scip AG die Zukunft mitgestalten und vorantreiben. Die Wahrheit ist, vollständig autonomes Pentesting ist in naher Zukunft nicht realisierbar. Wir finden das auch gut so. Jede Kunden-Umgebung hat einzigartige Randfälle (in den meisten Fällen mehr als gedacht und viele noch unbekannte), die noch kein KI-System gesehen hat. Der Mensch wird gebraucht. Sei es zur Freigabe und Genehmigung von eventuell gefährlichen Aktionen im Netzwerk oder den Systemen, um dem Agenten mitzuteilen wie mit dieser neuen Variante umzugehen ist und vieles mehr. Ähnlich wie bei AI gestützten Buchhaltungssystemen und anderen Anwendungsbeispielen, der Mensch steuert und der AI Agent führt aus. Dies muss insbesondere im Cybersecurity Umfeld der Standard sein. Ein Mensch muss im Loop sein, so kann ein solcher Prozess funktionieren. Eine vollständige Autonomie des KI Agenten ist nicht Realität. Insbesondere bei komplexen Arbeitsschritten wie einem Penetration Test welcher eine hohe Kreativität und noch höheres Fachwissen erfordert.
Wir freuen uns sehr Sie zu unserer Leserschaft zählen zu dürfen, herzlichen Dank von der gesamten scip AG. Viel Spass beim lesen der spannenden Artikel sowie dem durchstöbern des aktuellen scip monthly Security Summary.

Red Team Assessment, Ihre Firma aus der Perspektive eines Gegners
Baseline Security Assessment, Attack Simulation Assessment, Red Team Assessment, Purple Team Assessment. Unser Red Team ist Ihr richtiger Partner.

Rapid Security Assessment, Strategische Sicherheit erreichen
Rapid Security Assessments Pakete für KMU’s. RSA Workshops, Rapid Security Assessment, GV.PO
News
Das ist bei uns passiert
20min Interview bezüglich Betrug auf Tiktok
Mit tränenerfüllten Augen und trauriger Miene schaut ein älterer Mann in die Kamera, dann folgen Videos diverser Tierbabys wie Kälbern und Schäfchen. Darunter ruft ein Text dazu auf, den Bauernhof zu unterstützen, um die Tiere vor dem scheinbar drohenden Aus zu bewahren. Der ausgewiesene Cybersecurity Experte Marc Ruef wird zu diesem internationalen Fall interviewt. Wie funktioniert die Betrugsmasche “reverse Enkeltrick” und was kann dagegen unternommen werden? 20min Interview, Mimikama.
Machen wir die Welt einen sichereren Ort, profitieren auch Sie von unserer Erfahrung und Expertise.
Expertenkommentar in 20min zu KI-Liebe
Stell dir vor, du führst eine Beziehung – soweit nichts Spezielles. Keine Beziehung mit einem Menschen, sondern mit einer Künstlichen Intelligenz. Klingt nach Science-Fiction? Für immer mehr Menschen ist das Realität. Im aktuellen 20min-Artikel KI-Liebe: Wenn der Chatbot zum Partner wird, wird unsere Reseacherin Dr. Marisa Tschopp als international anerkannte Spezialistin nach Ihrer Expertise gefragt.
Emotionale Bindungen zu KI werden zunehmen. Und zwar nicht nur zu romantischen Chatbots wie Replika, sondern auch zu ganz alltäglichen Tools wie Copilot oder ChatGPT. – Quote: Dr. Marisa Tschopp.
Profitieren auch Sie und Ihre Firma von unserem Wissen im Themenbereich der künstlichen Intelligenz.
Business Insider Podcastserie "Cashing Feelings"
In der Business Insider / Business Insider Deutschland-Podcastserie Cashing Feelings (auch auf Apple und Spotify hörbar) wird genau dieses Thema beleuchtet: Wie Hersteller von KI-Systemen wie Replika intime, romantische, mentor-artige Beziehungen ermöglichen, beziehungsweise eine Illusion davon und dies dann kommerzialisieren.
In Folge 5 kommt Replika Gründerin Eugenia Kuyda und scip AG Dr. Marisa Tschopp zu Wort.
Was bringt KI im Berufsalltag? Wir unterstützen Firmen mit unserer Erfahrung und unserem Wissen im Themenbereich der künstlichen Intelligenz ganzheitlich.
Fachartikel
Aktuelle Erkenntnisse
Digitale Transformation. Künstliche Intelligenz. Cybersecurity. Industry 4.0. Kaum ein Tag vergeht ohne neue Buzzwords, neue Tools, neue Risiken – und neue Versprechen. In der täglichen Auseinandersetzung mit neuen Technologien, sei es in der öffentlichen Debatte, in Unternehmen oder im privaten Alltag wird eines besonders deutlich: Es mangelt selten an Innovation, aber oft an Orientierung. Während sich künstliche Intelligenz, Automatisierung und digitale Systeme rasant weiterentwickeln, bleibt vielen Menschen unklar, welche Bedeutung diese Entwicklungen für sie ganz konkret haben – beruflich, gesellschaftlich, aber auch emotional.
Wir haben uns genau das zur Aufgabe gemacht: Forschung mit Substanz, aber ohne Elfenbeinturm. Seit über 20 Jahren treiben wir Corporate Research zukunftsorientierte Themen voran, weit über rein technische Perspektiven hinaus. Unsere Spezialität: Denken über den Tellerrand und Reden auf Augenhöhe. Denn Technologie betrifft uns alle. Also sollten auch alle mitreden können.
Orientierung in der technologischen Gegenwart
Und nun komme ich ins Spiel: In meiner Arbeit als Psychologin und Senior Researcher im Research Team, beschäftigt mich genau diese Schnittstelle zwischen Mensch und Maschine. Genauer gesagt: Die Beziehung zwischen beiden. Denn so sehr wir über technische Potenziale sprechen, über Risiken, Fortschritte und neue Anwendungsbereiche, so sehr bleibt doch die zentrale Frage unbeantwortet: Wie verändert Technologie uns – als Individuen, als Organisationen, als Gesellschaft?
Seit über acht Jahren befasse ich mich in meiner Forschung mit den psychologischen Dimensionen künstlicher Intelligenz mit Fokus auf Kommunikative KI, insbesondere mit der Frage, wie Menschen Vertrauen zu Maschinen aufbauen, wie dieses Vertrauen beeinflusst, wie KI genutzt wird – und welche Konsequenzen daraus erwachsen. Neuerdings insbesondere im Bereich Mentale Gesundheit. Ein Bereich in dem physische, psychische und technologische Sicherheit maximal kritisch sind.

Vertrauen ist dabei kein einfacher Zustand, sondern ein komplexes Zusammenspiel aus Erwartung, Erfahrung, Interaktion und Kontext. Besonders spannend wird es, wenn Menschen beginnen, künstliche Systeme nicht nur als Werkzeuge zu betrachten, sondern als kommunikative, teilweise sogar soziale Akteure zu erleben. In Projekten wie dem Artificial Intelligence Quotient (AIQ), in dem wir die kognitiven Leistungen von Chatbots untersucht haben, oder in aktuellen Studien zu sogenannten synthetischen Beziehungen, widmen wir uns genau diesen Fragestellungen: Wie agiert eine künstliche Figur in einem Gespräch? Welche Erwartungen weckt sie? Und was passiert, wenn Menschen beginnen, mit ihr Beziehungen einzugehen – ob am Arbeitsplatz, in der Pflege, im Bildungsbereich oder im privaten Raum? Wie verändert das unsere Bewegung im Netz?…und im Zwischenmenschlichen Bereich?

Die These, dass Technologien zunehmend emotional konnotiert werden – etwa wenn Sprachassistenten einen Namen tragen, ein Gesicht bekommen oder auf eine Art antworten, die Empathie suggeriert – ist nicht neu. Doch erst in den letzten Jahren wird deutlich, welche psychologischen und ethischen Fragen damit verbunden sind. Was bedeutet es etwa, wenn eine alleinstehende Person in einem KI Charakter einen Gesprächspartner findet, der Tag und Nacht verfügbar ist, nie widerspricht und scheinbar perfekte Aufmerksamkeit schenkt? Welche Verantwortung tragen Entwicklerinnen und Entwickler in solchen Szenarien – und wie gehen wir gesellschaftlich mit dieser Verschiebung traditioneller Beziehungsformen um?
Räume für Dialog statt fertige Antworten
In unserer Arbeit geht es nicht darum, einfache Lösungen zu präsentieren. Vielmehr versuchen wir, Räume für Dialog und Reflexion zu öffnen. Technologie ist kein Naturgesetz, sondern gestaltbar. Und Gestaltung beginnt mit Sprache, mit den Metaphern, die wir wählen, mit den Bildern, die wir nutzen, mit den Werten, die wir transportieren. Deshalb arbeiten wir auch mit kreativen Formaten: In Workshops lassen wir Teilnehmende z.B. einen einfachen Companion Bot bauen oder simulieren Beziehungsdialoge mit KI Avataren, um zentrale Begriffe wie Autonomie, Bindung oder Kontrolle nicht nur theoretisch, sondern emotional erfahrbar zu machen.
Wissen teilen: Formate für Inspiration und Dialog
In den vergangenen Jahren ist die Nachfrage nach unserem Wissen stetig gewachsen, sei es als Impulsgeberin für strategische Entscheidungsfindung, als kritische Stimme in öffentlichen Debatten oder als Sparringspartnerin in Innovationsprozessen. Besonders gefragt sind private Lern-Formate, die nicht nur informieren, sondern zum Weiterdenken anregen, Perspektiven eröffnen und die emotionale wie intellektuelle Auseinandersetzung mit Technologie im geschützten Raum ermöglichen.
Keynotes und Vorträge bilden einen zentralen Bestandteil unserer Arbeit. Ob bei grossen Wirtschaftsforen, branchenspezifischen Veranstaltungen, internen Führungskräftekonferenzen oder auf inspirierenden Diversity Events, unsere Beiträge sind darauf ausgerichtet, wissenschaftlich fundierte Inhalte verständlich und relevant zu vermitteln. Dabei geht es nicht nur um die Darstellung aktueller Forschung, sondern um die Aktivierung neuer Denkprozesse in Organisationen, die Orientierung suchen.

Ein besonderer Meilenstein waren die Auftritte bei TEDx, die uns nicht nur eine internationale Bühne geboten hat, sondern auch online nachhaltig sichtbar macht. Diese Präsenz zeigt, dass unsere Themen am Puls der Zeit sind und dass unsere Perspektiven über den akademischen Raum hinaus Wirkung entfalten und gesellschaftliche Diskussionen prägen.
Auch in Dokumentationen und Medienbeiträgen greifen Redaktionen regelmässig auf unsere Expertise zurück. Insbesondere das Schweizer Fernsehen hat unsere Forschung wiederholt eingebunden, etwa in Sendungen zum Darknet, Künstlicher Intelligenz oder digitalen Zwillingen. Diese Zusammenarbeit ermöglicht es, komplexe psychologische und technologische Themen in eine breitere Öffentlichkeit zu tragen – fundiert und differenziert.
Podcasts haben sich als weiteres wichtiges Medium etabliert, um spezifische Zielgruppen direkt anzusprechen. Ob im internationalen Kontext oder lokal verankert – wir nehmen regelmässig an Gesprächsformaten teil, um aktuelle Trends einzuordnen, kontroverse Fragen zu diskutieren und neue Sichtweisen zu vermitteln. Dabei orientieren wir uns stets am jeweiligen Publikum: Ein Wirtschaftspodcast verlangt andere Beispiele als ein Bildungskanal – aber der Anspruch bleibt gleich.
Besonders wirkungsvoll und beliebt sind Workshops, die über den reinen Wissenstransfer hinausgehen. Während Keynotes zum Nachdenken inspirieren, ermöglichen Workshops echtes Erleben. In einem typischen Setting bauen Teilnehmende etwa einen einfachen Companion Bot und erleben unmittelbar, wie es sich anfühlt, mit einem künstlichen Akteur zu interagieren. Diese Erfahrung verändert nicht selten die eigene Haltung: Was vorher abstrakt schien, wird plötzlich greifbar. Daraus entsteht ein fruchtbarer Boden für weiterführende Diskussionen über Design, Grenzen und Potenziale solcher Systeme.

Schliesslich sind Gastvorträge an Hochschulen ein wichtiger Bestandteil unserer Arbeit. Wir schätzen die Möglichkeit, mit der nächsten Generation von Entscheidungsträgerinnen, Gestalterinnen und Forscherinnen im Dialog zu stehen. Der Austausch mit Studierenden eröffnet nicht nur frische Perspektiven, sondern hält unsere Forschung auch dort lebendig, wo sie langfristig wirken soll – in Köpfen, die unsere Zukunft gestalten.

Zurück zu unserem Kerngeschäft bedeutet das: Gerade in der Welt der Cybersecurity, die oft rein technisch gedacht wird, ist der psychologische Blick entscheidend. Sicherheit beginnt nicht beim System, sondern beim Menschen – bei seinen Erwartungen, seinem Verhalten, seiner Wahrnehmung von Risiko und Vertrauen. Wer versteht, wie Menschen Entscheidungen treffen und mit Unsicherheit umgehen, kann Systeme entwickeln, die nicht nur sicher, sondern auch ethisch verantwortungsvoll und nutzerzentriert sind.
Was uns auszeichnet
Wir glauben daran, dass fundierte wissenschaftliche Erkenntnisse nur dann Wirkung entfalten, wenn sie verständlich, relevant und anwendungsnah kommuniziert werden. Unsere Werte spiegeln sich in allem, was wir tun: In der Forschung, in der Beratung, in Vorträgen, Workshops und dem täglichen Austausch mit unseren Kundinnen. Dabei geht es uns nicht um Schlagworte oder technologische Überwältigung, sondern um echte Auseinandersetzung auf Augenhöhe – die eigentliche Bedeutung des Dialogs.
Wofür wir stehen:
- Nahbarkeit: Wir sprechen eine Sprache, die Menschen erreicht. Ohne Buzzwords, aber mit Tiefgang.
- Verständlichkeit mit Substanz: Komplexe Sachverhalte so zu erklären, dass sie nicht vereinfachen, sondern Klarheit schaffen.
- Ernsthaftigkeit mit Haltung: Wir nehmen Themen ernst, ohne den kritischen Blick aber auch ohne den Humor zu verlieren.
- Interdisziplinäre Perspektiven: Wir denken über den Tellerrand hinaus: psychologisch, technisch, gesellschaftlich.
- Wissenschaft mit Bodenhaftung: Unsere Forschung orientiert sich nicht an akademischen Prestigezielen, sondern an realen Herausforderungen unserer Zeit.

Diese Haltung prägt unsere tägliche Arbeit und sie ist der Grund, warum viele Unternehmen, Organisationen, Medien und Bildungseinrichtungen immer wieder auf uns zukommen.
Einladung zum Echten Austausch
Wir bei der scip AG, vom Red Team über das Blue Team bis zum Titanium Research Team: Wir verstehen unsere Rolle nicht als Expertin, die fertige Antworten liefert, sondern als Sparringspartnerin für Unternehmen, Organisationen und Interessierte, die sich auf den Weg machen wollen, Technologie besser zu verstehen und sinnvoller zu gestalten. Wenn Sie mehr über unsere Philosophie erfahren möchten, laden wir Sie ein, unsere Beiträge in Medien, Podcasts oder Fachpublikationen zu lesen oder direkt mit uns ins Gespräch zu kommen. Denn Vertrauen, egal, ob zwischen Menschen oder zwischen Mensch und KI, entsteht nicht durch Technik allein. Es entsteht im Dialog. Und genau den möchten wir mit Ihnen führen.
Sind Sie bereit?
Unsere Spezialisten kontaktieren Sie gern!

Das Konzept des Red und Blue Teaming entstand in den 1960er Jahren und eines der ersten Beispiele war der Think Tank RAND Corporation, der während des Kalten Krieges Simulationen für das US-Militär durchführte. In der Informationssicherheit bezeichnet Red Teaming die Überprüfung der Sicherheit einer Organisation durch den Versuch, ihre IT-Infrastruktur zu infiltrieren.
In der Ausgangsdiskussion wird geklärt, welche Bedürfnisse der Kunde hat, über welche Maturität sein Abwehrdispositiv verfügt und ob der Kunde wirklich alle Phasen und Besonderheiten eines Red Team Assessments benötigt. Um dies herausfinden zu können, müssen zunächst die Grundbegriffe geklärt und die möglichen Dienstleistungen und Vorgehensweisen definiert werden.
Definition von Sicherheitstests
Es gibt keine einheitliche Definition für Sicherheitstests, die Bezeichnungen und Leistungen unterscheiden sich von Dienstleister zu Dienstleister. Der Name einer solchen Prüfung ist aus technischer Sicht zweitrangig. Wichtig ist, was ein solcher Test beinhaltet, wie sie durchgeführt wird und welche Voraussetzungen erfüllt sein müssen.
Wir unterscheiden drei Arten von Sicherheitstests:
- Review
- Penetration Test
- Assessment
Bei einem Review wird ein Testziel anhand von Dokumentation, Interviews und lesendem Zugriff auf das Zielobjekt beurteilt. Ebenso kann die Auswertung bereits vorhandenen Berichten wie zum Beispiel eines Vulnerability Scans oder eines Baseline-Audits in den Review einfliessen. Reviews umfassen die Überprüfung der Architektur einer Lösung, die Konfiguration von Komponenten oder auch des Source Codes. Ein Review wird in der Regel gemeinsam mit Fachexperten durchgeführt und alle Informationen werden den Testern zur Verfügung gestellt.
Ein Penetration Test überprüft ein spezifisches Testziel anhand eines definierten Scopes. Dazu können Testing Guides oder Checklisten verwendet werden. Bei einem Penetration Test dokumentieren wir, was wir geprüft haben und führen im Bericht auch auf, bei welchen Tests keine Schwachstellen gefunden wurden (Einstufung Passed). Mit einem Penetration Test können unter anderem Web- oder Mobile-Applikationen überprüft werden. Ein Penetration Test umfasst aber auch die Überprüfung eines Laptops oder die Durchführung einer Phishing-Übung.
Sollen mehrere Komponenten oder eine Infrastruktur mit offenem Scope überprüft werden, sprechen wir von einem Assessment. Dabei können einzelne Schwachstellen zu Angriffspfaden zusammengefasst werden, um die Ausnutzung der Schwachstellen und dessen Auswirkung zu demonstrieren. Der Report umfasst die Dokumentation des Angriffspfads und den Schwachstellen anstelle einer Checkliste. Assessments umfassen die Überprüfung der Baseline Security, die Durchführung von Angriffssimulationen sowie Red und Purple Team Assessments.
Die Testarten können kombiniert werden, wenn zum Beispiel eine Web-Applikation nach OWASP Application Security Verification Standard (ASVS) Level 2 (L2) oder Level 3 (L3) geprüft werden soll, kann dies nicht mit einem Penetration Test abgedeckt werden. Für L2 und L3 ist der Zugriff zu Dokumentation, Source Code, Konfiguration und Interviews mit dem Entwicklungsteam erforderlich.
Assessments
Wenn ein Kunde ein “Red Teaming” wünscht, soll in der Regel die IT-Infrastruktur seiner Organisation überprüft oder ein spezifisches Szenario innerhalb der Infrastruktur durchgeführt werden. Im Artikel Security Testing – Von der Hypothese zum Experiment hat Tomaso Vasella bereits Unterschiede zwischen einem Penetration Test und einem Red Team Assessment aufgezeigt.
In der Phase Pre-Engagement geht es darum, im Gespräch mit dem Kunden herauszufinden, welche Form des Assessments für seine Bedürfnisse am besten geeignet ist.
Wir unterscheiden diese vier Formen von Assessments:
- Baseline Security Assessment
- Attack Simulation Assessment
- Red Team Assessment
- Purple Team Assessment
Unterschiede
Die Assessments unterscheiden hinsichtlich der Vorgehensweise der Angreifer, der Interaktion mit den Mitarbeitern des Kunden und der Maturität der Verteidiger. Die Tabelle gibt einen Überblick über die wichtigsten Unterschiede:
| Baseline Security Assessment | Attack Simulation Assessment | Red Team Assessment | Purple Team Assessment | |
|---|---|---|---|---|
| Ziel, Vorgehen | Durchführung von automatisierten Scans externer/interner Ziele und manueller Verifikation, mit oder ohne Begleitung der IT/Security | Simulation von Angriffspfaden in Begleitung der IT/Security | Angriff auf die Infrastruktur, nur Schlüsselpersonen sind informiert | Angriffstechniken/-szenarien werden nacheinander ausgeführt und Detektion gemessen in Zusammenarbeit mit SOC |
| Länge (abhängig vom Szenario) | 5-10 Tage | 10-20 Tage | 30-60 Tage | 15-30 Tage |
| Maturität | Geeignet für tiefe Maturität in Resilienz und Erkennungsfähigkeiten | Geeignet für tiefe bis hohe Maturität in Resilienz und Erkennungsfähigkeiten | Hohe Maturität in Resilienz und Erkennungsfähigkeiten erforderlich | Mittlere bis hohe Maturität in Erkennungsfähigkeiten erforderlich |
| Stealth | Kein Fokus auf Stealth | Stealth je nach Maturität und zur Verfügung stehender Zeit | Fokus auf Stealth | Abhängig von Detektionsfähigkeit |
| Tools / Schwachstellenerkennung | Einsatz von Open Source Tools, automatisierte und manuelle Tests zur Schwachstellenerkennung | Einsatz von Open Source Tools, automatisierte und manuelle Tests Identifikation von Angriffspfaden | Einsatz von angepassten Open Source Tools, Eigenentwicklungen, Identifikation von Schwachstellen für Angriffspfad zur Zielerreichung | Einsatz von Open Source Tools, abgesprochene Angriffsziele und Use Cases |
| Detektion | Keine Messung/Protokollierung zur Detektion | Erstellung eines Angriffsprotokoll, das nach Assessment an SOC übergeben wird | Erstellung eines Angriffsprotokoll, das nach Assessment an SOC übergeben wird | Jedes Angriffsszenario wird gemessen, detaillierte Auswertung |
| Access | Je nach Ziel wird der Zugriff zur Verfügung gestellt | Initialer Zugriff wird zur Verfügung gestellt | Je nach Szenario kein Zugriff oder Zugriff mit niedrigen Berechtigungen | Zugriff anhand der Use Cases |
Grundsätzlich halten wir ein Red Team Assessment für Kunden ohne Security Operation Center (SOC) und ohne Angriffserkennungsfähigkeiten nicht für angemessen, da ein wesentlicher Teil des Assessments darin besteht, unentdeckt zu bleiben und alle Operationen vorsichtig durchzuführen. Wenn keine Erkennungsfähigkeit vorhanden ist, sollte der Schwerpunkt nicht darauf liegen, möglichst unentdeckt zu bleiben, sondern der Aufwand sollte in die Suche nach Schwachstellen und Angriffspfaden investiert werden.
Möchte ein Kunde explizit verschiedene Komponenten seiner Infrastruktur überprüfen und beispielsweise Aussagen zur Resilienz des Clients, der VPN-Lösung und des IT-Ticket-Portals erhalten, empfehlen wir die Durchführung einer Attack Simulation auf diese Komponenten. Dabei werden diese auf Schwachstellen untersucht, die sich zu einem Angriffspfad kombinieren lassen und beispielsweise zur Kompromittierung eines Laptops und anschliessenden Lateral Movement im Netzwerk führen können. Bei einem Red Team Assessment hingegen suchen wir als Angreifer nach dem geeignetsten Angriffspfad, um unsere Ziele zu erreichen. Möglicherweise beinhaltet dieser Pfad keine der Komponenten, die der Kunde explizit überprüft haben möchte. Bei einem Red Team Assessment werden die Ziele vorgegeben, aber der Weg dorthin wird von den Angreifern bestimmt.
Das Budget für einen Sicherheitstest hat auch einen Einfluss auf die Wahl des Assessments. Es ist unrealistisch, innerhalb von 10 Tagen ein vollständiges Red Team Assessment durchzuführen. Je nach Reifegrad des Abwehrdispositivs empfiehlt es sich, bei einem Budget von 10 Tagen ein Baseline Security oder ein Attack Simulation Assessment durchzuführen. Beim Baseline Security Assessment ist der Fokus auf der Suche nach Schwachstellen, zum Beispiel durch die automatisierte Prüfung nach erreichbaren Freigaben oder eine Untersuchung nach den am häufigsten vorkommenden Fehlkonfiguration in Active Directory, Active Directory Certificate Services (ADCS) oder der Microsoft Cloud. Solange viele solcher leicht ausnutzbaren Schwachstellen in der Infrastruktur existieren, bringt ein verdeckter Ansatz oder die Entwicklung eigener Angriffswerkzeuge keinen Mehrwert. Wurden jedoch bereits mehrere Sicherheitstests in der Infrastruktur durchgeführt, bringt ein Red Team Assessment einen zusätzlichen Nutzen, da die Organisation auch auf ihre Detektionsfähigkeit und Reaktion auf Sicherheitsvorfälle geprüft werden kann.
Für das Auffinden und Ausnutzen von Schwachstellen werden das Attack Simulation und vor allem das Baseline Security Assessment mit automatisierten Prozessen und Open Source Tools durchgeführt. In einem Red Team Assessment werden speziell für den Einsatzzweck zugeschnittene Werkzeuge eingesetzt und Zeit aufgewendet, um Sicherheitstools umgehen zu können. Dazu kann die Kundenumgebung soweit als möglich und nötig in unserem Test-Lab simuliert werden.
Bei einem Purple Team Assessment wird explizit die Detektionsfähigkeit überprüft. Dazu werden im Vorfeld gemeinsam mit dem Kunden Use Cases erarbeitet und in Zusammenarbeit mit dem SOC abgearbeitet. Dabei durchläuft jeder Use Case einen Workflow, in dem gemessen wird, ob eine Angriffstechnik detektiert, nur aufgezeichnet respektive protokolliert, oder gar nicht erkannt wurde. Wenn eine Angriffstechnik aufgrund von Sicherheitsmassnahmen nicht ausgeführt werden kann, wird dies auch im Protokoll des Use Cases festgehalten. Ein Use Cases wird so lange wiederholt, bis eine Detektionsregel erstellt und erfolgreich getestet wurde beziehungsweise der gewünschte Zustand für den Use Case erreicht wurde.
Fazit
Um die Sicherheit der Infrastruktur einer Organisation zu überprüfen, gibt es verschiedene Vorgehensweisen. Je nach Ziel der Überprüfung und eigener Maturität in Bezug auf Resilienz und Detektionsfähigkeit ist ein Attack Simulation Assessment, ein Red Team Assessment oder ein Purple Team Assessment besser geeignet. Für die Durchführung eines “Red Teamings” ist die Pre-Engagement-Phase und somit das Bestimmen der Art des Assessments von entscheidender Bedeutung, um das für die Organisation geeignete Training zu definieren. Nur so können aussagekräftige Erkenntnisse gewonnen und somit die Abwehr- und Detektionsfähigkeiten verbessert werden.
Sind Sie bereit?
Unsere Spezialisten kontaktieren Sie gern!
TEDx-Veranstaltungen werden in der Regel zu einem bestimmten Thema organisiert und umfassen eine Reihe von Rednern, die Experten auf ihrem Gebiet sind oder eine inspirierende Geschichte zu erzählen haben. Die Vorträge sind in der Regel 18 Minuten lang und sollen zum Dialog und zum Handeln anregen und bieten den Zuhörern oft die Möglichkeit, sich mit den Rednern und untereinander auszutauschen. Es gibt eine Playlist der beliebtesten TED Talks aller Zeiten mit Bill Gates, Elon Musk oder Brene Brown. Sir Ken Robinsons TED-Talk aus dem Jahr 2006 wurde über 74 Millionen Mal angesehen.
Über TEDxBoston
Die TEDxBoston ist nach Angaben von John Werner eine der grössten und erfolgreichsten TEDx Veranstaltungen weltweit. Die jüngste Veranstaltung fand am 6. März im Quin House im Zentrum Bostons statt und war eine Sonderausgabe zum Thema Künstliche Intelligenz. Unter dem provokanten Titel Countdown to Artificial Intelligence traten 61 Redner auf, von denen jeder 5 Minuten Zeit hatte, um über sein spezielles Thema zu sprechen: Von technologischen Entwicklungen, über Geschäftsmöglichkeiten bis hin zu gesellschaftlichen Auswirkungen. Das neue Format ist eine Herausforderung und zugleich eine Chance, eine grössere Vielfalt an Themen und Rednern zu präsentieren, aber auch ein breiteres Publikum anzusprechen, wo jeder um die Aufmerksamkeit der “swiping tik-tok” Generation kämpft.
Abstract: 2022 war ein bahnbrechendes Jahr für den Fortschritt in der Künstlichen Intelligenz (KI). Zu den diesjährigen Fortschritten bei generativen Modellen gehören grosse Sprachmodelle wie GPT-3.5 und ChatGPT, modusübergreifende Modelle wie DALL-E 2 und Stable Diffusion sowie multimodale Modelle wie Gato. Die Schätzung der Metaculus-Gemeinschaft für das Ankunftsdatum der “Weak AGI” ist von 2042 auf 2027 gesunken. Im Jahr 2023, an der Schwelle zu einem Wendepunkt in den Fähigkeiten der KI, stehen wir auf den Schultern dieser sich beschleunigenden Technologien und sind bereit, jeden Teil der menschlichen Gesellschaft zu beeinflussen. Wir kommen zusammen, um zu diskutieren, wie diese Zukunft aussehen könnte – wie wir die noch ausstehenden Herausforderungen im Bereich des Deep Learning und der KI bewältigen und unsere eigene menschliche Intelligenz auf ein neues Niveau heben können. Wir haben kuratierte Ideen/Visionen, wie diese Zukunft aussehen könnte.
Themen bei TEDxBoston
Die Vielfalt der Themen war immens: KI für Smart Homes, Spieleentwicklung oder Programmierung. Forscher und Praktiker teilten ihre Ideen oder Startups. Das Gesundheitswesen war ein sehr prominentes Thema in der Hoffnung, Krebs zu bekämpfen, CT-Scans zu verbessern oder klinische Studien zu beschleunigen. Auch die Themen Vertrauenswürdigkeit und erklärbare KI waren immer wieder präsent. Es war auch faszinierend zu sehen, wie Menschen mit indogenen Hintergründen ihren Gemeinden helfen, auf dem neuesten Stand zu bleiben und Kindern das Programmieren beizubringen. Die vollständige Liste der Themen (die Arbeitstitel sind) kann online gefunden werden und die jeweiligen Vorträge werden in den nächsten 2-3 Monaten online sein (Youtube oder TED-Website).
Überblick über unseren Vortrag bei TEDxBoston
Marisa Tschopp wurde eingeladen, am Nachmittag einen Vortrag über unsere Forschung zu human-AI relationships zu halten, hier ist eine Zusammenfassung davon:
Jeden Tag drücken 19.000 Menschen ihren Sprachassistenten ihre Liebe aus und 6.000 Menschen in Indien machen ihnen sogar einen Heiratsantrag. In den Medien wird oft auf diese nicht ganz so seriösen Studien hingewiesen, wie z. B. eine Studie, die ergab, dass 14 % der männlichen Nutzer von Smart-Home-Lautsprechern im Vereinigten Königreich eine sexuelle Beziehung mit ihren Systemen wünschen. Dies heizt den öffentlichen Diskurs darüber an, wie die Menschen wirklich über diese sprechenden Maschinen denken, die im Grunde genommen nur Hard- und Software sind.

Trotz der Tatsache, dass diese Maschinen nicht menschlich sind, hat eine Fülle empirischer Untersuchungen gezeigt, dass Menschen dazu neigen, sie zu vermenschlichen und sie als soziale Akteure zu behandeln. Aber nur weil jemand sagt, dass er sein KI-System liebt, bedeutet das, dass er es wirklich so liebt, wie er es bei einem anderen Menschen tun würde? Wenn die Menschen ihren Sprachassistenten also nicht wirklich lieben, ihn aber auch nicht einfach nur als Werkzeug sehen, wie nehmen sie dann ihre Beziehung zur KI wahr? Und was können wir aus einem besseren Verständnis der Beziehungen zwischen Mensch und KI lernen?
Um diese Fragen zu beantworten, haben wir eine mehrdimensionale Beziehungstheorie aus der Psychologie verwendet und sie auf den Kontext der Beziehungen zwischen Mensch und KI angewandt. Wir untersuchten etwa 1000 KI-Nutzer und fanden heraus, dass sie auf drei Arten mit ihren KI-Systemen in Beziehung treten: Die traditionelle Herr-Diener-Beziehung, eine rationale Beziehung ohne Hierarchien und eine freundschaftliche, emotionale Beziehung. Nur wenige charakterisieren ihre Beziehung als freundschaftliche, emotionale Beziehung. Es überrascht nicht, dass die meisten Nutzer die Beziehung zu ihrem Sprachassistenten als eine traditionelle Herr-Diener-Beziehung wahrnehmen. Überraschend war, dass die nicht-hierarchische Beziehung fast genauso beliebt war wie die Herr-Diener-Beziehung.
Dieses Ergebnis könnte für die Entwickler von Sprachschnittstellen interessant sein, denn wie viel Befugnis die Nutzer einem System zuschreiben, kann sich darauf auswirken, wie sie es nutzen oder wofür sie den Sprachassistenten einsetzen. Nehmen wir eine einfache Aufgabe wie das Stellen eines Weckers. Sie erfordert wenig Engagement, nur kurze, einfache Interaktionen. Eine komplexe Aufgabe, wie z. B. das Online-Shopping mit einem Sprachassistenten, erfordert mehr Engagement. Dazu gehören beispielsweise Dialoge mit mehreren Abzweigungen und potenziell mehr Datenaustausch und finanzielle Risiken. Anders ausgedrückt: Mehr “geteilte” Verantwortung. Wenn wir also digitale Assistenten auch für komplexere Aufgaben einsetzen wollen, wäre es sinnvoll, sie mehr als Entscheidungspartner zu sehen oder zu gestalten, statt als blosse Befehlsempfänger. Bedeutet das, dass die Rolle der digitalen Assistenten als unsere Diener irgendwie aus der Mode kommen wird?

Wir sind dieser Frage nachgegangen, indem wir Einkaufsentscheidungen per Sprache untersucht haben. Konkret wollten wir wissen, ob die Art und Weise, wie Menschen sich zu ihrem Sprachassistenten verhalten, die Art der Produkte beeinflusst, die sie über ihren Sprachassistenten kaufen. Die Forschung zeigte, dass die Betrachtung des Sprachassistenten als Freund oder Diener den Kauf von billigen und einfachen Produkten per Sprache fördert. Überraschenderweise fanden wir aber auch heraus, dass die Wahrnehmung des Sprachassistentin als Freund am wichtigsten ist, wenn es um den Kauf von teuren und komplexen Produkten geht. Mit anderen Worten: Friendship sells!

Es gibt jedoch moralische Bedenken, die sehr dagegen sprechen, Entwicklern von Sprachbenutzerschnittstellen zu empfehlen, ihre Schnittstellen als AI Friends zu gestalten, um den Umsatz zu steigern. Die Vermenschlichung von Maschinen kann negative Folgen haben, z. B. die Weitergabe von persönlichen Daten oder das Verleiten von Menschen zu Entscheidungen, die nicht in ihrem Interesse liegen. Darüber hinaus wurden Fälle aufgedeckt, in denen Nutzer über Symptome von Depressionen berichteten, nachdem sie die Verbindung zu einem Chatbot verloren hatten. Was tun wir, wenn unsere Bindung an diese Technologien zu einer pathologischen Sucht wird oder sich zu einer Unfähigkeit entwickelt, mit echten Menschen im wirklichen Leben umzugehen?
Fazit
Marisa Tschopp schloss ihren Vortrag mit dem Hinweis auf die Notwendigkeit, die Beziehung zwischen Mensch und KI besser zu verstehen. Denn die Art und Weise, wie wir uns zu diesen Systemen verhalten, kann das Nutzerverhalten in einer Weise beeinflussen, die wir noch nicht vollständig verstehen. Und diese psychologischen Mechanismen können viel zu leicht ausgenutzt oder in Weisen manipuliert werden, die schwer zu kontrollieren sein werden. Der Vortrag wird demnächst online verfügbar sein.
Ziel der TEDxBoston-Veranstaltung war es, aktuelle Herausforderungen zu erforschen und neue Einsichten in die menschliche Intelligenz zu gewinnen, und zwar mit einer gut ausgewählten Reihe von 5-Minuten-Vorträgen, die von angesehenen Rednern zu Themen wie den Auswirkungen von AGI auf Ethik, Kreativität, Intelligenzsteigerung, die Zukunft von Arbeit und Bildung und Innovation im Gesundheitswesen gehalten wurden, um nur einige zu nennen. Unserer Meinung nach waren die Themen gut ausgewählt, ebenso wie die Redner, von Newcomern bis hin zu erfahrenen Experten auf diesem Gebiet. Besonders beeindruckt waren wir von der hervorragenden Zusammenstellung der Heterogenität der Referenten hinsichtlich ihrer Herkunft und Kultur. Diese Bereicherung ist immens wertvoll für einen sinnvollen Austausch, um den eigenen Horizont zu erweitern und, kurz gesagt, um bessere KI für eine bessere Zukunft zu schaffen.
Sind Sie bereit?
Unsere Spezialisten kontaktieren Sie gern!
Über den smSS
Das scip Monthly Security Summary erscheint monatlich und ist kostenlos.
- Anmeldung: smss-subscribe@scip.ch
- Abmeldung: smss-unsubscribe@scip.ch
Informationen zum Datenschutz.
Eine Haftung für die Richtigkeit der Veröffentlichungen kann trotz sorgfältiger Prüfung durch die Redaktion des Herausgebers, den Redaktoren und Autoren nicht übernommen werden. Die geltenden gesetzlichen und postalischen Bestimmungen bei Erwerb, Errichtung und Inbetriebnahme von elektronischen Geräten sowie Sende- und Empfangseinrichtungen sind zu beachten.
Über scip AG
Wir überzeugen durch unsere Leistungen. Die scip AG wurde im Jahr 2002 gegründet. Innovation, Nachhaltigkeit, Transparenz und Freude am Themengebiet sind unsere treibenden Faktoren. Dank der vollständigen Eigenfinanzierung sehen wir uns in der sehr komfortablen Lage, vollumfänglich herstellerunabhängig und neutral agieren zu können und setzen dies auch gewissenhaft um. Durch die Fokussierung auf den Bereich Information Security und die stetige Weiterbildung vermögen unsere Mitarbeiter mit hochspezialisiertem Expertenwissen aufzuwarten.


