Verteidigung

Sabotage in den sozialen Medien: Bund rüstet sich gegen Fake-Attacken bei Twitter und Co.

Wenn Hacker Twitter-Accounts von Prominenten kapern, können sie grossen Schaden anrichten.

Wenn Hacker Twitter-Accounts von Prominenten kapern, können sie grossen Schaden anrichten.

Das Verteidigungsdepartement lässt erforschen, wie Sabotage in sozialen Netzwerken bekämpft werden kann.

Es war eine in vielerlei Hinsicht beispiellose Aktion. Sie traf US-Präsidentschaftskandidat Joe Biden und Ex-Präsident Barack Obama, ebenso Tesla-Chef Elon Musk, Microsoft-Gründer Bill Gates und Amazon-Boss Jeff Bezos. Im Juli gelang es Hackern, die Twitter-Accounts von globalen Meinungsmachern zu kapern.

Plötzlich riefen sie Hunderte Millionen Follower in Tweets dazu auf, die Kryptowährung Bitcoin auf ein bestimmtes Konto zu schicken – verbunden mit dem Versprechen, den Betrag doppelt zurückzubekommen. Nach Angaben von US-Ermittlern kamen so mehr als 100000 US-Dollar zusammen.

Die Beute war beschaulich, der Bitcoin-Aufruf schnell als Unfug enttarnt. Doch laut Experten hätte ein ausgefeilter Hack – etwa mit einer politischen Botschaft oder einer börsenrelevanten Nachricht – einen deutlich grösseren Schaden anrichten können. Was würde passieren, wenn Hacker plötzlich Accounts kapern, um die Welt ins Wanken zu bringen? Wenn Biden gefälschte Kriegsdrohungen twitterte? Oder Bezos, dass er seinen Riesenkonzern Amazon verkaufe?

Bund fördert Forschungsprojekt zur Erkennung von Fakes

Es braucht mitunter wenig, damit soziale Netzwerke wie Twitter oder auch Facebook und Instagram zum virtuellen Krisengebiet werden; erst recht in Zeiten, in denen Tweets das primäre Verlautbarungsorgan des US-Präsidenten sind und sich Fake News schnell verbreiten. Manipulierte Botschaften echter Accounts können dazu missbraucht werden, um mit Desinformationen die öffentliche Meinung zu beeinflussen. Oder gar politische Entscheide.

Auch der Schweizer Sicherheitsapparat beobachtet dies; mit wachsender Sorge, heisst es. Wie Recherchen zeigen, beschäftigt man sich im Verteidigungsdepartement mit Sabotage-Operationen in den sozialen Netzwerken. Immer wieder hätten es soziale Netzwerke ermöglicht, «falsche Informationen zu verbreiten, die für die Bevölkerung schädlich sein können», sagt ein Sprecher des Bundesamts für Rüstung (Armasuisse). Die Behörde verweist ausdrücklich auf den nach ihrer Ansicht «massiven Angriff» mit den Twitter-Accounts prominenter Personen.

Deshalb fördert der Bund nun ein Forschungsprojekt zur Erkennung von Fakes in sozialen Netzwerken. Dieses ziele darauf ab, «Beiträge aufzuspüren, die aufgrund des Inhalts – also ihres Textes – als betrügerisch angesehen werden könnten», bestätigt der Armasuisse-Sprecher.

Was kann die Schweiz da überhaupt ausrichten?

Bei der Rüstungsbehörde ist der Cyber-Defence Campus angegliedert, der 2019 im Rahmen der «Nationalen Strategie zum Schutz der Schweiz vor Cyberrisiken» des Bundesrats gegründet worden ist. Informatikspezialisten des Bundes erforschen Seite an Seite mit Wissenschaftlern und Experten aus der Industrie neue Bedrohungen aus dem digitalen Raum.

Der Auftrag umfasst zum einen die «Früherkennung der rasanten Entwicklung im Cyberbereich». Zum anderen sollen die Forscher die Armee und den Nachrichtendienst mit neuestem Wissen und Technologie versorgen.

Im Kampf gegen Sabotage in den sozialen Medien arbeitet der Campus mit der Zürcher Hochschule für Angewandte Wissenschaften (ZHAW) in Winterthur zusammen. Nach einer Initialisierungsphase sollen die Forscher im nächsten Jahr loslegen. Bloss: Die sozialen Netzwerke ergreifen längst eigene Massnahmen. Twitter etwa versucht durch maschinelles Lernen, gefälschte Accounts oder automatisierte Kurznachrichten zu identifizieren.

Was sollen und können staatliche Akteure aus der Schweiz da noch ausrichten? Man verfolge einen anderen Ansatz, heisst es seitens Armasuisse. Die Forscher setzen auf Natural Language Processing (NLP), eine Methode, bei der menschliche Sprache mithilfe von künstlicher Intelligenz und Algorithmen verarbeitet wird. Computer lernen – vereinfacht erklärt –, diese auch inhaltlich zu verstehen.

Wie betrügerische Postings aufgedeckt werden

Im konkreten Fall soll das so funktionieren: Ein redaktionelles Profil modelliert den Stil, in dem ein Nutzer einen Beitrag wie zum Beispiel ein Tweet verfasst; basierend auf dem von ihm typischerweise verwendeten Vokabular, der Satzstruktur, der Syntax und der Interpunktion. Darüber hinaus wird auch der Kontext berücksichtigt; beispielsweise wann ein Nutzer seine Beiträge üblicherweise veröffentlicht oder wie viele Zeichen seine Beiträge haben.

Damit sollen Anomalien im Schreibstil eines Benutzers aufgedeckt werden, die auf ein betrügerisches Posting hindeuten könnten.

Die Forscher wollen herausfinden, ob ein Ansatz mit Natural Language Processing dafür der richtige ist. Mit welchen Methoden dies genau passieren soll, dazu äussern sich die Verantwortlichen vorerst nicht näher. Und wohin soll das alles noch führen? Zu welchen Zwecken die Cyberspezialisten der Armee oder gar Schnüffler des Nachrichtendienstes die Erkenntnisse dereinst praktisch einsetzen könnten, ist vorderhand ebenso unklar.

Gegebenenfalls dürften sich da ohnehin noch rechtliche Fragen stellen. Immerhin betont Armasuisse schon mal vorsorglich: Die Forschungsresultate würden nicht militärisch klassifiziert und stünden allen Bereichen des Verteidigungsdepartements offen.

Verwandtes Thema:

Autor

Sven Altermatt

Sven Altermatt

Meistgesehen

Artboard 1