Hoppa till huvudinnehåll
RISE logo
Integritet är viktigt inom sjukvård
Foto: RISE Mediabank

Federerad inlärning inom cybersäkerhet — värnar om integritet

13 mars 2024, 08:00

I en exklusiv intervju med Han Wang, forskare inom cybersäkerhet vid RISE, specialiserad på AI och cybersäkerhet, får vi veta mer om fördelarna med federerad inlärning inom cybersäkerhet för att värna om människans integritet och skydda känsliga data.

Med införandet av nya integritetslagar, såsom GDPR, bör mängden data som delas alltid minimeras. Federerad inlärning har vuxit fram som en metod som gör det möjligt att träna AI-modeller i flera decentraliserade slutenheter, till exempel smartphones, IoT-enheter eller servrar, utan att utbyta rådata. Fördelarna är stora och blir allt vanligare i branscher som hanterar känsliga data, tex hälso- och sjukvård, finans och telekommunikation. 

Så här funkar federerad inlärning

I stället för att skicka träningsdata till en centraliserad server skickas AI-modeller till slutenheterna, där den lär sig på lokala data. Endast uppdateringarna från dessa lokala AI-modeller sammanfogas på en central server, och inkluderas i den globala modellen. Processen gör det möjligt att träna modeller på känsliga eller storskaliga data utan att kompromissa med integriteten. 

— Genom att använda federerat lärande inom cybersäkerhet kan organisationer dra nytta av den kollektiva intelligensen hos slutenheter samtidigt som de tar hänsyn till integritetsfrågor och upprätthåller datasuveränitet. Detta tillvägagångssätt möjliggör mer robusta och skalbara cybersäkerhetslösningar som kan anpassas till föränderliga hot och olika miljöer, berättar Han Wang som är som är forskare vid RISE. 

Så kan metoden användas för att minska cyberattacker

Att integrera robusta cybersäkerhetsåtgärder i den här typen av inlärningssystem är avgörande för att skydda känsliga data, bevara integriteten och säkerställa tillförlitlighet och säkerheten hos AI-modeller som tränas så här.

Federerad inlärning kan användas för att minimera olika cyberattacker genom att utnyttja dess decentraliserade och integritetsbevarande natur. 

  1. Genom att träna modeller lokalt på användarenheter utan att överföra rådata till en central server minskar risken för dataintrång och obehörig åtkomst till känslig information. 
     
  2. Federerad inlärning möjliggör aggregering av modelluppdateringar i stället för rådata. Det minimerar exponeringen av personlig information. 
     
  3. Federerad inlärning underlättar integrationen av mekanismer för att upptäcka hot i realtid direkt i slutenheter. Genom att kontinuerligt övervaka lokala data och modelluppdateringar kan enheterna upptäcka avvikelser och misstänkta aktiviteter som tyder på cyberattacker.

Applicerbara områden för federerad inlärning inom cybersäkerhet

Tillämpningsområdena är många, inklusive IoT-nätverk. I en smart byggnad kan det till exempel handla om de gateways där intrångsdetekteringssystem (IDS) används. 

— Inom fordonsindustrin kan federerad inlärning användas för att träna intrångsdetekteringssystem för fordon. Lokala modeller tränas på data som samlats in från fordonssensorer, CAN-bussmeddelanden och andra inbyggda system, för att upptäcka avvikelser som tyder på cyberattacker eller försök till obehörig åtkomst, förklarar Han Wang.

Är företagen och branschen redo att använda metoden?

— Även om det finns ett växande intresse och medvetenhet om fördelarna, varierar beredskapen baserat på teknisk kapacitet, regelefterlevnad, ekosystem för samarbete och säkerhetsöverväganden. Med framsteg och insatser för att ta itu med utmaningarna förväntas användningen öka, säger Han Wang.

Aktuella forskningsprojekt på RISE

Han Wang är för närvarande engagerad i två forskningsprojekt inom cybersäkerhet. Det ena strävar efter att utveckla ett innovativt ramverk för hantering av tillit, säkerhet och integritet för IoT-system, och det andra att utnyttja nya kryptografiska system för att främja kapaciteten för integritetsbevarande maskininlärning och federerad inlärning. 

— Kärnan i min forskning ligger i att utnyttja AI och maskininlärning för att hantera frågor om IoT-säkerhet och förbättra säkerhets- och sekretessåtgärder. Jag vill stärka ramverket för federerad inlärning för att lösa säkerhetsproblem i IoT-nätverk och göra AI-modeller mer robusta mot skadliga handlingar, berättar Han Wang. 

Utmaningar gynnar mer forskning

Federerad inlärning har fördelar men också utmaningar. Tre problem som Han Wang studerat: 

  • Effekter av dataheterogenitet: 
    De insamlade uppgifterna varierar avsevärt mellan enheter eftersom preferenser och lokala miljöer är olika. Det är särskilt relevant för anomalidetektering, eftersom typen av attacker eller avvikelser som observeras av varje enhet kan vara olika, särskilt i IoT-scenarier. 
  • Effektiv kommunikation: 
    Det frekventa utbytet av uppdaterade modeller mellan aggregatorn och kunderna medför betydande kommunikationskostnader. 
  • Robusthet: 
    Sofistikerade angripare har försökt manipulera resultat och modeller som Machine learning-systemen producerar för att uppnå sina mål. Dessa skadliga handlingar kallas kontradiktorisk AI. 

— Resursbegränsningen för IoT slutenheter är också utmanande. Det kan handla om beräkningsresurser, lagringskapacitet eller batteritid, vilket gör det svårt att utföra komplexa uppgifter lokalt. Att utforma lätta AI-algoritmer och optimeringstekniker för att tillgodose resursbegränsade miljöer är avgörande för skalbara och effektiv produktionssättning.

Vill du veta mer?

För att läsa mer om Han Wangs forskning och projekt, besök hennes profil eller fördjupa dig via länkarna: 

Vetenskapliga publikationer I ämnet:

  • Han Wang, David Eklund, Alina Oprea, and Shahid Raza. “FL4IoT: IoT Device Fingerprinting and Identification Using Federated Learning”. In: ACM Trans. Internet Things 4.3 (2023). DOI: 10.1145/3603257 (in collaboration with Northeastern University, USA)
  • Han Wang, Luis Muñoz González, David Eklund, and Shahid Raza. “Non-IID Data Re-Balancing at IoT Edge with Peer-to-Peer Federated Learning for Anomaly Detection”. In: Proceedings of the 14th ACM Conference on Security and Privacy in Wireless and Mobile Networks. WiSec ’21. Abu Dhabi, United Arab Emirates: Association for Computing Machinery, 2021, 153–163. DOI: 10.1145/3448300.3467827 (in collaboration with Imperial College London, U.K.)
  • Han Wang, Luis Muñoz-González, Muhammad Zaid Hameed, David Eklund, and Shahid Raza. “SparSFA: Towards robust and communication-efficient peer-to-peer federated learning”. In: Computers Security 129 (2023), p. 103182. DOI: https://doi.org/10.1016/j.cose.2023.103182 (in collaboration with Imperial College London, U.K., and IBM, Ireland)

Andra vetenskapliga publikationer:

  • Han Wang, Luis Barriga, Arash Vahidi, and Shahid Raza. “Machine Learning for Security at the IoT Edge - A Feasibility Study”. In: 2019 IEEE 16th International Conference on Mobile Ad Hoc and Sensor Systems Workshops (MASSW). 2019, pp. 7–12. DOI: 10.1109/MASSW.2019.00009 (in collaboration with Ericsson AB)
  • Ivo Zenden, Han Wang, Alfonso Iacovazzi, Arash Vahidi, Rolf Blom, and Shahid Raza. “On the Resilience of Machine Learning-Based IDS for Automotive Networks”. In: 2023 IEEE Vehicular Networking Conference (VNC). 2023, pp. 239–246. DOI: 10.1109/VNC57357.2023.10136285
  • Alfonso Iacovazzi, Han Wang,  ̇Ismail Bütün,  and Shahid Raza. “To- wards Cyber Threat Intelligence for the IoT”. in: The 4th International Workshop on Security and Reliability of IoT Systems (2023)
Han Wang

Han Wang

Forsknings- och utvecklingsingenjör

+46 10 228 43 97

Läs mer om Han

Kontakta Han
CAPTCHA

* Obligatoriskt Genom att skicka in formuläret behandlar RISE dina personuppgifter.

Shahid Raza

Shahid Raza

Enhetschef

Läs mer om Shahid

Kontakta Shahid
CAPTCHA

* Obligatoriskt Genom att skicka in formuläret behandlar RISE dina personuppgifter.

2024-05-13

2024-04-15

2024-03-13

2024-02-08

2024-01-08

2024-01-08

2023-11-28

2023-11-20

2023-10-23

2023-10-10

2023-09-12

2023-08-22

2023-07-05

2023-06-11

2023-06-05

2023-05-31

2023-04-24

2023-04-03

2023-03-27

2023-02-20

2023-02-03

2023-02-02

2023-02-02

2023-02-02

2023-02-02

2023-01-25