Kontaktperson
Anders Gavler
Projektledare
Kontakta Anders
Företaget Gimic utvecklar AI-baserade system för automatiserad kvalitetskontroll inom industrin och är först ut att genomgå RISE nya riskutvärderingstjänst av sina system i förhållande till AI-förordningen. – Vi fick en tydlig rapport över var vi står idag och vilka steg vi behöver ta framåt, säger Anders Cederlund, projektledare Gimic.
Den nya riskutvärderingstjänsten har utvecklats inom ramen för projektet CitCom.ai TEF, en av tre TEF:ar (Testing and Experimental Facilities) som är ett EU-initiativ som Sverige deltar i. Målet med tjänsten är att stödja beslutsfattande och strategisk planering för AI-baserade produkter och tjänster, med inriktning på analys och efterlevnad av AI-förordningen och andra AI-regleringar.
– Vår ambition är att bidra till en helautomatiserad och kvalitetssäkrad industri. Jag är övertygad om att regelverken kring AI kommer att bli tvingande framöver. Företag som utvecklar AI-lösningar kommer behöva kunna visa att de lever upp till direktiv och standarder. Genom att vi är med från början står vi bättre rustade och ökar förtroendet hos våra kunder, sammanfattar Henrik Arvsell, VD Gimic.
Som företag är det avgörande att förstå vilken riskkategori ens AI-produkt tillhör enligt AI-förordningen.
Gimic utvecklar AI-baserade system för automatiserad kvalitetskontroll inom industrin. I stället för att en operatör manuellt granskar exempelvis ett kugghjul för att hitta defekter, används kameror och AI-modeller.
– Vi ser vår teknik som den sista pusselbiten i helautomatiserade fabriker. Idag är nästan hela produktionsflödet automatiserat, men just slutkontrollen är ofta fortfarande manuell. Med vår lösning kan processen bli helautomatisk – från pall till pall – och samtidigt mer spårbar, säger Henrik Arvsell.
Arbetet startade med att företaget fick fylla i ett formulär med tekniska och funktionella beskrivningar av systemet. Därefter deltog de i en workshop tillsammans med CitCom-partnern RISE, för att tydliggöra detaljer och användningsområden. Efter workshopen tog RISE fram en rapport innehållande analys kring riskklassificeringen och rekommendationer för nästa steg.
– Som företag är det avgörande att förstå vilken riskkategori ens AI-produkt tillhör enligt AI-förordningen för att veta vilka lagkrav som gäller, vilket ansvar man har och hur man ska navigera inom regelverket. Samma AI-modell kan hamna i olika riskkategorier beroende på användningsområde, och kraven på datakvalitet varierar därefter, säger Kateryna Mishchenko, senior forskare på RISE.
För oss som liten organisation var det värdefullt att få struktur och vägledning.
Bedömningen visade att bolagets AI-modell i nuläget ligger på en låg risknivå. Samtidigt blev det tydligt att nivån kan höjas om man skulle börja leverera till aktörer inom mer känsliga sektorer, exempelvis kritisk infrastruktur eller om bedömningen gällde komponenter i ett säkerhetssystem.
– För oss som är en liten organisation var det värdefullt att få struktur och vägledning. Det hade tagit mycket längre tid att själva tolka alla juridiska och tekniska krav, säger Anders Cederlund och fortsätter:
– Det viktiga är att vi nu har en karta att navigera efter. Vi kan redan idag visa kunder och partners att vi jobbar strukturerat med riskfrågor, och vi vet vad som krävs om vi går in i mer reglerade marknader.
Med tekniken man utvecklar ser Gimic en framtid där kvalitetskontrollen inte bara är helautomatisk utan också mer tillförlitlig och spårbar, vilket ger säkrare och mer effektiva industriella processer. Att uppfylla regelverken kring AI redan i tidigt skede är avgörande.
CitComTEF erbjuder test- och experimentanläggningar för AI-startups och små och medelstora företag för att testa eller experimentera med AI-modeller och/eller robotar för smarta och hållbara städer och samhällen. Detta TEF består av 32 partner i 11 medlemsstater. Vissa partner är forskningstekniska organisationer (RTO), vissa är städer, vissa är universitet och vissa är företag.
CitComTEF erbjuder subventionerad tillgång för AI-startups och små och medelstora företag till verkliga virtuella och fysiska testmiljöer.
I en TEF (Testing and Experimental Facilities) kan du testa dina AI-modeller och robotar för att se om de uppfyller lagkraven (AI Act, Data Act, Machine Act och mer). TEF:er är specialiserade på att utföra tester av AI- och robotiklösningar. De är öppna för alla europeiska teknikleverantörer och den offentliga sektorn.
De andra tre TEF:erna är: