Hoppa till huvudinnehåll
RISE logo
Information på internet
Foto: Pixabay

Vattenmärkning av AI-genererad information

12 september 2023, 15:36

Hur kan man säkerställa information, för att avgöra om den är sann och korrekt?

AI är här för att stanna, den kommer inte ta jobben ifrån oss men vissa yrkeskategorier kommer att förändras, det ser vi redan idag. Alltmer information som produceras är AI-genererad, och det blir allt viktigare att säkerställa att AI förblir en tillgång för samhället och inte ett hot. Vi matas dagligen av information, och att det vi konsumerar är korrekt och sant är viktigt för media, skola, politik, individen och inte minst forskningen. Olyckligtvis är det inget som säger att en text är korrekt för att den producerats av en människa. Desinformation, falska texter, videos och bilder är hot som kan påverka samhälle och trovärdighet.

Vattenmärkning en lösning?

En lösning är vattenmärkning av text genererad av språkmodeller, som tex Chat GPT. Med hjälp av verktyg som kan upptäcka om en text är skriven av AI, skulle man kunna säkerställa avsändaren av en text, AI vs. människa, vilken kan vara en viktig lösning för tex lärare som ska betygsätta inlämningsuppgifter. För att detta ska vara möjligt så kan man träna en språkmodell på data där AI-genererad text och mänsklig text jämförs, något som man redan har börjat testa, vilket idag inte är hundra procent tillförlitligt. Ett problem är att vattenmärkning bara fungerar för system som omfattas av den regleringen. Texter som, till exempel, skapats i andra länder som inte kräver detta, eller av aktörer som inte bryr sig, kommer fortfarande finnas i omlopp. Sannolikt kommer det att vara mycket svårt – kanske tom omöjligt – att automatiskt klassificera information genererad av ett system man inte haft tillgång till för att testa.

Utöver vattenmärkning så finns även förslag på att kräva att chatt botar presenterar sig som just botar (Schibbolet-regeln), så att de som interagerar vet att det inte är frågan om mänsklig kontakt.

Vad gör RISE, i frågan?

— RISE forskar på AI i sig självt, men har också forskningsgrupper som jobbar med AI och etik, samhällspåverkan av AI, mediekritik, och sist men inte minst, hur individer och organisationer på bästa sätt drar nytta av AI:ns potential, berättar Kristina Knaving som är forskare inom AI och etik på RISE.

— Det bästa skyddet vi har mot desinformation är ett väl fungerande demokratiskt samhälle, med utbildning, trygghet och tillgång till god information. Det finns redan mycket fake news och overifierad information på internet. Det som kommer hända med AI är att mängden falska texter, bilder och videos ökar hastigt och då blir det ännu viktigare att organisationer och individer vet hur de kan hitta verifierad information, fortsätter Kristina.

Andra insatser för verifiering av information

Andra metoder för att säkerställa att information är korrekt, används bland annat inom journalistiken. Nyhetsredaktioner inför AI-policys som ska garantera att all information som publiceras i slutänden granskas och kvalitetssäkras av en människa, inklusive material som är framtaget med hjälp av, eller baserat på, AI. AI används ofta för sammanfattningar av nyheter, textning av videos och transkribering av ljud till text.

Ökad medvetenhet viktig

Det gäller även att som individ lära sig att vara källkritisk. Här har skolan en viktig roll, något som RISE slår fast i AI-Agendan (förslag 15). Det är även bra att som organisation skapa sina egna förhållningssätt till AI, både genom att definiera vilka områden det kommer att påverka och vilken intern policy man vill ha i dessa frågor.

Kontakta RISE

Kristina Knaving

Kristina Knaving

Fokusområdesledare Den uppkopplade individen-Senior forskare och interaktionsdesigner

+46 73 030 19 86

Läs mer om Kristina

Kontakta Kristina
CAPTCHA

* Obligatoriskt Genom att skicka in formuläret behandlar RISE dina personuppgifter.

Sverker Janson
CAPTCHA

* Obligatoriskt Genom att skicka in formuläret behandlar RISE dina personuppgifter.

2024-03-19

2024-02-06

2023-11-15

2023-10-02

2023-09-12

2023-08-23

2023-06-19

2023-06-19

2023-06-02

2023-05-17

2023-05-09

2023-04-27

2023-04-05

2023-04-04

2023-04-04

2023-03-29

2023-03-16

2023-01-31

2023-01-30

2022-12-06

2022-11-15

2022-10-24

2022-10-21

2022-10-20

2022-10-19