Kan du spotte en bot? Ny forskning siger nej, det kan du ikke

Indtil for nylig var det svært at lave overbevisende falske profiler på sociale medier i større omfang. Billederne kunne spores tilbage til kilden, og ofte klingede teksten ikke som et menneske. De tider er nu forbi, viser ny forskning fra CBS.

15/03/2023

spot.the.bot
Photo: Shutterstock

Hurtige fremskridt inden for kunstig intelligens har gjort det vanskeligere at se forskel på profiler lavet af mennesker og robotter. Derfor besluttede forskere fra CBS sig for at udføre en undersøgelse med 375 respondenter. De ville undersøge, hvor svært det er at se forskel på ægte og falske profiler på sociale medier.

De fandt, at deltagerne var ude af stand til at se forskel på de ægte og de kunstigt genererede profiler på Twitter, og faktisk opfattede mange de falske profiler som værende ’mindre sandsynligt falske’ end de ægte profiler.

”Vores resultater antyder, at den teknologi, der anvendes til at generere falske profiler har udviklet sig i en sådan grad, at det er svært at skelne dem fra de ægte profiler,” siger Sippo Rossi, ph.d.-studerende fra grundforskningscentret Centre for Business Data Analytics ved Institut for Digitalisering på CBS.

Forskerne skabte deres egne falske Twittertråde, hvor emnet var krigen i Ukraine. Tråden omfattede både ægte og genererede profiler samt tweets, der støttede begge sider. De falske profiler brugte computergenererede syntetiske profilbilleder, skabt med hjælp fra StyleGAN, og opslag, som blev genereret af GPT-3; den samme sprogmodel, som står bag ChatGPT.

”Interessant nok var de konti, der blev stillet flest spørgsmål ved i forhold til akkuratesse og sandsynlighed, dem med virkelig mennesker bag. En af de ægte profiler blev fejlagtigt kategoriset som falsk af 41,5% af de deltagere, som så den. Imidlertid blev en af de falske profiler, der klarede sig bedst, kun kategoriseret som bot af 10%,” siger Sippo Rossi.

Forskningsresultaterne blev udgivet i The Hawaii International Conference on System Sciences (HICSS).

Potentielt misbrug

Tidligere var det meget arbejdskrævende at skabe falske profiler, fortæller medforfatter Raghava Rao Mukkamala, leder af Centre for Business Data Analytics ved Institut for Digitalisering på CBS. 

”For fem år siden havde den almindelige bruger ikke teknologien til at skabe falske profiler i denne skala og med så stor lethed. I dag er teknikken nemt tilgængelig for de mange og ikke kun de få,” siger han.

Udbredelsen af såkaldt ”deep learning”-genererede profiler på sociale medier skaber markante udfordringer for både samfundet og selve demokratiet, når de bliver brugt til politisk manipulation, misinformation eller cybermobning og cyberkriminalitet, påpeger Raghava Rao Mukkamala.

”Autoritære regeringer oversvømmer sociale medier med tilsyneladende støtter for at manipulere informationsstrømmen, så det bliver afgørende for udviklingen, om man nøje overvejer disse teknologiers potentielle konsekvenser og arbejder på at imødegå den negative effekt,” siger han.

Fremtidig forskning

Forskerne brugte en metode, hvor deltagerne så et tweet og profilinformationen, der var knyttet til kontoen. Det næste skridt bliver at undersøge, om bots kan identificeres ud fra diskussioner i nyhedstråde, hvor forskellige falske og ægte profiler kommenterer på en specifik artikel i samme tråd.

”Vi har brug for nye måder og nye metoder til at håndtere det her, fordi det nu er stort set umuligt at få ånden tilbage i flasken. Hvis ikke mennesker er i stand til at opdage de falske profiler og opslag og så anmelde dem, så må det blive gjort automatisk med for eksempel lukning af konti og id-verificering. Det vil være de firmaer, der står bag de sociale medieplatforme, der også skal udvikle sikkerhedsforanstaltningerne,” tilføjer Sippo Rossi.

”Lige nu er min anbefaling, at man kun bør stole på de mennesker på sociale medier, man kender,” konkluderer Sippo Rossi.

Link til artiklen

 

Sidst opdateret: Sekretariat for Ledelse og Kommunikation // 24/03/2023