Gå til hovedinnhold

Du er nå på UiAs gamle nettsider. Informasjonen du finner her kan være utdatert.

Her finner du våre nye nettsider

0
Hopp til hovedinnhold

Optimization of Multivariate Hawkes Processes via Decentralized Learning Automata

Den økende andelen av villedende informasjon på sosiale medier er problematisk, da disse i økende grad har blitt en av hovedkildene til informasjon grunnet deres brukervennlighet og lave informasjonskostnad. Flere kunstig intelligens løsninger har blitt foreslått for å bekjempe dette problemet. En vanlig tilnærming er en bekjempelses-strategi der man demper spredningen av villedende informasjon ved å øke eksponeringen for faktisk "korrekt" informasjon.

Ahmed Abdulrahem Othman Abouzeid

Ph.d.-kandidat

Ahmed Abdulrahem Othman Abouzeid disputerer med ph.d.-avhandlingen Optimization of Multivariate Hawkes Processes via Decentralized Learning Automata 5. desember 2023.

Slik oppsummerer kandidaten selv avhandlingen:

Den økende andelen av villedende informasjon på sosiale medier er problematisk, da disse i økende grad har blitt en av hovedkildene til informasjon grunnet deres brukervennlighet og lave informasjonskostnad. Misvisende informasjon kan forstyrre sosial orden og hindre gjenoppretting fra nødsituasjoner, som nylig ble aktualisert gjennom "infodemien" av COVID-19 og den russisk-ukrainske informasjonskrigen. Økningen i villedende informasjon kan føre til at brukere mister tillit til også pålitelige informasjonskilder. Flere kunstig intelligens løsninger har blitt foreslått for å bekjempe dette problemet. En vanlig tilnærming er en bekjempelses-strategi der man demper spredningen av villedende informasjon ved å øke eksponeringen for faktisk "korrekt" informasjon.

Fordi hver bruker har et ulikt antall tilstøtende brukere, og hver bruker har ulik grad av eksponering for villedende informasjon, bør individuelle insentiver bestemmes forskjellig i henhold til følgende. På den ene siden, (A) hvor mye eksponering for villedende informasjon en bruker har? På den annen side, (B) hvor mye eksponering for villedende informasjon har tilstøtende brukere? I alle tilfeller (C), hvor sannsynlig er det at en bruker eller en tilstøtende bruker vil akseptere eller påvirkes av det bestemte insentivet?

Tradisjonelt sett blir eksponeringen av en spesifikk informasjonstype for hver bruker definert som antall ganger innhold av den informasjonstypen er blitt delt i brukerens nettverk, for eksempel av personer brukeren følger på Twitter. Altså, for å øke eksponeringen for faktisk «korrekt» innhold på nettet, blir sosiale mediebrukere oppmuntret til å spre det korrekte innholdet først, og deres nettverkskontakter, som deres følgere på Twitter, kan deretter nå og samhandle med denne «korrekte» informasjonen. Måten man påvirker brukerne i denne sammenhengen er ved å motivere dem til å endre sin atferd når det gjelder spredning av misinformasjon ved å spre mer «korrekt» informasjon. Fordi hver bruker har et ulikt antall tilstøtende brukere, og hver bruker har ulik grad av eksponering for villedende informasjon, bør individuelle insentiver bestemmes forskjellig i henhold til følgende. På den ene siden, (A) hvor mye eksponering for villedende informasjon en bruker har? På den annen side, (B) hvor mye eksponering for villedende informasjon har tilstøtende brukere? I alle tilfeller (C), hvor sannsynlig er det at en bruker eller en tilstøtende bruker vil akseptere eller påvirkes av det bestemte insentivet?

Tradisjonelt sett brukes forsterkningslæring for å finne de beste insentivene for hver enkelt bruker i kampen mot misvisende informasjon. Med forsterkningslæringsmetoder, blir dynamikken til de sosiale medie-brukernes online-engasjement modellert gjennom et simulert sosialt nettverksmiljø, der forsterkningslærings-algoritmene kan lære fra brukeradferden i det simulerte miljøet. Imidlertid har det vært relativt få forsøk på å lære og evaluere de optimale individuelle insentivene som kreves for å oppnå en optimal demping av misvisende informasjon. For eksempel har nåværende kriteriefunksjoner og -representasjoner hovedsakelig fokusert på hvilke mengder av villedende og faktisk "korrekt" informasjon som hver bruker har blitt eksponert for, uten at det har blitt tatt hensyn til de grunnleggende årsakene som driver disse eksponeringene. Altså er ikke spørsmål (C), slik nevnt ovenfor, tilstrekkelig undersøkt i nåværende forskning. Vi mener at dette gir en ulempe i eksisterende løsninger, fordi den simulerte nettverksmodellen og incentiviseringsprosedyren bør gjennomføres basert på den beste mulige representasjonen og kriteriefunksjonen som reflekterer virkeligheten på sosiale medier.

I denne forskningen presenterer vi en ny tilnærming ved å bruke forsterkningslæring, og mer spesifikt, en såkalt læringsenhet referert til som Learning Automaton (LA). Metoden vår kombinerer prinsippene i forsterkningslæring med de adaptive beslutningsevnene i LA for å håndtere utfordringene med læring av insentiver basert på brukerbehov. Videre foreslår vi en ny simuleringsbasert optimaliseringsmodell med en innovativ representasjon av brukeraktivitet for å modellere oppgaven med intervensjonsbasert demping av misvisende informasjon. Med utgangspunkt i den nye aktivitetsrepresentasjonen, har vi utviklet en ny kriteriefunksjon som tar hensyn til nøkkelfaktorene som påvirker informasjonsspredning på sosiale medier, i stedet for å kun beregne mengder av eksponering for villedende og faktisk «korrekt» informasjon. Disse nøkkelfaktorene ble foreslått i nyere samfunnsvitenskapelige studier og illustrerer hva som styrer spredningen av misvisende informasjon på dagens sosiale medieplattformer. På den måten har vi foreslått temporære aktiviteter som samfunnsmessig skjevhet, engasjement med innhold og spredningsmønsteret til både villedende og faktisk «korrekt» informasjon. Derfor antar vi ikke at insentiver blir tildelt bare basert på mengden eksponering for villedende informasjon, men at insentivet heller blir vurdert og tildelt basert på sannsynlighet for å være enig med et bestemt innhold eller mening som har en spesiell skjevhet. I tillegg veier sannsynligheten for at brukeren engasjerer seg med innholdet i utgangspunktet inn. Videre foreslår studien algoritmer for å hjelpe til med å verifisere og selv lære om aktivitetskategorier på sosiale medier, som for eksempel politisk skjevhet og informasjonstype. Til slutt viser våre empiriske resultater tre hovedegenskaper. For det første viser de hvordan våre nye misvisende informasjon-dempingsalgoritmer er bedre i de fleste scenarier sammenlignet med tradisjonelle forsterkningslærings-algoritmer. For det andre indikerer resultatene hvordan våre foreslåtte kriteriefunksjoner er robuste mot forskjellige nettverksstatistikker med ulike prosentandeler av villedende informasjonseksponering blant brukere. For det tredje er vår nye aktivitetsrepresentasjon mer forklarbar og utvider den analytiske kapasiteten til en misvisende informasjon-dempingsløsning. Det sistnevnte funnet anerkjennes gjennom evnen til å spore endringer i sannsynligheten for samfunnsmessig skjevhet og engasjement med innhold som en konsekvens av intervensjon. I korte trekk undersøker denne forskningen spørsmål og problemstillinger som går utover eksisterende referansedatasett for desinformasjon og deres underliggende representasjoner. Studien har samlet inn omfattende og avgjørende data for å skape en godt utviklet læringssetting og standard for den foreslåtte forsterkningslæringsagenten. Målet med vår forskning er å koble sammen fagområdene kunstig intelligens og samfunnsvitenskap ved å undersøke relevante teoretiske studier om problemet med spredning av misvisende informasjon på sosiale medier og de sammenhengende dynamikkene som styrer denne prosessen.

Mer informasjon om tid og sted for disputasen