kunstig intelligens
Advarer om at de mest bruke AI-modellene bevisst mates med falsk informasjon
Factiverse-gründer Maria Amelie minner om at vanlige AI-verktøy i dag påvirkes bevisst med propaganda.
Gründerne av Factiverse, Maria Amelie og Vinay Setty.
Foto: Factiverse
En omfattende desinformasjonskampanje fra et Moskva-basert nettverk kalt «Pravda» sprer pro-Kremlin propaganda direkte inn i AI-modeller, ifølge en undersøkelse fra NewsGuard.
I stedet for å rette seg mot vanlige lesere, manipulerer nettverket AI-chatboter ved å oversvømme nettdata med falske narrativer.
Ifølge TechCrunch, som omtaler undersøkelsen, har nettverket publisert 3,6 millioner artikler i 2024 alene. Undersøkelsen viser at 33 prosent av testede AI-modeller ukritisk gjentar russiske desinformasjonsnarrativer, inkludert ChatGPT-4o, Claude, Gemini og Microsoft Copilot.
Factiverse-gründer Maria Amelie advarer brukere av AI-verktøy mot at millioner av falske artikler nå er innbakt i vestlige AI-systemer. Factiverse har utviklet løsninger for å faktasjekke påstander på nettet og andre steder med troverdige kilder. På Linkedin viser hun til analysen og ber om at man er bevisst dette når ansatte bruker for eksempel Copilot.
Russland bruker AI som et nytt våpen i informasjonskrigen
NewsGuard omtaler taktikken som «LLM Grooming», hvor falske narrativer spres i enorm skala for å påvirke hvordan AI-modeller tolker og presenterer informasjon.
Nettverket, som ble først identifisert av franske myndigheter i 2024, har utvidet seg til å operere i 49 land på 150 ulike domener.
Pravda-nettverket publiserer ikke eget innhold, men gjør «narrative laundering», der propaganda fra russiske myndigheter, statlige medier og påvirkningsagenter gjengis på hundrevis av tilsynelatende uavhengige nettsteder. Dette gir inntrykk av at desinformasjonen er bredt anerkjent, noe som øker sannsynligheten for at AI-modeller inkorporerer den som troverdig informasjon.
AI-modeller blir en kanal for desinformasjon
NewsGuard fant at flere av chatbotene gjentok falske påstander direkte fra Pravda-nettverket, blant annet at Ukrainas president Volodymyr Zelenskyj har misbrukt amerikansk militærhjelp og at USA driver hemmelige biovåpenlaboratorier i Ukraina. Flere av chatbotene siterte også Pravda-artikler som legitime nyhetskilder.
Mens AI-selskaper stadig jobber for å forbedre kildekritikken i sine språkmodeller, viser denne undersøkelsen hvor sårbare AI-verktøy er for manipulasjon i stor skala. Som TechCrunch påpeker, er dette et skifte i informasjonskrigføring, hvor AI-modeller blir utnyttet til å spre propaganda i et omfang som tidligere ikke var mulig.
Få gratis nyhetsbrev
Abonner på Shifters nyhetsbrev for de siste nyhetene, trendene og analysene.