Jag bad en bot förklara hur artificiell intelligens kan användas för att manipulera den politiska debatten. Här är svaret.
En utskrift från Dagens Nyheter, 2023-03-23 13:00
Artikelns ursprungsadress: https://www.dn.se/ledare/jesper-ahlin-marceta-jag-bad-chatgpt-om-en-strategi-for-att-manipulera-det-offentliga-samtalet-och/
Jesper Ahlin Marceta: Jag bad ChatGPT om en strategi för att manipulera det offentliga samtalet – och fick det

Få ut mer av DN som inloggad
Du vet väl att du kan skapa ett gratiskonto på DN? Som inloggad kan du ta del av flera smarta funktioner.
Chattboten ChatGPT har gjort succé på internet de senaste månaderna. Vem som helst kan be boten förklara komplicerade forskningsresultat, lösa en hemläxa eller skriva en snapsvisa.
I förra veckan lanserade organisationen OpenAI nästa generations programvara, GPT-4. I jämförelse med det nya programmet framstår ChatGPT som en simpel miniräknare.
Sedan tidigare finns en oro kring vad artificiell intelligens (AI) kan göra. Inte minst i politiska sammanhang.
Som ett test bad jag ChatGPT, alltså den gamla miniräknaren, att beskriva hur AI kan användas för att manipulera den politiska debatten.
”AI kan skapa fejkade nyheter, förstärka särskilda åsikter som riktas mot specifika målgrupper och använda botar för att skapa illusionen av stöd eller motstånd”, svarade programmet.
Intressant. Utveckla.
”AI kan analysera användardata för att identifiera preferenser och förutfattade meningar, och sedan visa riktat innehåll mot specifika målgrupper för att förstärka åsikterna samtidigt som motsatta åsikter trycks tillbaka.”
Ge mig ett konkret exempel.
”AI kan samla data från användare som interagerar med antifeministiskt innehåll och använda informationen för att rekommendera mer extremt innehåll så att gruppens åsikter förstärks.”
Den gamla boten kan alltså ta fram strategier för att manipulera det offentliga samtalet. Man blir orolig för vad den nya boten kan göra.
Det är frågor som borde stå högt på agendan – medan det fortfarande är riktiga människor som sätter den.
Bland annat har GPT-4 förmåga att tolka meningen bakom bilder. Om den förmågan omsätts till att också skapa meningsfullt bildmaterial, som talar till åskådaren, kan det offentliga samtalet påverkas ännu mer.
Debatt handlar nämligen även om visuella uttryck. Redan i dag använder svenska opinionsbildare AI-genererade bilder på bebyggda skärgårdsidyller för att luckra upp strandskyddet.
En oskyldig och ändamålsenlig användning av botar. Men samma teknik bär potential till skadlig påverkan.
”AI kan användas för att skapa visuella element som manipulerar den politiska debatten genom att generera fejkade ansikten och röster, redigera bilder och skapa vilseledande infografik som förvränger information”, förklarar ChatGPT.
Snart kommer botar ha kapacitet att skapa video och ljud, som kan generera övertygande filmklipp med förvrängda politiska budskap.
Är samhället redo för en sådan digital revolution? Vad kan vi göra för att skydda oss?
Det är frågor som borde stå högt på agendan – medan det fortfarande är riktiga människor som sätter den.