Hoppa till innehållet

Vi använder cookies för att förbättra funktionaliteten på våra sajter, för att kunna rikta relevant innehåll och annonser till dig och för att vi ska kunna säkerställa att tjänsterna fungerar som de ska.

Läs mer

En utskrift från Dagens Nyheter, 2021-01-24 13:38

Artikelns ursprungsadress: https://www.dn.se/vetenskap/studio-dn-24-november-darfor-kan-slutsatserna-fran-ai-verktyg-underblasa-rasism/

Vetenskap

Studio DN 24 november: Därför kan slutsatserna från AI-verktyg underblåsa rasism

DN:s teknikreporter Linus Larsson förklarar varför resultatet från artificiell intelligens kan underblåsa rasistiska och sexistiska strukturer.

DN Text

Lyssna här

Kan du, enkelt, förklara vad AI är?

– För det första tycker jag att artificiell intelligens är ett ord som används på tok för frikostigt i dag, om nästan all form av mjukvara. Men jag skulle säga att det är ett paraplybegrepp för tekniker som får datorer och algoritmer att lära sig själv. Att träna upp sig på en uppgift och inte bara utföra det man har programmerat den att göra. Den kan helt enkelt bygga något som åtminstone närmar sig det vi kan kalla riktig intelligens och en förmåga att tänka.

Men det kan bli väldigt fel också?

– Ett område som man har börjat prata om är det man kallar för bias inom artificiell intelligens. Bias är ett engelskt ord och kan kanske översättas med partiskhet eller förutfattade meningar. Precis så som människor kan ha fördomar. Det handlar inte om att artificiell intelligens kan ha riktiga åsikter, som rasistiska eller sexistiska åsikter. Men det finns ett antal exempel på när artificiell intelligens har dragit slutsatser som drar åt det hållet.

Du har skrivit om exempel när polisen i USA har använt ansiktsigenkänning i USA?

– Ja, en man greps misstänkt för en stöld av exklusiva klockor. Det som låg bakom gripandet var att bilder från en övervakningskamera hade matats in i ett system för ansiktsigenkänning. Det hade fått en träff på den här mannen och polisen grep honom. Men mjukvaran hade felidentifierat honom. Mannen var afroamerikan, och det har konstaterats att de här systemen oftare tar fel när det gäller människor som inte är vita. Det kan mycket väl bero på att de tränas med material där vita ansikten är väldigt mycket vanligare, så att den ärver en sådan fördom. Det kan få väldigt allvarliga konsekvenser.

Lyssna på avsnittet:

Podden är gratis för alla. Lyssna i DN-appen eller på Podplay eller andra poddplattformar.

I DN-appen kan du välja att ladda ner och lyssna offline. Ladda ner Dagens Nyheters app för iOS här och för Android här. Information om alla poddavsnitt finns här.

Läs också: Artificiell intelligens kan ta efter våra fördomar

Ämnen i artikeln

DN podcast
Så här jobbar DN med kvalitetsjournalistik: uppgifter som publiceras ska vara sanna och relevanta. Rykten räcker inte. Vi strävar efter förstahandskällor och att vara på plats där det händer. Trovärdighet och opartiskhet är centrala värden för vår nyhetsjournalistik. Läs mer här.

Kommentera artikeln

I samarbete med Ifrågasätt Media Sverige AB:s (”Ifrågasätt”) tjänst Ifrågasätt erbjuder DN möjligheten för läsare att kommentera vissa artiklar. Denna tjänst tillhandahålls således av Ifrågasätt som också är ansvarig för tjänsten.

De kommentarer som Ifrågasätt tillgängliggör på tjänsten visas i anslutning till dn.se. DN granskar inte kommentarerna i förväg. Kommentarerna omfattas inte av utgivaransvaret enligt yttrandefrihetsgrundlagen och de är inte heller en del av den grundlagsskyddade databasen dn.se.

Grundreglerna för kommentarer är:

  • håll dig till ämnet
  • håll en god ton
  • visa respekt för andra skribenter och berörda personer i artikeln.

I övrigt gäller de regler för kommentarer som framgår av Ifrågasätts användarvillkor och som du godkänner i samband med att du skapar ett konto för kommentering. Ifrågasätt förbehåller sig rätten att radera kommentarer i efterhand. DN kan genom eget beslut ta bort kommentarer.

Ⓒ Detta material är skyddat enligt lagen om upphovsrätt